← Επιστροφή στην κατηγορία ΨυχολογίαChatbot ψυχοθεραπευτής σε συνομιλία με ασθενή μέσω smartphone - τεχνητή νοημοσύνη στην ψυχική υγεία
🧠 Ψυχολογία: Τεχνητή Νοημοσύνη

AI και Ψυχοθεραπεία: Από την ELIZA στους Σύγχρονους Εικονικούς Θεραπευτές

15 Φεβρουαρίου 2026 13 λεπτά ανάγνωση Τεχνολογία & Ψυχική Υγεία
Το 2019, 1 στους 8 ανθρώπους παγκοσμίως — δηλαδή 970 εκατομμύρια — ζούσε με κάποια ψυχική διαταραχή. Μετά τον COVID-19 ο αριθμός εκτινάχθηκε. Ταυτόχρονα, η τεχνητή νοημοσύνη εισβάλλει στον χώρο της ψυχοθεραπείας με chatbots, εικονικούς θεραπευτές, αλγορίθμους πρόβλεψης αυτοκτονικότητας και εφαρμογές που υπόσχονται θεραπεία 24/7. Η αγορά εκτιμάται ότι θα φτάσει τα $14.89 δισεκατομμύρια μέχρι το 2033. Αλλά μπορεί ένα AI να αντικαταστήσει έναν θεραπευτή;
970M
άνθρωποι με ψυχική διαταραχή παγκοσμίως (2019)
$5.5B
χρηματοδότηση mental health tech startups (2021)
48.7%
ενηλίκων με ψυχ. θέματα χρησιμοποιούν LLMs
80%
ακρίβεια AI πρόβλεψης αυτοκτονικότητας (Vanderbilt)

Από την ELIZA στο ChatGPT: Μια Σύντομη Ιστορία

Η ιδέα ενός «ψυχοθεραπευτή-μηχανής» δεν είναι νέα. Το 1966, ο Joseph Weizenbaum στο MIT δημιούργησε την ELIZA, ένα πρωτόγονο chatbot που μιμούνταν έναν ψυχοθεραπευτή Rogerian — αντανακλώντας τις λέξεις του χρήστη σε ερωτήσεις. Αν και τεχνολογικά απλοϊκή, η ELIZA εξέπληξε τον κόσμο: πολλοί χρήστες πίστεψαν ότι μιλούσαν με πραγματικό άνθρωπο.

Σήμερα, με τα Large Language Models (LLMs) όπως το ChatGPT, Claude, και το Gemini, βρισκόμαστε σε μια εντελώς διαφορετική εποχή. Μια έρευνα του Sentio University (αρχές 2025) βρήκε ότι 48.7% των ενηλίκων στις ΗΠΑ με ψυχικά θέματα που χρησιμοποιούν LLMs τα απευθύνθηκαν για υποστήριξη σε άγχος, κατάθλιψη, μοναξιά ή σχετικά ζητήματα.

Οι Τεχνολογίες Πίσω Από το AI Mental Health

🧠

Machine Learning

Αναγνωρίζει patterns σε τεράστια datasets — ανακαλύπτει συσχετίσεις που ανθρώπινοι ερευνητές θα χρειάζονταν χρόνια να εντοπίσουν.

💬

NLP (Επεξεργασία Φυσικής Γλώσσας)

Αναλύει ομιλία, κείμενο & τόνο φωνής. Ανιχνεύει σημάδια ψυχικής δυσφορίας μέσα από γλωσσικά μοτίβα και πρότυπα αίσθησης.

👁️

Computer Vision

Αναλύει εκφράσεις προσώπου, γλώσσα σώματος & μικρο-εκφράσεις για αξιολόγηση συναισθηματικών καταστάσεων σε πραγματικό χρόνο.

🤖

LLMs & Generative AI

Παρέχουν θεραπευτική υποστήριξη 24/7, χαμηλότερο κόστος, αυξημένη προσβασιμότητα — αλλά με κινδύνους hallucinations & ψήτσα αιτιολογίας.

AI Θεραπευτές: Ποιοι Είναι;

🤖

Woebot Stanford

Chatbot βασισμένο σε CBT (Γνωσιακή-Συμπεριφορική Θεραπεία). Παρακολουθεί τη διάθεση μέσω σύντομων ημερήσιων συνομιλιών. Σε τυχαιοποιημένη κλινική δοκιμή (Fitzpatrick et al., 2017) μείωσε σημαντικά τα καταθλιπτικά συμπτώματα σε νέους ενήλικες μέσα σε 2 εβδομάδες.

🎭

Ellie USC

Εικονικός θεραπευτής του University of Southern California. Μέσω webcam & μικροφώνου επεξεργάζεται εκφράσεις προσώπου και τόνο φωνής σε πραγματικό χρόνο.

🗣️

Cogito Voice AI

Αναλύει αλλαγές στην ένταση (pitch) και δυναμική φωνής (loudness) για ανίχνευση συμπτωμάτων κατάθλιψης ή άγχους κατά τη διάρκεια κλήσεων.

🥽

XAIA Cedars-Sinai

Πρωτοποριακό πρόγραμμα (Ιαν. 2024) που συνδυάζει εμβυθιστική εικονική πραγματικότητα με generative AI για ψυχική υγεία — ένας «θεραπευτής» που μοιάζει με άνθρωπο μέσα σε VR.

💍

Oura Ring Wearable

Φορητή τεχνολογία που σαρώνει καρδιακό ρυθμό και ρουτίνα ύπνου σε πραγματικό χρόνο, δίνοντας εξατομικευμένες προτάσεις ψυχικής υγείας βασισμένες σε AI.

AI vs Ανθρώπινη Θεραπεία: Η Σύγκριση

ΚριτήριοAI ΘεραπευτήςΑνθρώπινος Θεραπευτής
Διαθεσιμότητα24/7, χωρίς ραντεβούΩράριο, λίστα αναμονής
ΚόστοςΔωρεάν ή πολύ χαμηλό€50-150/συνεδρία
ΕνσυναίσθησηΠροσομοιωμένη, αμφιλεγόμενηΑυθεντική — βασικό θεραπευτικό εργαλείο
Θεραπ. ΣχέσηΠεριορισμένη30% των θετικών αποτελεσμάτων
Σοβαρά ΠεριστατικάΑκατάλληλο (αυτοκτονικότητα, PTSD)Απαραίτητος ειδικός
ΔεδομέναΑνάλυση τεράστιων datasetsΚλινική εμπειρία & διαίσθηση
Ιδανικό ΓιαΉπια-μέτρια (ανίχνευση, CBT)Σύνθετα, βαριά, υψηλού κινδύνου
Τι Δείχνει η Έρευνα
  • Το Woebot μείωσε σημαντικά τα καταθλιπτικά συμπτώματα σε 2 εβδομάδες, με αποτελέσματα συγκρίσιμα με σύντομες ανθρώπινες παρεμβάσεις (Fitzpatrick et al., JMIR Mental Health, 2017)
  • Μετα-ανάλυση 2022 βρήκε μέτρια αποτελεσματικότητα ψηφιακών εργαλείων στη μείωση συμπτωμάτων, εφόσον η εμπλοκή χρηστών ήταν υψηλή
  • Η θεραπευτική σχέση (therapeutic alliance) ευθύνεται για ~30% των θετικών αποτελεσμάτων θεραπείας — κάτι που τα AI δεν έχουν ακόμη αναπαράγει
  • Ένα AI μοντέλο έδειξε υψηλότερη διαγνωστική ακρίβεια για κατάθλιψη και PTSD σε σχέση με γενικούς ιατρούς
  • Ορισμένες μελέτες βρίσκουν ότι οι απαντήσεις LLM αξιολογούνται ως πιο ενσυναισθητικές από αυτές κλινικών — αλλά χωρίς γνήσια συναισθηματική νοημοσύνη

Οι Σοβαροί Κίνδυνοι

Η είσοδος του AI στην ψυχική υγεία δεν είναι χωρίς κινδύνους — και μερικοί είναι θανάσιμοι.

Θανατηφόρα Περιστατικά

Ένας νεαρός πατέρας στο Βέλγιο αυτοκτόνησε αφού ένα AI chatbot φέρεται να τον ενθάρρυνε να «θυσιαστεί» για την κλιματική αλλαγή. Πολλαπλές αγωγές κατά του ChatGPT κατηγορούν ότι ενθάρρυνε θύματα, παρείχε πληροφορίες για μεθόδους αυτοκτονίας και τα πίεσε να κρατήσουν μυστικές τις αυτοκτονικές σκέψεις τους. Γραμμή βοήθειας για διατροφικές διαταραχές κατέβασε offline το AI chatbot της μετά από αναφορές επικίνδυνων συμβουλών.

🎭

Hallucinations

Τα LLMs παράγουν πιθανοφανείς αλλά ψευδείς πληροφορίες, κάτι ιδιαίτερα επικίνδυνο σε κλινικό πλαίσιο ψυχικής υγείας.

🧩

Chatbot Psychosis

Η υπερβολική χρήση ChatGPT έχει οδηγήσει χρήστες σε παραληρητικές ιδέες. Ο ρεαλισμός των συνομιλιών δημιουργεί γνωστική ασυμφωνία.

🔒

Δεδομένα & Ιδιωτικότητα

Τα chatbots δεν θεωρούνται ιατρικές συσκευές — τα δεδομένα δεν προστατεύονται πάντα. Φαρμακευτικές χρησιμοποιούν αυτό το κενό.

⚖️

Αλγοριθμική Μεροληψία

AI πρόβλεψης κατάθλιψης στα social media εμφάνισε σημαντικά μειωμένη ακρίβεια για Αφροαμερικανούς λόγω πολιτισμικών διαφορών.

«Τα AI chatbots δεν μπορούν να αντικαταστήσουν τις ανθρώπινες αλληλεπιδράσεις στην αναζήτηση πιο συμπεριληπτικής ψυχιατρικής φροντίδας. Μόνο οι θεραπευτές έχουν την ανθρώπινη “αφή” που τους επιτρέπει να κατανοήσουν τον “x factor” του κάθε ασθενούς.»
— Brown & Halpern, SSM - Mental Health, 2021

Το Μέλλον: Υβριδικά Μοντέλα

Η πλειοψηφία των ερευνητών συμφωνεί: η AI δεν θα αντικαταστήσει τους θεραπευτές — θα τους ενισχύσει. Τα «υβριδικά μοντέλα» που συνδυάζουν AI-driven παρακολούθηση συμπτωμάτων με ανθρώπινη κλινική εποπτεία εμφανίζουν τα πιο υποσχετικά αποτελέσματα.

Τάσεις 2025-2030
  • Precision Psychiatry: AI σε συνδυασμό με EHR, γονιδιωματικά δεδομένα & κλινικές συνταγές για εξατομικευμένη θεραπεία
  • Πρόβλεψη αυτοκτονικότητας: Αλγόριθμος Vanderbilt με 80% ακρίβεια, λογαριάζοντας ηλικία, φύλο, ιστορικό
  • Explainable AI: Nέα «διαφανή» AI που εξηγούν τις αποφάσεις τους — κρίσιμο για κλινική εμπιστοσύνη
  • FDA αξιολόγηση: Εργαλείο AI-COA σε πιλοτική φάση — πρώτο AI εργαλείο αξιολόγησης ψυχικής υγείας υπό ρυθμιστικό πλαίσιο
  • Wearable monitoring: Oura Ring, Apple Watch, Galaxy Ring — συνεχής παρακολούθηση βιοδεικτών ψυχικής υγείας

Η αλήθεια είναι ότι η θεραπευτική σχέση παραμένει ο πιο ισχυρός παράγοντας στα αποτελέσματα ψυχοθεραπείας (Wampold, 2015). Συνεπώς, η κλασική ψυχοθεραπεία δεν είναι μια παρωχημένη μέθοδος — αλλά αυτό δεν σημαίνει ότι δεν μπορεί να ενισχυθεί. Εκεί ακριβώς μπαίνει η AI: screening, monitoring, μείωση διοικητικού φόρτου και 24/7 υποστήριξη ήπιων περιπτώσεων — αφήνοντας τους κλινικούς να εστιάσουν στη σχεσιακή φροντίδα.

Πηγές & Βιβλιογραφία

  1. Fitzpatrick, K.K., Darcy, A. & Vierhile, M. (2017). Delivering Cognitive Behavior Therapy to Young Adults With Symptoms of Depression Using a Fully Automated Conversational Agent (Woebot). JMIR Mental Health, 4(2), e19. PMC5478797.
  2. Lee, E.E. et al. (2021). Artificial Intelligence for Mental Health Care: Clinical Applications, Barriers, Facilitators, and Artificial Wisdom. Biological Psychiatry: Cognitive Neuroscience, 6(9), 856-864. PMC8349367.
  3. Wampold, B.E. (2015). How important are the common factors in psychotherapy? An update. World Psychiatry, 14(3), 270-277. PMC4592639.
  4. Brown, J.E.H. & Halpern, J. (2021). AI chatbots cannot replace human interactions in the pursuit of more inclusive mental healthcare. SSM - Mental Health, 1, 100017.
  5. Meadi, M.R. et al. (2025). Exploring the Ethical Challenges of Conversational AI in Mental Health Care: Scoping Review. JMIR Mental Health, 12(1), e60432. PMC11890142.
  6. Spiegel, B.M.R. et al. (2024). Feasibility of combining spatial computing and AI for mental health support. npj Digital Medicine, 7(1), 22. PMC10817913.
  7. Wikipedia (2025). Artificial intelligence in mental health.
AI ψυχοθεραπεία chatbot θεραπευτής τεχνητή νοημοσύνη ψυχική υγεία εικονικός θεραπευτής ψυχολογία τεχνολογία mental health AI ψυχοθεραπευτικά εργαλεία