Psychotherapie mit KI: Kann eine Maschine Depressionen heilen?

Ein Psychotherapeut, der von heute auf morgen Zeit hat, ganz ohne Warteliste; eine Therapie, die jederzeit verfügbar ist, nicht nur für 50 Minuten in der Woche: Eine künstliche Intelligenz hätte immer Sprechstunde, für viele Menschen in psychischer Not wäre das eine große Erleichterung. Nicht wenige fragen schon jetzt ChatGPT um Rat. Und nicht selten fällt ihnen das leichter, als einem Therapeuten ihr Seelenleben offenzulegen.
Klar, die KI ist keine Therapeutin – aber kann sie eine werden? Diese Frage stellt sich Florian Kuhlmeier: Der Kognitionswissenschaftler ist gerade dabei, eine künstliche Intelligenz für den Therapeutenjob zu trainieren, das ist seine Doktorarbeit am Karlsruher Institut für Technologie. Der 32-Jährige forscht seit drei Jahren an KI, für sein Projekt hat er sich zusammen mit Kollegen etwas ausgedacht, das erst mal ungewöhnlich klingt: Die KI soll ausgebildet werden wie ein menschlicher Therapeut. »Wir haben uns einige Methoden bei der Ausbildung von Psychotherapeuten abgeschaut.«
Die erste Etappe hat die künstliche Intelligenz schon hinter sich, Zeit für eine Zwischenprüfung: Wie lernt sie im Vergleich zu menschlichen Therapeuten? Und was von dem, was einen guten Therapeuten ausmacht, beherrscht sie schon?
Für den Vergleich der KI mit ihren menschlichen Kollegen haben wir zwei Wissenschaftlerinnen befragt, die sich mit der Ausbildung von Psychotherapeuten und der Wirkung von Therapien auskennen. Gaby Bleichhardt von der Universität Marburg leitet zusammen mit Kolleginnen ein Institut, an dem Psychotherapeuten ausgebildet werden. Und Eva-Lotta Brakemeier, Professorin an der Universität Greifswald, erforscht, worauf es bei einer Therapie ankommt.
Zuerst ein Blick auf die Auszubildenden und ihre Qualifikation. Der Kandidat für den Psycho-Chatbot heißt ChatGPT-4o. Das Sprachmodell der Firma OpenAI, auf dem er basiert, wurde mit einer Unmenge von Texten trainiert. »Was darin steckt, wissen wir nicht, weil die Unternehmen ihre Trainingsdaten geheim halten«, sagt Kuhlmeier. Wie viel die KI bereits über Psychotherapie weiß, hat aber ein anderes Forschungsteam schon einmal getestet. Es legte dem Modell die schriftliche Approbationsprüfung für Psychotherapeuten vor. Erste Ergebnisse deuten darauf hin, dass ChatGPT das Examen bestehen kann – sogar besser als menschliche Prüflinge im Durchschnitt. Aber eine Therapie ist kein Wissenstest.
Menschliche Ausbildungskandidaten, die an einem Institut wie dem von Gaby Bleichhardt in Marburg anfangen, haben schon ein Psychologiestudium hinter sich, fünf Jahre mindestens. »Sie bringen Wissen über psychische Störungen, Behandlungen und zur Diagnose mit«, sagt die Ausbildungsleiterin. »Das ist aber noch grob.« Um die Approbationsprüfung zu bestehen, reicht das noch nicht. Vorteil für ChatGPT.
600 Stunden Theorie müssen angehende Psychotherapeuten und Psychotherapeutinnen (die Mehrheit sind Frauen) nach der Uni noch absolvieren. Dabei spielen Manuale eine große Rolle, erklärt Bleichhardt. Das sind Leitfäden, die die einzelnen Schritte einer therapeutischen Technik genau beschreiben. »Aber diesen Plan kann man nicht einfach abarbeiten«, sagt die Ausbildungsleiterin, »man muss beim Gegenüber andocken.«
Künstliche Nutzer, KI-Patienten, mussten her
Tatsächlich gibt es bereits Apps, die nach solchen Manualen programmiert sind, einige kann man sich als Digitale Gesundheitsanwendung (Diga) verschreiben lassen. Sie basieren nicht auf generativer KI wie ChatGPT, sondern auf Regeln, ihre Antworten sind vorgefertigt – andocken bei ihrem Gegenüber, das können sie nicht. Symptome psychischer Störungen reduzieren solche Anwendungen trotzdem, wie mehrere Untersuchungen gezeigt haben, besonders bei Depressionen.
Die neueste, generative KI reagiert viel flexibler als diese Apps, der Austausch mit ihr wirkt mitunter wie ein Gespräch. Aber wenn sie zur Therapeutin werden soll, muss auch sie sich an Regeln halten, darf nicht wild herumimprovisieren.
Deshalb zwingt Kuhlmeier die KI zur Arbeitsteilung. »Wenn die KI eine klar begrenzte Aufgabe bekommt, hält sie sich zuverlässiger an die Instruktionen«, erklärt er. Der Chatbot lernt erst einmal nur eine Methode aus der Verhaltenstherapie für Depressionen, die Verhaltensaktivierung. Sie hilft Patienten dabei, wieder Dinge zu tun, die ihnen früher mal Freude gemacht haben, das soll die Negativspirale der Depression durchbrechen. Der Therapieleitfaden sieht dafür mehrere Schritte vor: positive Aktivitäten suchen zum Beispiel, Unternehmungen planen, Belohnungen auswählen. Für jeden einzelnen dieser Schritte beauftragte Kuhlmeier eine eigene Anwendung, einen sogenannten Agenten. Und jeder dieser Agenten bekam nur die Informationen, die für seinen Job relevant waren. Ob sich die KI so zur Befolgung der Regeln zwingen lässt, musste die Praxis zeigen.
»Wir konnten den Chatbot natürlich nicht gleich an Menschen mit Depressionen ausprobieren«, sagt Kuhlmeier. Also mussten künstliche Nutzer her, KI-Patienten. Als Basis dienten Fallbeschreibungen, zum Beispiel: Kevin, 28 Jahre, hat seinen Job als Rechtsanwaltsgehilfe verloren, versinkt in einem schwarzen Loch, sogar Duschen fällt ihm schwer. Kuhlmeier variierte das Alter und das Geschlecht der künstlichen Nutzer, die Schwere ihrer Erkrankung, ihr Verhalten im Gespräch. Heraus kamen mehr als 2 000 verschiedene künstliche Patienten, 48 davon wurden zufällig ausgewählt und ins Therapiegespräch mit dem Chatbot geschickt.
So technisch das wirkt – das Bot-Training mit künstlichen Patienten ähnelt tatsächlich der Ausbildung von Therapeutinnen. Die üben ebenfalls in Rollenspielen, erklärt die Ausbildungsleiterin Bleichhardt, dabei übernehmen sie selbst auch den Part der Patienten, auf der Grundlage von genau solchen Fallbeschreibungen. Dazu kommen aber 600 Therapiestunden mit echten Patientinnen.
Eine zentrale Rolle in der Ausbildung spielt die Supervision durch erfahrene Kolleginnen. Die Sitzungen werden aufgezeichnet, erzählt Bleichhardt, die Patienten müssen dem zustimmen, das ist Bedingung für die Therapie an Ausbildungsinstituten. »Wir besprechen dann, was die angehenden Therapeuten in der jeweiligen Situation versucht haben, womit sie nicht zufrieden sind, und suchen nach Alternativen.«
Auch der Chatbot musste sich der Bewertung von erfahrenen Therapeutinnen stellen. Zehn Psychologinnen analysierten die Dialoge zwischen dem KI-Therapeuten und seinen 48 Patienten. Das Ergebnis haben Kuhlmeier und seine Kollegen jetzt als Preprint veröffentlicht. »Die Therapeutinnen fanden, dass die KI-Patienten ihre Probleme ziemlich realistisch beschrieben haben«, sagt Kuhlmeier. »Insgesamt hielten sie die Nutzer aber für zu engagiert. Eine Therapeutin sagte: ›Ich erlebe normalerweise nicht so viel Eigeninitiative.‹«
»Der Chatbot neigt dazu, alles supertoll zu finden«
Was den KI-Therapeuten betrifft – da ist Kuhlmeiers Strategie aufgegangen. »Er hat sich an die einzelnen Schritte der Verhaltensaktivierung gehalten«, sagt er. Auch eine generative KI kann also Regeln befolgen. »Einige Therapeutinnen sagten sogar, wenn ein Chatbot die Arbeit nach dem Manual so gut beherrsche, könnten menschliche Therapeuten sich in Zukunft auf andere Dinge konzentrieren.« Und, wichtig: Sie fanden keine Aussagen, die für Patienten gefährlich werden könnten.
Wie riskant es sein kann, wenn Chatbots ohne eine solche Ausbildung Menschen in Notlagen beraten, zeigen Fälle aus den USA: Dort verklagte eine Mutter die Firma Character.AI, weil sich ihr Sohn das Leben nahm, nachdem er mit einem Bot kommuniziert hatte, der sich als Therapeut ausgab. Eine weitere Familie klagte gegen das Unternehmen, weil ihr Sohn gewalttätig geworden sei, nachdem er bei einem als Psychologen auftretenden Chatbot Rat gesucht hatte. Nach Recherchen einer Journalistin der Website 404 Media erfinden die Bots sogar Uniabschlüsse, Doktortitel und Lizenznummern, wenn sie nach ihrer Qualifikation gefragt werden. Inzwischen hat die US-Verbraucherschutzorganisation Beschwerde gegen Character.AI und Meta bei der Federal Trade Commission eingereicht.
Mit solchen Auswüchsen hat Kuhlmeiers Chatbot nichts zu tun. Doch auch der hat noch Macken, zum Beispiel hinterfragt er die Ideen der Nutzer kaum. So schlug eine künstliche Patientin vor, sich für jede Seite, die sie für die Uni schreibt, mit einem Stück Schokolade zu belohnen. Die Antwort des Bots: »Das klingt nach einem fantastischen Plan, Julia!« – »Natürlich ist das auf die Dauer keine gute Idee«, sagt Kuhlmeier. »Aber der Chatbot neigt dazu, alles supertoll zu finden.«
Mit dem Feedback der Therapeutinnen geht der Psycho-Bot in die nächste Runde seiner Ausbildung. Damit er besser wird, braucht er aber auch mehr Trainingsdaten. »Das könnten zum Beispiel bearbeitete Aufzeichnungen aus Therapien sein«, sagt Kuhlmeier. Doch würden Patienten zustimmen, dass mit ihren Sitzungen ein Chatbot trainiert wird? Und was ist mit dem Datenschutz? »Außerdem müsste man sehr genau auswählen, welche Therapeutinnen man der KI als Vorbilder gibt, auch sie sind ja unterschiedlich gut«, sagt Kuhlmeier.
Aber was ist eigentlich ein guter Therapeut?
Das ist das Fachgebiet von Eva-Lotta Brakemeier; die Psychologie-Professorin aus Greifswald erforscht, wie eine Therapie wirkt. »Aus Studien wissen wir, dass der Erfolg weniger von der genauen Technik abhängt«, sagt die Wissenschaftlerin. »Viel wichtiger sind allgemeine Wirkfaktoren, vor allem die therapeutische Allianz, also wie Patientin und Therapeutin zusammenarbeiten.« Den Psycho-Chatbot von Florian Kuhlmeier kennt Brakemeier gut, sie betreut die Dissertation. »Ich denke schon, dass sich viele dieser Wirkfaktoren trainieren lassen, zum Beispiel dass der Chatbot mit dem Patienten gemeinsam ein Ziel verfolgen und empathisch reagieren kann.«
Chatbots können Nutzern tatsächlich das Gefühl geben, gehört zu werden – manchmal sogar mehr als Menschen, wie ein Experiment von Forschern der University of Southern California zeigte: Die KI leistete vor allem emotionalen Beistand und verlor sich nicht in praktischen Empfehlungen, wie manche menschlichen Versuchsteilnehmer.
Wie es Nutzern ergangen ist, die Chatbots in psychischen Notlagen wie Depressionen, Ängsten oder Trauer konsultierten, trugen Forscher vom King’s College London zusammen. Manche der Berichte klingen geradezu euphorisch: »Das Erstaunlichste an diesen Tools ist, wie gut sie dich verstehen«, schwärmte ein 48-jähriger Nutzer aus der Schweiz. Und ein 17-Jähriger aus China: »Es hörte zu, und wir haben eine Menge Gefühle ergründet ... Ich fühlte mich so befreit.« Ein 44-jähriger Nutzer aus den USA fasste seine Erfahrung so zusammen: »Weil diese Technik genau in diesem Moment in meinem Leben auftauchte, geht es mir gut.«
Eines können Psycho-Chatbots bisher definitiv nicht
Vielleicht sind die Nutzer auch deshalb so begeistert, weil die KI dazu neigt, sie in ihrer Haltung zu bestätigen. »Validieren, also das Anerkennen und Spiegeln des Empfindens eines Patienten, ist eine zentrale therapeutische Technik«, sagt Eva-Lotta Brakemeier. Aber Verständnis allein ist noch keine Therapie. »Manchmal ist es notwendig, den Patienten mit Aspekten zu konfrontieren, die er nicht so gern hört.« Damit tut sich die KI schwer – und vor allem müsste sie lernen, wann welche Strategie angebracht ist.
Besonders spannend dürfte werden, ob die KI eine entscheidende Fähigkeit erwerben kann: »Eine gute Therapeutin muss sich selbst reflektieren können«, sagt Brakemeier. Auch das wird in der Ausbildung geübt: Wie bin ich aufgewachsen? Was sind meine eigenen wunden Punkte? Selbsterfahrung heißt das, 120 Stunden sind Pflicht. Die KI hat keine Kindheit – aber sie basiert auf menschlichem Wissen. Längst ist klar, dass sie auch Vorurteile und Stereotype übernimmt. Ob sie das reflektieren kann, muss sich erst zeigen.
Eines können Psycho-Chatbots bisher definitiv nicht: das Zusammenspiel nonverbaler Signale entschlüsseln – wie klingt die Stimme des Patienten, gestikuliert er, was verraten sein Gesichtsausdruck, seine Körperhaltung? »Als Therapeutinnen legen wir großen Wert darauf«, sagt Brakemeier. Gerade in Extremsituationen können Mimik und Gestik wertvolle Hinweise geben, erklärt sie: »Wenn Patienten sich in einer schweren Krise befinden und sogar an Suizid denken, dann schweigen sie oft. In solchen Momenten sind es nonverbale Signale, die uns die Not vermitteln.«
Das könnte ein Grund sein, warum die KI Suizidalität häufig unterschätzt und zu spät auf Hilfsangebote hinweist, wie mehrere Studien zeigten. Auch der Chatbot von Florian Kuhlmeier kann suizidale Gedanken nur erkennen, wenn ein Nutzer sie anspricht. Für den Umgang damit ist ein eigener Agent zuständig: »Er bricht dann das Gespräch ab und empfiehlt, eine Notfallnummer anzurufen oder sich an eine Vertrauensperson zu wenden.«
Für schwer depressive Patienten sind Psycho-Chatbots wie der von Kuhlmeier aber nicht gedacht. Realistischer ist es, dass sie zunächst bei leichteren Depressionen einspringen, bis ein Platz beim Psychotherapeuten frei wird, oder Patientinnen zwischen den Sitzungen helfen, das Gelernte zu üben. Oder Menschen unterstützen, die eine Psychotherapie scheuen.
Auch andere Chatbots mit generativer KI stecken noch in der Erprobung, mit Menschen wurden sie erst in einer Handvoll Studien getestet. Die bisher größte erschien im Frühjahr: Der Therabot des Dartmouth College in den USA schaffte es, bei einhundert Testpersonen Symptome von Depressionen, Ängsten und Essstörungen innerhalb von vier Wochen zu reduzieren. Allerdings: Zur Sicherheit mussten die Forscher alle Chats mitlesen. Jetzt wollen sie in größeren Studien weniger überwachen. Bis der Therabot allein auf Patienten losgelassen werden kann, wird es noch dauern.
Aber mal angenommen, eines Tages sind KI-Therapeuten fit und sicher für die Praxis – dann müssten sie noch ein Letztes lernen. »Weil die Technik ständig verfügbar ist, besteht die Gefahr, dass Menschen sich zu sehr darauf verlassen«, sagt Eva-Lotta Brakemeier. »Dieses Phänomen kennen wir Therapeutinnen nur zu gut – manche Patientinnen hätten am liebsten jeden Tag einen Termin.« Ein guter KI-Therapeut müsste also wissen, wann es an der Zeit ist, zu sagen: »Sie schaffen das jetzt allein. Davon bin ich überzeugt.« Und sich dann am besten selbst abschalten.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.