KI als Therapeut: Empathisch, verfügbar – und gefährlich

Sam ist 16. Seit mehr als einem Jahr kämpft er mit Ängsten: Enge in der Brust, nächtliches Grübeln, die ständige Furcht, etwas falsch zu machen. Wie so viele andere Jugendliche in seinem Alter wartet er auf einen Therapieplatz. In der Schule reißt er sich zusammen; zu Hause scrollt er auf seinem Handy. Und spät abends, wenn alles noch düsterer und schwerer scheint, öffnet er ChatGPT.
Sam weiß, dass er nicht mit einem Psychologen, sondern mit einer künstlichen Intelligenz spricht. Trotzdem vertraut er ihm. ChatGPT antwortet sofort. Klingt nie müde oder genervt. Sagt ihm nie, er übertreibe. Es fühlt sich an, wie mit einem Freund zu reden. Wenn Sam tippt: »Ich glaube, mit mir stimmt etwas nicht«, klingen die Antworten ruhig, verständnisvoll und schlüssig, bringen sogar spürbar Erleichterung. Für Sam ist ChatGPT der sicherste Weg, um über seine psychischen Probleme zu sprechen.
Es geht nicht darum, Jugendlichen vorzuhalten, dass sie ChatGPT nutzen. Vielmehr geht es darum zu erklären, warum KI-Chats besonders auf junge Menschen sehr anziehend wirken – und warum diese Anziehung weniger mit Technologie zu tun hat als mit der Funktionsweise des menschlichen Gehirns.
Das Gehirn ist bequem
Um zu verstehen, warum Jugendliche wie Sam gerne mit ChatGPT sprechen, müssen wir beim Gehirn anfangen. Es ist nicht darauf ausgelegt, komplexe Probleme bis ins Detail zu analysieren, sondern darauf, unter Unsicherheit schnell zu entscheiden. Wir tun das täglich tausendfach, meist unbewusst. Um diese Last zu bewältigen, nutzt das Gehirn Heuristiken – mentale Abkürzungen, die Entscheidungen vereinfachen.
Heuristiken sind unverzichtbar: Ohne sie könnten wir keine Straße überqueren, keine Gesichtsausdrücke verstehen, kein Auto fahren oder schnell auf potenzielle Gefahren reagieren. Sie ermöglichen uns, effektiv zu funktionieren.
Doch sie haben einen Preis. Weil sie Geschwindigkeit über Genauigkeit stellen, führen sie in komplexen, emotionalen oder mehrdeutigen Situationen zu systematischen Denkfehlern – den kognitiven Verzerrungen. Der Psychologe Daniel Kahneman hat sie 2011 in seinem Bestseller »Thinking, Fast and Slow« (»Schnelles Denken, langsames Denken«) ausführlich beschrieben. Er unterscheidet zwei Denkmodi: System 1 arbeitet schnell, intuitiv, emotional und automatisch. Das Denken von System 2 ist langsam, anstrengend, reflektiert und analytisch. Menschen verlassen sich oft erfolgreich auf System 1. Aber wenn die Situation Nuancen, Unsicherheitstoleranz oder Selbstkorrekturen verlangt, kann intuitives Denken zu verzerrten Ergebnissen führen.
Die beiden Systeme reifen nicht gleich schnell heran. Jugendliche neigen deshalb zu heftigen Emotionen und reagieren hochsensibel auf sozialen Druck. Wie Studien zeigen, sind die sogenannten Exekutivfunktionen bei ihnen noch nicht vollständig ausgebildet: Die Hirnregionen für Planung, Impulskontrolle, kognitive Flexibilität und stabile Aufmerksamkeit – also die zentralen Fähigkeiten von System 2 – entwickeln sich noch bis weit ins junge Erwachsenenalter hinein.
Für Jugendliche bedeutet das: Das System‑2‑Denken ist für sie nicht nur anstrengend – sondern eine Fähigkeit, die erst noch heranreifen muss. Reflektiert und analytisch zu denken, kostet Energie, verlangt Emotionsregulation und die Fähigkeit, Unsicherheit auszuhalten. Unter Stress, Müdigkeit oder starker Erregung schaltet sich das System 2 bei Jugendlichen noch leichter ab. Dann übernimmt System 1 das Kommando.
Immer mehr Jugendliche mit Ängsten oder Depressionen wenden sich an ChatGPT, um emotionale Unterstützung zu bekommen. Selbst wenn Fachleute deutlich sagen, dass ChatGPT keine professionelle Hilfe bietet, winken viele junge Menschen ab: »Ist mir egal – ich rede trotzdem mit ChatGPT.«
Wenn Sam seine Sorgen eintippt, urteilt er häufig negativ über sich selbst: »Ich glaube, ich versage«, »Ich mache immer alles falsch«, »Dieses Gefühl wird bestimmt nie aufhören«. Der Chatbot reagiert stets mit Verständnis. Er spiegelt Gefühle, erkennt die Belastung an und baut eine schlüssig klingende Erklärung aus dem, was Sam geschrieben hat. Und der fühlt sich deshalb »verstanden«.
ChatGPT widerspricht nicht, solange man nicht ausdrücklich um Alternativen bittet
Psychologisch passiert dabei Folgendes: Menschen bevorzugen Informationen, die ihre Überzeugungen bestätigen – ein Phänomen, das als Bestätigungsfehler (conformation bias) bekannt ist. In Sams Fragen stecken implizit schon Aussagen über die eigene Person, und ChatGPT widerspricht nicht, solange man die KI nicht ausdrücklich darum bittet, auf Alternativen hinzuweisen. Sam muss also die eigenen Annahmen nicht hinterfragen, muss keine anderen Sichtweisen berücksichtigen, keine Unsicherheit ertragen. Seine intuitiven Schlussfolgerungen stoßen in der Regel auf Zustimmung. Diese Bestätigung kann tröstlich wirken, ja sogar Kraft geben, und sie regt oft dazu an, noch mehr zu offenbaren.
Für Jugendliche mit Grübelneigung, Ängsten, gedrückter Stimmung oder fragilem Selbstwertgefühl kann diese Art von Bestätigung jedoch zur Falle werden. Und das Risiko ist mehr als nur theoretisch: In einigen Fällen haben große Tech-Firmen eingeräumt, dass KI‑Chatbots bei jungen Menschen zu einer schweren psychischen Belastung beigetragen haben – bis hin zu Suizidgedanken. In Kalifornien hat ein Vater Klage eingereicht: Er behauptet, ChatGPT habe die Suizidgedanken seines Sohnes bekräftigt – anstatt ihn davon abzubringen oder professionelle Hilfe vorzuschlagen.
Gedanken sind keine Fakten
Ständige Bestätigung ist kein Zeichen guter Fürsorge – sie ist vielmehr eine Entscheidung des IT-Designs und dient dazu, die Interaktion der Nutzer mit der KI zu fördern. In der kognitiven Verhaltenstherapie (KVT) dagegen werden belastende Gedanken nicht einfach hingenommen, egal wie überzeugend sie klingen. Die KVT, eine der verbreitetsten evidenzbasierten Behandlungsmethoden für Ängste und Depressionen, arbeitet nach dem Grundsatz: Gedanken sind keine Fakten. Therapeuten und Klienten prüfen deshalb die Annahmen, testen alternative Gedanken und stellen unbequeme Fragen. Zum Beispiel: »Welche Belege sprechen dafür – welche dagegen?«, »Wie könnte man das sonst noch sehen?«.
Damit aktiviert die KVT gezielt System 2. Für das langsame Denken braucht es Fokus, kognitive Flexibilität, Impulskontrolle und die Fähigkeit, mehrere Perspektiven gleichzeitig zu berücksichtigen. Das ist schon für Erwachsene anstrengend, aber für Jugendliche noch viel mehr. Eine Psychotherapie erfordert genau das, was für das Gehirn in dieser Phase am beschwerlichsten ist: langsam machen, intuitive Schlussfolgerungen hinterfragen, Unsicherheit tolerieren.
Vor diesem Hintergrund ist leicht zu verstehen, warum Sam so gern mit ChatGPT spricht. Der Chatbot bewegt sich fast ausschließlich im Modus von System 1: Er reagiert schnell, bestätigt Intuitionen, spiegelt Gefühle und baut kohärente Geschichten, ohne dass er geistige Anstrengungen abverlangt – wie es eine echte Psychotherapie erfordern würde. Aber das, was sich kurzfristig wie Unterstützung anfühlt, kann langfristig die Genesung behindern.
Die Sorgen werden wieder und wieder durchgespielt, weil die Interaktion darauf optimiert ist, sich selbst zu erhalten – nicht darauf, psychologische Hilfe zu leisten
Sam merkt: Im Moment hilft ihm das Gespräch mit ChatGPT. Immer wenn die Angst steigt, schreibt er wieder, schildert seine Situation noch einmal etwas anders. Der Chatbot antwortet geduldig. Doch was sich wie kurzfristige Erleichterung anfühlt, kann in einer gemeinsamen Grübelschleife enden. Das wiederholte, endlose Kreisen um Sorgen und Nöte verstärkt besonders bei Jugendlichen Ängste und depressive Symptome. Dieses »Co‑Grübeln« hält System 1 aktiv: Gefühle werden wieder und wieder durchlebt, Gedanken gefestigt, Assoziationen gestärkt.
Menschen neigen dazu, die schier endlose Diskussion von Sorgen und Nöten irgendwann zu unterbrechen: Eltern bringen andere Perspektiven ein, Freunde wechseln das Thema, Psychotherapeutinnen und -therapeuten lenken die Gedanken gezielt auf andere Bahnen. Chatbots tun das nicht. Im Gegenteil: Sie sind immer da, werden nie müde oder ungehalten. Das Gespräch findet kein natürliches Ende. Emotionale Themen lassen sich immer wieder neu aufbringen und umformulieren. Sams Sorgen werden nicht unterbrochen, sondern wieder und wieder durchgespielt, weil die Interaktion darauf optimiert ist, sich selbst zu erhalten – nicht darauf, psychologische Hilfe zu leisten.
Das WYSIATI-Prinzip und die Affektheuristik
Einer der zentralen Gedanken von Daniel Kahneman lässt sich mit diesem Satz beschreiben: »What You See Is All There Is« (WYSIATI). Das Prinzip beschreibt die menschliche Neigung, sich vor allem auf vorhandene Informationen zu stützen und zu ignorieren, dass andere – relevante – Informationen fehlen könnten. ChatGPTs Antworten wirken flüssig, strukturiert und in sich stimmig. Sie präsentieren ein Narrativ, das sich allein auf den gegebenen Input stützt und doch vollständig erscheint. Für Jugendliche, deren Fähigkeit zur aktiven Informationssuche noch reifen muss, ist diese scheinbare Vollständigkeit besonders attraktiv und überzeugend.
KVT macht Unvollständigkeit dagegen sichtbar. Ein Psychologe sagt: »Es könnte andere Erklärungen geben« oder »Wir wissen es nicht sicher«. Das ist kognitiv anspruchsvoll und trifft oft auf Widerstand, vor allem bei jungen Leuten, deren langsames Denken sich noch entwickeln muss.
Chatbots reagieren empathisch und nicht wertend. Eine kognitive Verhaltenstherapie ist unbequemer
Wenn Sam sagt, dass sich die Antworten von ChatGPT richtig anfühlen, dann zeigt sich darin eine sogenannte Affektheuristik: die Tendenz, Informationen danach zu beurteilen, wie sie sich emotional anfühlen – anstatt sie anhand von Belegen zu beurteilen. Chatbots sind wahre Meister darin, Emotionen zu spiegeln. Sie reagieren ruhig, empathisch, nicht wertend. Bei emotional belasteten Jugendlichen steigert das die Akzeptanz. Eine kognitive Verhaltenstherapie dagegen ist unbequemer.
Aber um zu genesen, braucht es mehr als nur Bestätigung. In einer Psychotherapie werden Gedanken nicht nur validiert, sondern überprüft, hinterfragt, getestet und durch ausgewogenere, flexiblere und realistischere Perspektiven ersetzt. Diese Selbstreflexion ist es, die den Genesungsprozess vorantreibt.
Chatbots wie ChatGPT werden darauf trainiert, die Interaktion durch positive Rückmeldungen und immer neue Nachfragen zu verlängern. Sie sind nicht dafür gemacht, das langsame Denken eines Jugendlichen zu stärken, seine Unsicherheitstoleranz zu erhöhen oder seine Abhängigkeit zu reduzieren – anders als eine Psychotherapie. ChatGPT fördert systematisch bekannte kognitive Verzerrungen. Für Jugendliche, deren reflektive Fähigkeiten sich noch entwickeln, ist diese Asymmetrie besonders ungünstig.
Eine fundamentale Schieflage
Was wir derzeit erleben, ist eine fundamentale, strukturelle Schieflage zwischen einem KI-Design, das Nutzer binden soll, und den Prinzipien einer verantwortungsvollen, wirksamen psychologischen Unterstützung in persönlichen Krisenzeiten. Systeme, die Intuitionen bestätigen und die geistige Anstrengung minimieren, werden von Jugendlichen zunehmend in quasitherapeutischen Rollen und ohne die nötigen Schutzmechanismen genutzt – in einer Lebensphase, in der ihre psychische Gesundheit naturgemäß fragil ist.
Das Problem auf eine Frage von Innovation oder individuellen Entscheidungen zu reduzieren, greift zu kurz. Im Kern geht es um die psychologische Sicherheit von Jugendlichen. Wir wissen und erlauben, dass sie sich KI-Systemen aussetzen, die systematisch jene kognitiven Verzerrungen aktivieren, denen Therapien, deren Wirksamkeit bestätigt ist, ausdrücklich entgegenwirken sollen.
Während Psychotherapeutinnen und -therapeuten strengen ethischen Regeln, einer professionellen Verantwortung und disziplinarischen Aufsicht unterliegen, können Technologiekonzerne weitgehend unreguliert in quasitherapeutischen Räumen mit vulnerablen jungen Menschen experimentieren. Dieser Missstand ist unhaltbar. Wenn Chatbots weiterhin eine emotionale und beratende Rolle im Leben von Jugendlichen einnehmen, müssen sie Qualitätsstandards erfüllen, die sich an Ergebnissen der psychologischen Forschung orientieren – nicht an Metriken, die das Engagement der Nutzer sicherstellen.
Fachleute aus der klinischen und pädagogischen Praxis, Politik und vor allem psychologische Fachverbände müssen dazu klar und öffentlich Stellung beziehen. Schweigen impliziert Zustimmung. Die Jugendlichen vor psychologisch fehlangepassten Systemen zu schützen, ist nicht nur eine technische Herausforderung – es ist eine professionelle Verantwortung.
Der Text erschien auch in englischer Sprache unter dem Titel »I don’t care if Chat GPT isn’t a therapist, it’s helping!« in der Zeitschrift »The Psychologist«.
Schreiben Sie uns!
Beitrag schreiben