Direkt zum Inhalt

Metaanalyse: Künstliche Intelligenz versagt bei Vorhersage von Suiziden

Entgegen den Erwartungen können Algorithmen suizidgefährdete Menschen bislang nicht zuverlässig erkennen. Für die Prävention bleibt flächendeckende Hilfe entscheidend.
Eine Person sitzt auf dem Boden in einem hellen Raum, die Knie angezogen und den Kopf in den Händen vergraben. Die Person trägt helle Kleidung, und der Schatten fällt deutlich auf den Boden. Die Szene vermittelt einen Ausdruck von Nachdenklichkeit oder Stress.
Algorithmen produzieren massenhaft Fehlalarme, wenn es darum geht, ob sich jemand etwas antun wird.

Der Gedanke klingt bestechend: Wenn künstliche Intelligenz riesige Mengen an Gesundheitsdaten durchsucht, könnte sie Muster entdecken, die Ärztinnen und Ärzte übersehen. Forschungsgruppen weltweit haben daher Algorithmen entwickelt, die mithilfe von Krankenakten, Registerdaten oder psychologischen Fragebögen das Risiko für Suizid oder Selbstverletzung bei Patientinnen und Patienten einschätzen sollen. Eine Metastudie, die im Fachblatt »PLOS Medicine« erschienen ist, dämpft diese Erwartungen an KI jedoch: Sie sage Suizidversuche bislang nicht zuverlässig vorher.

Ein Team um den Epidemiologen Matthew J. Spittal von der University of Melbourne hat 53 Studien zum Thema zusammenfassend ausgewertet. Gemeinsam umfassten sie Daten von rund 35 Millionen Menschen und etwa 249 000 Vorfälle von Suizid oder Selbstverletzung. Das Ergebnis war ernüchternd: Zwar können die Programme in vielen Fällen mit recht hoher Genauigkeit ausschließen, dass sich jemand etwas antun wird. Doch wenn sie eine Person als »hochgefährdet« einstuften, stimmte das nur selten. Die Prognosesysteme schlugen viel zu oft falschen Alarm. In Bevölkerungsgruppen, in denen Suizide besonders selten sind, war ihre Vorhersage fast wertlos – nur eine von tausend Warnungen traf zu. Etwas besser sah es in Gruppen mit sehr hoher Gefährdung aus, etwa nach einem Klinikaufenthalt wegen Selbstverletzung: Hier war die Warnung der KI immerhin in rund zwei Dritteln der Fälle begründet.

Damit sind die Systeme kaum besser als traditionelle Einschätzungen durch medizinisches Personal. In der Praxis sind die Trefferquoten demnach zu niedrig, um wirklich hilfreich zu sein. Maschinelles Lernen bringt also bisher nicht den erhofften Durchbruch. Statt auf selektive KI-Prognosen zu setzen, sollten Kliniken nach Suizidversuchen oder Selbstverletzungen allen Betroffenen gleichermaßen umfassende Nachsorge und psychotherapeutische Unterstützung bieten, fordern die Autoren.

Wege aus der Not

Denken Sie manchmal daran, sich das Leben zu nehmen? Erscheint Ihnen das Leben sinnlos oder Ihre Situation ausweglos? Haben Sie keine Hoffnung mehr? Dann wenden Sie sich bitte an Anlaufstellen, die Menschen in Krisensituationen helfen können: an den Hausarzt, niedergelassene Psychotherapeuten oder Psychiater oder die Notdienste von Kliniken. Kontakte vermittelt der ärztliche Bereitschaftsdienst unter der Telefonnummer 116117.

Die Telefonseelsorge berät rund um die Uhr, anonym und kostenfrei: per Telefon unter den bundesweit gültigen Nummern 0800 1110111 und 0800 1110222 sowie per E-Mail und im Chat auf der Seite www.telefonseelsorge.de. Kinder und Jugendliche finden auch Hilfe unter der Nummer 0800 1110333 und können sich auf der Seite www.u25-deutschland.de per E-Mail von einem Peer beraten lassen.

  • Quellen
Spittal, M. et al., PLOS Medicine 10.1371/journal.pmed.1004581, 2025

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.