Direkt zum Inhalt

Computer-Hirn-Schnittstelle: Kann eine KI Gedanken lesen?

Nicht wirklich, aber zumindest kann sie schon aus Hirnsignalen wenige Sätze entziffern. Diese Technik soll in Zukunft etwa Locked-in-Patienten helfen, sich zu verständigen.
Künstliche IntelligenzLaden...

Der Mensch denkt, der Computer erkennt – und spricht den Gedankensatz aus. Es klingt ein wenig wie Sciencefiction, dass ein Computer Hirnsignale in Sprachlaute übersetzen kann. Doch seit einigen Jahren hat die Forschung auf diesem Gebiet große Fortschritte verzeichnet. Einen weiteren Schritt beschreibt nun eine Studie im Fachmagazin »Nature Neuroscience«. Um die Übertragung von neuronalen Mustern in Text zu verbessern, nutzten Joseph Makin und seine Kollegen von der University of California in San Francisco eine KI für maschinelle Übersetzungen.

Die Computerwissenschaftler haben dazu mit vier Epilepsiepatientinnen zusammengearbeitet. Bei diesen Probandinnen wurden in einem anderen Zusammenhang – nämlich um ihre Erkrankung zu beobachten – bis zu 250 Elektroden in die Hirnrinde implantiert. Makin und sein Team ließen die Versuchsteilnehmer nun mehrere Male 30 bis 50 einfache Sätze laut aufsagen. Gleichzeitig haben die Forscher über die Elektroden die Hirnaktivität gemessen und ein so genanntes Elektrokortikogramm erstellt. Als Nächstes speisten die Forscher die aufgezeichneten Hirnströme und Texte in zwei lernfähige KIs. Das eine Programm durchforstete die Hirnsignale nach bestimmten Mustern, die auf bestimmte Sprachelemente schließen lassen, etwa Konsonanten und Vokale. Diese Muster gingen dann an die zweite KI, die daraus wieder einen Text auslesen sollte.

Die Übertragung verlief nicht fehlerfrei. Ein Beispiel: Aus dem gesprochenen Satz »those musicians harmonize marvelously« produzierten die Computerprogramme »the spinach was a famous singer«. Bis zu drei Prozent der gesprochenen Sätze übersetzte die zweiteilige KI nicht korrekt. Die Forscher verbuchen die Fehlerquote dennoch als Erfolg: »Bisher belief sich die Wortfehlerrate auf ungefähr 60 Prozent«, schreiben Makin und seine Kollegen in ihrer Studie. Zum Vergleich nennen die Wissenschaftler etwa typische Programme zur Spracherkennung. Diese arbeiten mit einer Fehlerquote von fünf Prozent, allerdings umfassen sie auch ein sehr viel größeres Vokabular. Die Sätze in Makins Versuch bestanden alles in allem nur aus zirka 250 Wörtern.

Der Ansatz, den die US-Forscher verfolgen, könnte irgendwann einmal Menschen helfen, die nicht mehr in der Lage sind, sich zu artikulieren, etwa Patienten mit Locked-in-Syndrom oder solchen, die unter amyotropher Lateralsklerose (ALS) leiden. Bis es eine voll funktionstüchtige Computer-Hirn-Schnittstelle gibt, sind jedoch noch viele weitere Forschungsfortschritte nötig.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnervideos