Direkt zum Inhalt

Gedanken lesen mit KI: Wie Gehirn-Computer-Schnittstellen die Zukunft verändern

Gehirnimplantate könnten mithilfe von KI bald vorbewusste Gedanken lesen und Handlungen steuern. Das eröffnet Chancen für Menschen mit neurologischen Einschränkungen, wirft aber auch zahlreiche ethische Fragen auf.
Eine Person im Profil, die einen Fahrradhelm trägt, beleuchtet von blauem Licht. Der Helm hat rote Akzente, die möglicherweise auf eine Beleuchtung oder Reflexion hinweisen. Die Szene vermittelt ein Gefühl von Sicherheit und Technologie.
Eine Prothese bewegen, Videospiele spielen, mit anderen kommunizieren: Gehirn-Computer-Schnittstellen geben Menschen mit körperlichen Einschränkungen immer mehr Autonomie zurück.

Nancy Smith war eine leidenschaftliche Klavierspielerin – bis ein Autounfall sie im Jahr 2008 vom Hals abwärts lähmte. Doch viele Jahre später begann sie erneut, Musik zu machen, dank eines Implantats, das ihre Hirnaktivität aufzeichnen und analysieren konnte. Wenn sie sich vorstellte, auf einer virtuellen Klaviertastatur zu spielen, übersetzte eine Gehirn-Computer-Schnittstelle (BCI) diese Gedanken in Tastenanschläge – und einfache Melodien wie »Twinkle, Twinkle, Little Star« erklangen. Für Smith fühlte es sich so an, als würde das Klavier von selbst spielen. »Es war, als ob die Tasten sich ganz automatisch bewegten, ohne dass ich darüber nachdenken musste«, sagte sie damals. »Es schien, als kenne das System die Melodie und spiele sie einfach von allein.«

Das BCI-System, das Smith im Rahmen einer klinischen Studie implantiert worden war, lernte anhand ihrer Gehirnsignale, während sie sich das Spielen vorstellte. Dieses Training habe es dem System ermöglicht, ihre Spielabsicht bereits mehrere Hundert Millisekunden früher zu erkennen als den bewussten Versuch, eine Taste anzuschlagen, erklärt Studienleiter Richard Andersen, Neurowissenschaftler am California Institute of Technology.

Smith gehört zu rund 90 Menschen, denen in den vergangenen zwei Jahrzehnten BCIs implantiert wurden, um assistierende Technologien wie Computer, Roboterarme oder Sprachgeneratoren zu steuern. Mithilfe dieser Freiwilligen, die infolge von Rückenmarksverletzungen, Schlaganfällen oder neuromuskulären Erkrankungen gelähmt waren, konnte gezeigt werden, dass die Steuersignale für die Muskeln, die im motorischen Kortex entstehen, wenn Menschen sich Bewegungen vorstellen, sich in Befehle für angeschlossene Geräte übersetzen lassen.

Smith, die 2023 an Krebs starb, gehörte zu den ersten Probanden, bei denen zusätzlich eine weitere Schnittstelle im posterioren Parietalkortex implantiert wurde, einer Hirnregion, die mit Schlussfolgern, Aufmerksamkeit und Planung in Verbindung gebracht wird. Andersen und sein Team gehen davon aus, dass solche »Doppel-Implantate« die Leistungsfähigkeit von Prothesen verbessern, weil sie neben den Bewegungsbefehlen auch die Absichten und die vormotorische Planung der Nutzer erfassen. Andersens Forschung zeigt zudem, welches Potenzial BCIs haben, die über den motorischen Kortex hinausgehen. »Überrascht hat uns, dass wir über den posterioren Parietalkortex Signale aus einer Vielzahl von Bereichen gleichzeitig erhalten«, sagt Andersen. »So können wir eine enorme Bandbreite an Informationen entschlüsseln.«

Dass solche Systeme auf Aspekte des innersten Lebens eines Menschen zugreifen können – bis hin zu vorbewussten Gedanken – , verschärft die Debatte um den Schutz neuronaler Daten. Zugleich wirft es ethische Fragen auf: Wie könnten neurotechnologische Geräte eines Tages möglicherweise Gedanken und Handlungen gezielt beeinflussen, insbesondere in Kombination mit künstlicher Intelligenz?

»Die Schnittstelle zum gesamten Gehirn wird die Zukunft sein. Das führt direkt zur entscheidenden Frage: Wie kann ein sicherer Einsatz garantiert werden?«Tom Oxley, CEO des Unternehmens Synchron

Allerdings erweitert und verbessert KI auch die Möglichkeit, derartige Signale außerhalb des Gehirns zu erfassen. Ethiker warnen deshalb, dass diese Geräte ohne Regulierung Technologieunternehmen Zugang zu neuen, präziseren Daten über die inneren Reaktionen von Menschen beispielsweise auf Onlineinhalte und andere Stimuli verschaffen könnten.

Es wird daher zunehmend darüber diskutiert, wie mit Informationen umzugehen ist, die bisher unerreichbar waren. »Die Schnittstelle zum gesamten Gehirn wird die Zukunft sein«, sagt Tom Oxley, CEO des Unternehmens Synchron in New York. Er prognostiziert, dass der Wunsch, psychiatrische Erkrankungen und andere Hirnstörungen zu behandeln, dazu führen wird, dass weitere Hirnregionen erschlossen werden. KI werde dabei helfen, diese Informationen zu entschlüsseln, und die Funktionsweise der Systeme verändern. »Das führt direkt zur entscheidenden Frage: Wie kann ein sicherer Einsatz garantiert werden?«

Bedenken der Verbraucher

Produkte für den Massenmarkt erfassen weniger komplexe Daten als implantierte BCIs. Während Letztere auf den Signalen einzelner, spezifischer Nervenzellen beruhen, nutzen die meisten anderen Geräte Elektroenzephalografie (EEG). Damit werden elektrische Wellen detektiert, die in großen Nervenzellverbänden entstehen und sich an der Kopfhaut erfassen lassen. Statt auf maximale Genauigkeit sind solche Geräte eher auf Design und Alltagstauglichkeit ausgelegt – etwa in Form eleganter Stirnbänder oder als Elektroden, die in Kopfhörern oder AR-/VR-Headsets verborgen sind.

Dennoch kann EEG Auskunft über den allgemeinen Zustand des Gehirns geben, etwa über Wachheit, Konzentration, Müdigkeit oder das Stresslevel. Firmen bieten bereits Headsets und Software an, die solche Messwerte in Echtzeit ausgeben und Nutzer beispielsweise dabei unterstützen sollen, ihre sportliche Leistung zu steigern, effektiver zu meditieren oder produktiver zu arbeiten.

Körperliche Einschränkungen überwinden | Ein Proband trägt eine BCI-Haube, die seine Gehirnaktivität in Signale umwandelt, um einen Computer in einem Labor der Eidgenössischen Technischen Hochschule in Lausanne (EPFL), Schweiz, zu steuern.

KI helfe dabei, die verrauschten Signale suboptimaler Systeme in nutzbare Daten zu verwandeln, erklärt Ramses Alcaide, CEO des Neurotech-Unternehmens Neurable aus Boston, das auf EEG-Signalverarbeitung spezialisiert ist und ein entsprechendes Headset verkauft. »Wir haben EEG so verbessert, dass es nicht mehr so ungenau ist wie früher«, sagt Alcaide. »Jetzt kann man es auch im Alltag nutzen.«

Und die Erwartungen sind groß: Womöglich kann KI künftig noch deutlich mehr mentale Prozesse entschlüsseln. So weist Marcello Ienca, Neuroethiker an der Technischen Universität München, darauf hin, dass das EEG bereits jetzt winzige Spannungsänderungen im Gehirn erkennt, die nur wenige Hundert Millisekunden nach der Wahrnehmung eines Reizes auftreten. Solche Signale könnten zeigen, wie Aufmerksamkeit und Entscheidungsfindung mit diesem Reiz zusammenhängen.

Zwar lassen sich genaue Nutzerzahlen schwer ermitteln, doch laut Schätzungen verwenden bereits Tausende Techenthusiasten solche Headsets. Ethiker warnen, dass die großen Techkonzerne die Geräte plötzlich massentauglich machen könnten. Apple etwa meldete 2023 ein Patent für EEG-Sensoren in künftigen AirPod-Generationen an. Eine der warnenden Stimmen ist David Lyreskog, Ethiker an der englischen University of Oxford. Anders als klinische BCIs, die strengen medizinischen Vorschriften und Datenschutzstandards unterliegen, sei der Konsumentenmarkt kaum reguliert. »Die Situation ist extrem unübersichtlich«, sagt er.

Datenschutz und Regulierung

Schon 2018 stellten Ienca und seine Kollegen fest, dass die meisten Consumer-BCIs weder sichere Datenübertragungskanäle nutzen noch modernste Datenschutztechnologien implementieren. »Ich glaube, daran hat sich bis heute nichts geändert«, sagt Ienca. Hinzu kommt: Eine Analyse der Neurorights Foundation aus dem Jahr 2024 zu den Datenrichtlinien von 30 Neurotech-Unternehmen zeigte, dass nahezu alle die vollständige Kontrolle über die von Nutzern bereitgestellten Daten haben. Das bedeutet, dass die meisten Firmen diese Informationen nach Belieben verwenden können – einschließlich des Verkaufs an Dritte.

Als Reaktion auf solche Bedenken haben die Regierung von Chile und die Gesetzgeber in vier US-Bundesstaaten Gesetze verabschiedet, die direkte Aufzeichnungen jeglicher Nervenaktivität unter besonderen Schutz stellen. Doch Ienca und Nita Farahany, Ethikerin an der Duke University in Durham, befürchten, dass diese Gesetze nicht ausreichen, weil sie sich nur auf die Rohdaten konzentrieren und nicht auf die Schlüsse, die Unternehmen ziehen könnten, wenn sie neuronale Informationen mit parallelen digitalen Datenströmen kombinieren. Rückschlüsse auf die psychische Gesundheit oder politische Überzeugungen einer Person könnten demnach weiterhin verkauft und genutzt werden, um Menschen zu diskriminieren oder zu manipulieren.

»Die Datenwirtschaft greift nach meiner Ansicht schon jetzt stark in die Privatsphäre und die geistige Freiheit ein«Marcello Ienca, Neuroethiker an der TU München

»Die Datenwirtschaft greift nach meiner Ansicht schon jetzt stark in die Privatsphäre und die geistige Freiheit ein«, sagt Ienca. Sobald neuronale Daten hinzukämen, sei das »als verabreiche man den Unternehmen Steroide«. Mehrere internationale Organisationen, darunter die UNESCO und die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), haben Leitlinien zu diesen Fragen veröffentlicht. Im September schließlich stellten drei US-Senatoren einen Gesetzentwurf vor, der die Federal Trade Commission verpflichten würde, zu prüfen, wie neurotechnologische Daten geschützt werden sollen.

Auf dem Weg in die klinische Anwendung

Obwohl die Entwicklung rasant voranschreitet, wurde bislang noch keine BCI für den allgemeinen klinischen Einsatz zugelassen. Am nächsten dran ist ein Gerät von Synchron: Das vergleichsweise einfache System ermöglicht es Nutzern, Optionen auf einem Bildschirm auszuwählen, indem sie sich vorstellen, ihren Fuß zu bewegen. Da der Chip in ein Blutgefäß an der Oberfläche des motorischen Kortex eingesetzt wird, ist keine Gehirnoperation nötig. Erste Studien zeigen, dass das System sicher, robust und effektiv ist. Laut CEO Tom Oxley führt Synchron derzeit Gespräche mit der US-Arzneimittelbehörde FDA über eine Studie, die zur klinischen Zulassung führen könnte.

Das Neurotech-Unternehmen Neuralink von Elon Musk hat sein komplexeres System bereits bei mindestens 13 Freiwilligen chirurgisch in den motorischen Kortex implantiert, die damit unter anderem Computerspiele spielen oder Roboterhände steuern. Vertreter des Unternehmens berichten, dass sich mehr als 10 000 Menschen auf Wartelisten für klinische Studien haben setzen lassen.

Mindestens fünf weitere BCI-Firmen haben ihre Geräte in den vergangenen zwei Jahren erstmals an Menschen getestet, wobei sie kurzfristige Aufzeichnungen von wenigen Minuten bis zu mehreren Wochen bei Patienten durchführten, die sich ohnehin neurochirurgischen Eingriffen unterzogen. Fachleute erwarten, dass die ersten Zulassungen für Systeme im motorischen Kortex erfolgen, die Menschen mit schwerer Lähmung mehr Unabhängigkeit ermöglichen – darunter BCIs, die Sprache über synthetische Stimmen wiederherstellen.

»Alle hoffen, tiefer ins Gehirn vordringen zu können, bis zu den Vorläufern der Gedanken im Unterbewusstsein«Nita Farahany, Ethikerin an der Duke University

Was die Zukunft angeht, so sagt Nita Farahany, sei ein zentrales Ziel vieler Entwickler, über den motorischen Kortex hinauszugehen. »Alle hoffen, tiefer ins Gehirn vordringen zu können«, sagt sie, »bis zu den Vorläufern der Gedanken im Unterbewusstsein.«

Andersens Team veröffentlichte im vergangenen Jahr eine Machbarkeitsstudie, in der der innere Dialog von zwei Teilnehmenden aus dem Parietalkortex entschlüsselt wurde – wenn auch mit stark begrenztem Wortschatz. Außerdem zeichnete die Gruppe Hirnsignale auf, während ein BCI-Nutzer Blackjack spielte. Manche Neuronen reagierten auf die Zahlenwerte der Karten, andere verfolgten die Summe der Karten in der Hand des Spielers. Einige wurden aktiv, wenn der Spieler entscheiden musste, ob er bei seiner Hand bleiben oder eine weitere Karte nehmen wollte.

Sowohl Tom Oxley als auch Matt Angle, CEO des BCI-Unternehmens Paradromics, gehen davon aus, dass BCIs in Hirnregionen jenseits des motorischen Kortex eines Tages helfen könnten, psychiatrische Erkrankungen zu diagnostizieren und zu behandeln. Maryam Shanechi, Ingenieurin und Informatikerin an der University of Southern California in Los Angeles, arbeitet an diesem Ziel – unter anderem, indem sie neuronale Signaturen psychiatrischer Krankheiten und ihrer Symptome identifizieren und überwachen will.

BCIs könnten solche Symptome künftig verfolgen, Stimulationen liefern, die die neuronale Aktivität anpassen, und messen, wie das Gehirn auf diese Eingriffe reagiert. »Dieses Feedback ist entscheidend, weil man die Therapie präzise auf die individuellen Bedürfnisse zuschneiden möchte«, sagt Shanechi.

KI als Gamechanger

Shanechi weiß noch nicht, ob sich die neuronalen Korrelate psychiatrischer Symptome über viele Hirnregionen hinweg verfolgen lassen oder ob dafür Aufzeichnungen aus bestimmten Arealen nötig sind. In jedem Fall ist ein zentraler Aspekt ihrer Arbeit der Aufbau von sogenannten Foundation-Models für die Gehirnaktivität. Solche Modelle werden entwickelt, indem KI-Algorithmen mit riesigen neuronalen Datensätzen von zahlreichen Menschen trainiert werden. Theoretisch sollen die Ergebnisse auf verschiedene Gehirne übertragbar sein.

»Je mehr wir Deep-Learning-Techniken anwenden, desto besser können wir Signal von Rauschen trennen. Aber eigentlich ist es nicht Signal von Rauschen, sondern Signal von Signal«Tom Oxley, CEO des Unternehmens Synchron

Auch Synchron nutzt das Lernpotenzial von KI, um gemeinsam mit dem kalifornischen Chip-Hersteller NVIDIA solche Modelle zu entwickeln. Laut Oxley offenbaren die Modelle unerwartete Signale innerhalb dessen, was bisher als Rauschen im motorischen Kortex galt. »Je mehr wir Deep-Learning-Techniken anwenden«, sagt er, »desto besser können wir Signal von Rauschen trennen. Aber eigentlich ist es nicht Signal von Rauschen, sondern Signal von Signal.«

Oxley prognostiziert, dass BCI-Daten, kombiniert mit multimodalen digitalen Datenströmen, zunehmend Rückschlüsse auf das Innenleben von Menschen zulassen werden. Nach der Auswertung solcher Daten könnte eine Gehirn-Computer-Schnittstelle auf Gedanken und Wünsche reagieren – möglicherweise auch auf unbewusste – und so das Denken und das Verhalten beeinflussen.

Shanechi ist skeptisch. »Das alles ist keine Zauberei«, betont sie und verweist darauf, dass BCIs nur so viel erkennen und entschlüsseln können, wie die Trainingsdaten hergeben – und die seien nur schwer zu beschaffen.

Das »I« in KI und die Frage nach Kontrolle

In bisher unveröffentlichten Arbeiten haben Forschende von Synchron herausgefunden, dass sie – ähnlich wie Andersens Team – mithilfe von KI eine Art vorbewussten Gedanken entschlüsseln können. In diesem Fall handelt es sich um ein Fehlersignal, das auftritt, kurz bevor ein Nutzer eine unbeabsichtigte Auswahl auf dem Bildschirm trifft. Anders gesagt: Die Gehirn-Computer-Schnittstelle erkennt, dass die Person einen Fehler gemacht hat, noch bevor sie selbst sich dessen bewusst ist. Oxley sagt, das Unternehmen müsse nun entscheiden, wie es diese Erkenntnis nutzen will.

Hilfe im Alltag | Tilo Werner, der nach einem Unfall eine Querschnittslähmung hat, kann mit einer Gehirn-Computer-Schnittstelle bestimmte Muskeln direkt aktivieren und einen Stift halten.

»Wenn das System weiß, dass Sie gerade einen Fehler gemacht haben, kann es Ihren nächsten Schritt antizipieren«, erklärt er. Eine automatische Korrektur von Fehlern würde die Leistungsfähigkeit erhöhen – allerdings handelt das System dann im Namen des Nutzers, ohne dass dieser ausdrücklich zustimmt. Das mag bei BCIs, die den motorischen Kortex auslesen, unproblematisch sein. Aber was ist mit Systemen, die andere Aspekte des Denkens erschließen?

Matt Angle spricht von einer »interessanten Stellschraube«, die die Integration von KI hinzufügt: Nutzer können zwischen Autonomie und Geschwindigkeit abwägen. Wenn Nutzer ein Stück Kontrolle abgeben, etwa weil die Gehirndaten begrenzt oder unklar sind, »werden sie dann das Gefühl haben, dass die Handlung nicht von ihnen stammt, oder werden sie denken, dass es genau das war, was sie ohnehin wollten?«, fragt Angle.

Farahany verweist auf Neuralinks Einsatz des KI-Chatbots Grok in Kombination mit einer BCI als frühes Beispiel für die potenziell verschwimmenden Grenzen zwischen Mensch und Maschine. Ein sprechunfähiger Proband kann mithilfe der BCI und Grok synthetische Sprache in normaler Gesprächsgeschwindigkeit erzeugen. Der Chatbot schlägt Antworten vor und formuliert sie, um die Kommunikation zu beschleunigen.

Obwohl bereits viele Menschen KI nutzen, um E-Mails oder andere Texte zu entwerfen, vermutet Farahany, dass ein KI-Chatbot, der über eine BCI jedwede Kommunikation eines Menschen vermittelt, erheblichen Einfluss darauf haben wird, was dieser letztlich sagt. Der Effekt würde sich sogar noch verstärken, wenn die KI auf Absichten oder vorbewusste Gedanken reagiert. Der Chatbot, so argumentiert sie, würde mit seinen eingebauten Funktionen und Vorbehalten das Denken der Person formen. »Was Sie äußern, wird immer auch Teil Ihrer Identität und prägt unbewusst, wer Sie sind«, sagt die Forscherin.

»Wenn Ihnen Ihre mentale Privatsphäre wichtig ist, sollten Sie sich dafür interessieren, was mit den Daten passiert, sobald diese das Gerät verlassen«Nita Farahany, Ethikerin an der Duke University

Farahany und ihre Kollegen plädierten in einer noch nicht begutachteten Studie im Juli 2025 daher für eine neue Form der BCI-Regulierung, die Entwicklern sowohl im experimentellen als auch im Verbraucherbereich eine gesetzliche Treuepflicht gegenüber den Nutzern ihrer Produkte auferlegt. Ähnlich wie ein Anwalt gegenüber seinem Mandanten oder eine Ärztin gegenüber ihrem Patienten wären die BCI-Entwickler verpflichtet, stets im besten Interesse der Nutzer zu handeln.

Bisher habe sich die Diskussion über Neurotechnologie vor allem darauf konzentriert, sagt sie, die Gehirndaten der Nutzer privat zu halten, um den Zugriff Dritter auf sensible Informationen zu verhindern. Künftig werde es eher darum gehen, wie KI-gestützte BCI-Systeme vollständig im Einklang mit den Interessen der Nutzer arbeiten.

»Wenn Ihnen Ihre mentale Privatsphäre wichtig ist, sollten Sie sich dafür interessieren, was mit den Daten passiert, sobald diese das Gerät verlassen«, sagt Farahany. »Ich selbst mache mir inzwischen aber fast noch mehr Sorgen darüber, was im Inneren des Geräts passiert.« Die Herausforderung besteht also darin, rechtliche, ethische und technische Standards so zu gestalten, dass Nutzer die Kontrolle über ihr Denken behalten – selbst in einer Welt, in der Maschinen tief in ihre Gehirne blicken können.

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

  • Quellen
Aflalo, T. et al., Current Biology 10.1016/j.cub.2022.03.047, 2022 Bhattacharjee, A. et al., arXiv 10.48550/arXiv.2507.14339, 2025 Wandelt, S. K. et al., Nature Human Behaviour 10.1038/s41562–024–01867-y, 2024

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.