Wenn sich im Herbst die Athleten des "Cybathlon" 2016 zum Sportwettkampf treffen, dreht sich alles um die richtige Technik: Menschen mit Querschnittslähmung radeln um die Wette oder durchlaufen einen Hindernisparcours. Träger künstlicher Arme beweisen Fingerfertigkeit in Alltagsdingen wie Brotschneiden oder Wäscheaufhängen. Und beim "Brain-Computer-Interface-Race" lotsen Menschen, denen nur die Kraft der Gedanken geblieben ist, mit Hilfe ihrer Gehirnströme einen Avatar durch eine virtuelle Welt. Möglich machen das neu entwickelte Systeme, die Menschen mit Behinderung bei der Bewältigung ihres Lebens helfen.

Welches Team die beste Technik entwickelt hat, soll sich in den sechs verschiedenen Disziplinen erweisen, die sich die Organisatoren um Robert Riener von der ETH Zürich für den "Cybathlon" ausgedacht haben – den ersten Wettkampf für Athleten mit Behinderungen und technischen Assistenzsystemen. Das Besondere: Einige der Hilfsmittel werden allein mit Hilfe von Gedanken gesteuert. Denn die Zeiten, in denen die Kommunikation zwischen Mensch und Maschine ausschließlich im Drücken von Knöpfen bestand, sind vorbei. Mit manchen Geräten können wir heute sprechen, andere reagieren auf Gesten. Die Gehirn-Computer-Schnittstelle, englisch auch Brain-Computer-Interface oder kurz BCI genannt, ist die direkteste Form der Kommunikation zwischen Mensch und Maschine und die einzige, die nicht auf Muskelkraft angewiesen ist. Sie erlaubt es Menschen, die sich nur wenig oder gar nicht bewegen können, mit der Umwelt zu kommunizieren, im Internet zu surfen, E-Mails zu schreiben, zu malen oder gar zu komponieren. Und auch im Alltag von Menschen ohne Behinderung dürfte man sie bald finden.

Eine solche Gehirn-Computer-Schnittstelle besteht im Wesentlichen aus drei Teilen. Ein EEG-Gerät registriert die schwachen Signale, die von der elektrischen Aktivität der Nervenzellen im Gehirn nach außen dringen. Ein Computer analysiert diese Signale und übersetzt sie in Kommandos an die eigentliche Anwendung, also das Gerät, das mit diesen Signalen gesteuert werden soll. Dabei kann es sich um ein Computerprogramm handeln, einen Rollstuhl oder einen Lichtschalter. In manchen Fällen gibt es noch einen vierten Bestandteil: Er gibt dem Nutzer eine Rückmeldung darüber, was der Computer aus den eingehenden Signalen gemacht, was er "verstanden" hat.

Ganz so einfach, wie es klingt, funktioniert die Steuerung mit Hilfe von Gedanken allerdings noch nicht. Es reicht nicht, sich vorzustellen, man würde einen Satz tippen, um den Computer dazu zu bringen, eine E-Mail zu verfassen. Dazu sind die Signale, die das EEG auffangen kann, viel zu unklar. "Das ist erst einmal wie ein schlecht eingestellter Radiosender", erklärt Gernot Müller-Putz, der an der Technischen Universität Graz das Labor für Gehirn-Computer-Schnittstellen leitet. Um in diesem Rauschen die interessanten Informationen ausfindig zu machen, setzen die Forscher nicht nur auf komplexe Mathematik, sondern auch auf die Mithilfe des Nutzers: Er muss mit seiner Gehirnaktivität Signale produzieren, die so klar sind, dass der Computer sie unterscheiden kann. Beispielsweise kann er sich für ein "Ja" vorstellen, die rechte Hand zur Faust zu ballen, und für ein "Nein", den linken Fuß auf und ab zu bewegen. "Hände und Füße sind in unterschiedlichen Hirnregionen repräsentiert, das gibt schön deutlich unterscheidbare Muster", sagt Müller-Putz.

Durchdachte Kommandos

Doch selbst dann noch müssen Mensch und Computer lernen, sich aufeinander einzustellen: Nutzer üben, wie sie eine prägnante, stabile Vorstellung entwickeln, die die BCI möglichst immer richtig erkennt. Ob das gelungen ist oder ob sie es noch einmal versuchen müssen, ergibt sich aus der Rückmeldung des Systems. Und auch der Computer lernt dazu. Mit speziellen Mustererkennungsprogrammen wird er darauf trainiert, die Besonderheiten der Signale aus dem Gehirn seines Anwenders immer besser zu deuten. "Diese Trainingsphase kann schnell gehen, kann aber auch einige Zeit dauern", sagt der Grazer Forscher.

Gehirn-Computer-Schnittstelle
© Yousun Koh
(Ausschnitt)
 Bild vergrößernGehirn-Computer-Schnittstelle
Prothesen, die sich über Gehirn-Computer-Schnittstellen steuern lassen, befinden sich noch im Experimentierstadium. Oft scheitert es an einer brauchbaren Sensortechnik: Das EEG liefert zu ungenaue Daten, die Alternativen – implantierte Elektroden oder auf den Kortex aufgesetzte Elektrodenraster (ECoG) – sind mit teils bedenklichen Eingriffen verbunden.

Zudem greifen die Programmierer auf Tricks zurück: Der Nutzer muss beispielsweise einen Befehl an den Computer nicht Buchstabe für Buchstabe zusammensetzen, sondern er blickt auf einen Bildschirm, auf dem die verschiedenen Befehle, wie "Licht ausschalten" oder "Fenster schließen", der Reihe nach markiert werden. Um einen davon auszuwählen, genügt es, das vorher vereinbarte "Ja"-Kommando zu denken, sobald das gewünschte Feld aufleuchtet. Zum Schreiben längerer Texte lassen manche Forscher die Buchstaben in jeweils eigener Frequenz blinken. Blickt der Nutzer auf einen davon, überträgt sich das Blinken auch auf den Rhythmus, in dem Zellen seines Sehzentrums feuern. So weiß der Computer, welchen Buchstaben der Anwender auswählen möchte.

In dem bereits abgeschlossenen Forschungsprojekt "BackHome", an dem Wissenschaftler der Universitäten Graz und Würzburg beteiligt waren, wurden diese Möglichkeiten mit Patienten getestet. Hat sich ein Nutzer erst einmal auf die Technologie eingestellt, erleichtert sie sein Leben und macht ihn ein wenig unabhängiger. Die Forscher denken noch weiter: Auch Menschen im Wachkoma oder im Locked-in-Zustand könnten mit Hilfe von BCIs die Möglichkeit zur Kommunikation erhalten. Gelingt es ihnen, einen von zwei unterscheidbaren Hirnzuständen zuverlässig zu erzeugen, können sie zum Beispiel auf Fragen mit Ja oder Nein antworten. Entsprechende Tests mit dem fMRT, dem Hirnscanner, verliefen viel versprechend. Aber dieses spezielle Verfahren ist sehr aufwändig und taugt für die alltägliche Kommunikation wenig. "Würde das mit dem EEG gelingen, könnte man das auch einfach am Bett der Leute machen", so Müller-Putz.

Brückenschlag für Hirnsignale

In seinem Labor arbeiten die Forscher an einer besonderen Art von Bypass: Sind Menschen nach einem Unfall gelähmt, dann oft, weil Nerven ihres Rückenmarks an einer Stelle durchtrennt wurden. Ober- und unterhalb der Verletzung sind die Nerven häufig noch intakt. Das Gehirn sendet weiterhin Signale an die Gliedmaßen, die der Betroffene bewegen möchte, doch kommen die Befehle nicht mehr an ihrem Bestimmungsort an. Die Gehirn-Computer-Schnittstelle dient nun dazu, die Stelle, an der der Nerv durchtrennt wurde, zu überbrücken. Ein Computer ermittelt anhand der EEG-Signale, welche Bewegung der Benutzer plant, und schickt daraufhin elektrische Impulse an den gelähmten Arm oder das Bein. Durch die Stimulation ziehen sich die Muskeln wie gewünscht zusammen.

Essen per Roboterarm
© University of Pittsburgh Medical Center
(Ausschnitt)
 Bild vergrößernEssen per Roboterarm
Forscher von der University of Pittsburgh testeten erfolgreich einen gedankengesteuerten Roboterarm. Die Steuerung ist so präzise, dass sich die vollständig querschnittsgelähmte Patientin einen Riegel Schokolade eigenhändig schmecken lassen kann.

In dem gerade gestarteten, von der Europäischen Union geförderten Projekt "MoreGrasp" versuchen die Forscher auf diese Weise Gelähmten zu ermöglichen, einfache Griffe auszuführen, selbst wenn sie ihre Hand schon seit Jahren nicht mehr bewegen konnten. "Das reicht nicht zum Klavierspielen, aber dazu, ein Glas oder einen Löffel zu ergreifen", sagt Müller-Putz. Sein Ziel ist, die Steuerung dieser Griffe intuitiver zu machen: Der Benutzer soll sich künftig tatsächlich genau die Bewegung vorstellen, die er ausführen möchte. Bislang werden noch behelfsmäßige Vorstellungen verwendet, die nur darauf ausgelegt sind, dass der Computer sie gut unterscheiden kann.

Andere Forscher entwickeln Gehirn-Computer-Schnittstellen für Patienten, die einen Arm oder ein Bein verloren haben. Mit Hilfe ihrer Gedanken sollen sie Prothesen kontrollieren, die über zahlreiche Motoren und Gelenke viele Aufgaben natürlicher Gliedmaßen erfüllen. Ein besonders hoch entwickeltes System dieser Art präsentierte Justin Sanchez, Programmmanager der DARPA, der Forschungsabteilung der US-Armee, kürzlich anhand von zwei Patienten, die dank einer solchen, dem Arm eines Roboters ähnelnden Prothese ein Glas ergreifen und daraus trinken, eine Faust ballen und jemandem die Hand schütteln konnten. Die künstlichen Hände ließen sich sogar mit Sensoren ausstatten, die dem Träger ein Gefühl für den neuen Körperteil geben. Das ist mitunter so präzise, dass sie bemerken, an welchem Finger ihre künstliche Hand berührt wird.

Was im Gehirn des Patienten vor sich geht, ermittelten diese Geräte allerdings nicht mit Hilfe eines EEGs. Dessen Daten wären viel zu grob für eine feine Kontrolle, zudem lassen sich damit keine künstlichen Sinnesempfindungen ins Gehirn des Trägers leiten. Stattdessen müssen hauchdünne Messfühler direkt in oder auf der Großhirnrinde platziert werden. Im Rahmen einer OP implantieren Chirurgen die so genannten Mikroelektroden in Regionen, die für Bewegungssteuerung und Sinneswahrnehmung zuständig sind. Dadurch erhöht sich die Qualität der Signale um ein Vielfaches – doch zugleich wächst das Risiko für den Patienten. "Umfragen haben ergeben, dass die meisten Menschen, für die eine BCI in Frage kommt, keine Operation möchten, auch wenn sie damit bessere Ergebnisse erzielen könnten", berichtet Müller-Putz. Denn selbst mit dem altbewährten EEG-Gerät lassen sich Prothesen steuern, wenn auch längst nicht so genau.

"Jetzt besser keine Entscheidungen"

BCIs sind allerdings nicht nur für klinische Fälle interessant. Immer mehr Gesunde interessieren sich für das Feedback, das ihnen die Schnittstellen über ihre Gehirnaktivität liefern können. Etwa um mit Headsets, die einige wenige EEG-Elektroden an Stirn, Hinterkopf und Ohrläppchen platzieren, ihre Konzentrations- oder Entspannungsfähigkeit zu üben. Müller-Putz kann sich für die Zukunft noch andere Anwendungen vorstellen: "Angenommen, ich habe mich als Leiter des Instituts furchtbar über irgendetwas geärgert, und dann kommt ein Mitarbeiter und möchte einen Tag frei haben. Ich bin drauf und dran zu sagen: Nein, gibt's nicht! Da könnte mir so ein System sagen: Vorsicht, in den nächsten zehn Minuten wegen großer Erregung besser keine Entscheidungen fällen!" Ebenso könnte das Interface eine Börsenmaklerin warnen, wenn ein zu hoher Stresslevel ihre Urteilskraft zu trüben droht, oder einen Autofahrer, dass er abgelenkt oder übermüdet ist. Auch für den Bereich der Lernsoftware ist die Erfassung der Hirnzustände interessant. Idealerweise würde sich ein Lernsystem an die Aufnahmefähigkeit des Gehirns anpassen und immer genau so viel Stoff oder aber Entspannungsübungen anbieten, dass der Schüler sich weder langweilt noch überfordert wird. Und da man mit BCIs beobachten kann, was im Gehirn vor sich geht, wenn man sich etwa durch Shoppingseiten im Internet klickt, wird die Gehirn-Computer-Schnittstelle auch in der Marktforschung zu einem immer beliebteren Instrument.

Die größte Schwachstelle bei der Entwicklung von Gehirn-Computer-Schnittstellen liegt derzeit in der Elektrodentechnik. Viele Teams, die an neuen Verfahren arbeiten, greifen noch auf die traditionellen EEG-Hauben zurück, bei denen bis zu 122 Elektroden von Hand platziert und anschließend mit Gel versehen werden müssen. Das verbessert die Signalübertragung, klebt aber nachher in den Haaren. Trockenelektroden, wie sie die handelsüblichen Gadgets verwenden, sind zwar praktisch, doch leider noch nicht verlässlich genug für die wirklich relevanten Anwendungen zum Beispiel in der Medizin. Müller-Putz nutzt sie bestenfalls zur Demonstration, wenn Studenten oder Schüler auf Laborbesuch kommen. "Ernsthaft forschen kann man damit nicht", sagt der Wissenschaftler. Hier bleibt den Entwicklern nichts anderes übrig, als auf Fortschritte in der Materialforschung und Sensortechnik zu warten.

Kombiniert man eine BCI mit einem Gerät zur Stimulation eines anderen Gehirns, bekommt man eine Gehirn-Gehirn-Schnittstelle, genauer gesagt eine Gehirn-Computer-Gehirn-Schnittstelle: Signale aus dem ersten Gehirn werden verwendet, um Signale an das zweite Gehirn zu senden. Auf diese Weise spielten schon 2013 der Informatiker und Neurowissenschaftler Rajesh Rao und sein Kollege, der Psychologe Andrea Stocco, beide von der University of Washington in Seattle (USA), ein Computerspiel. Wenn Rao, der mit einer EEG-Haube auf dem Kopf in seinem Büro bewegungslos vor seinem Computer saß, im Spiel mit einer virtuellen Kanone auf ein Flugzeug am Himmel schießen sollte, stellte er sich vor, seine rechte Hand drücke eine Taste. In einem anderen Gebäude auf dem Campus der Universität saß Stocco mit der Hand auf der Tastatur, aber ohne Monitor. Auf seinem Kopf hatten sie ein Gerät zur transkranialen Magnetstimulation platziert, das durch den Schädel hindurch Nervenzellen der Großhirnrinde zum Feuern bringt. Es war direkt auf das Hirnareal zur Steuerung der Hand ausgerichtet. Die Folge: Jedes Mal wenn sich Rao eine Handbewegung vorstellte, ging der Stimulator an, und Stoccos Hand zuckte auf eine Taste – gefolgt von einem begeisterten "Treffer!" seines Kollegen. Noch spektakulärere Experimente zieht derzeit wohl nur die Gruppe um Miguel A. Nicolelis auf. In einem Versuch aus dem Jahr 2015 schaltete der Neuroingenieur an der Duke University in Durham (USA) beispielsweise die Hirne von vier Ratten zu einer Art Gehirnnetzwerk zusammen, einem "Brainet", wie er es nennt. Die Tiere lernten, im Verbund unterschiedliche Stimuli auseinanderzuhalten, eine Erinnerung zu speichern und eine Art einfache Wettervorhersage zu liefern. Drei Affen, ebenfalls zu einem Brainet verbunden, schafften es, auf einem Computerbildschirm einen Roboterarm zu einem Ball zu bewegen. Dabei steuerte jeder Affe eine Bewegungsdimension: aufwärts und abwärts, rechts und links sowie vor und zurück.

Invasive Technik
© University of Pittsburgh Medical Center
(Ausschnitt)
 Bild vergrößernAbgeklatscht
Dank implantierter Elektroden lässt sich der Kunstarm sehr zielgerichtet bewegen. Doch für künftige BCIs wären weniger invasive Verfahren wünschenswert.

Nicolelis betrachtet die Brainets als Vorform einer neuen Art von halb biologischen, halb technischen Computern. Ein nichtinvasives Brainet könnte gelähmten Menschen in der Rehabilitation helfen, ihre Bewegungsfähigkeit zu verbessern, hofft der Forscher. Allerdings sind seine Versuche bei genauerem Hinsehen weniger spektakulär, als sie zu sein vorgeben. Anders als die Netzmetapher nahelegt, werden die Hirne der Ratten nicht direkt miteinander verbunden. Keines der Tiere erhält Signale aus dem Denkorgan seines Nachbarn. Die Forscher messen lediglich die neuronale Aktivität jedes einzelnen Tiers und belohnen alle vier mit einem Schlückchen Wasser, wenn ihre Hirnaktivität nach einer neuronalen Reizung zufälligerweise synchron ist. So lernen die Nager mit der Zeit, welche neuronale Aktivität sie produzieren müssen, um an den begehrten Schluck zu kommen – wodurch die Hirnaktivität der Brainet-Mitglieder mit der Zeit zwangsläufig synchroner wird.

Einen ähnlichen Lernvorgang durchlaufen auch die menschlichen Benutzer einer Gehirn-Computer-Schnittstelle. Sie müssen ebenfalls durch Versuch und Irrtum ihre mentalen Vorstellungsbilder variieren, bis sie die passenden EEG-Muster produzieren. Wie nützlich der neuronale Quasizusammenschluss bei einem solchen Training sein kann, hat Müller-Putz selbst schon beobachtet. Dazu schaltete sein Team Signale aus dem Gehirn eines erfahrenen BCI-Nutzers mit denen aus dem Gehirn eines Neulings zusammen, der erst lernen sollte, ein solches Gerät zu bedienen. "Am Anfang klappt so etwas gar nicht gut", berichtet Müller-Putz. Mitunter kommen Anfänger nicht einmal an den Punkt, ab dem die BCI ihnen hilfreiches Feedback liefern kann. Doch wenn der Übende statt der eigenen (schlechten) Ergebnisse zunächst die guten des Trainers zurückgespiegelt bekommt, die dann nach und nach durch seine eigenen ersetzt werden, lernt er schneller. Die positive Rückmeldung hilft den Probanden, sich zu verbessern.

Gehirn-Computer-Schnittstellen werden es uns erlauben, die Grenzen unseres Körpers zu überschreiten. Das bietet enorme Möglichkeiten, wirft aber auch Fragen auf – vom Schutz der im Hirn erhobenen Daten bis hin zur Klärung von Verantwortlichkeiten: Was passiert, wenn ein BCI-gesteuertes System einen Unfall verursacht? Kann der Benutzer nachweisen, dass er das Richtige dachte und sein Gerät ihn falsch verstand? Gehirn-Computer-Schnittstellen stehen gerade bei Militärs hoch im Kurs. So sollen sie überlasteten Kampfpiloten die Arbeit erleichtern, während in roboterhafte "Exoskelette" eingespannte Soldaten mit maschineller Kraftunterstützung stundenlang marschieren. Es braucht nicht sonderlich viel Fantasie, um sich hier problematische Szenarien auszumalen.

Ihre Vorteile dürften die BCIs aber zunächst in ganz praktischen Alltagssituationen ausspielen. Müller-Putz ist sich sicher: BCIs werden Einzug in unser aller Leben halten. Sollte der "Cybathlon" ein Erfolg werden, denken die Organisatoren darüber nach, den Wettkampf 2020 zu wiederholen. So lange vielleicht, bis es keinen Grund mehr dafür gibt, Menschen mit Behinderungen in einer eigenen Klasse im sportlichen Wettkampf antreten zu lassen.