Direkt zum Inhalt

Neuroprothesen: Roboter steuern von Geistes Hand

Ein Roboterarm bewegt sich nach den Kommandos eines lebenden Gehirns. Was nun mit Affen gelungen ist, könnte körperlich behinderten Menschen eines Tages zu mehr Freiheit verhelfen.


Belle, unsere kleine Nachtaffendame, hockt auf ihrem Spezialstuhl in einer schalldichten Kammer unseres Labors an der Duke-Universität in Durham (North Carolina). Ihre rechte Hand fest auf einem Joystick, den Blick geradeaus auf eine Anzeigetafel unmittelbar vor ihr, wartet sie auf ihren Einsatz. Jedes Mal, wenn ein Lichtsignal rechts oder links aufleuchtet und sie den Joystick dann entsprechend bewegt, bekommt sie aus einem Flüssigkeitsspender einen Tropfen Fruchtsaft ins Maul geträufelt. Belle liebt dieses Spiel, und sie beherrscht es hervorragend.

Auf ihrem Kopf klebt eine verkabelte Kappe mit Kunststoffsteckern an der Innenseite. Verbunden sind sie mit einer rasterartigen Anordnung von Mikroelektroden aus hauchdünnem Draht, feiner noch als ein Haar. Implantiert hatten wir die Multi-Mikroelektroden-Arrays, wie der technische Ausdruck auch lautet, in verschiedene Regionen von Belles motorischer Hirnrinde. Die »angezapften« Bereiche planen Bewegungsabläufe und schicken Befehle an Nervenzellen im Rückenmark, um die Bewegungen ausführen zu lassen. Jedes der insgesamt 96 Drähtchen kam neben einer motorischen Nervenzelle im Gehirn zu liegen.

Sobald ein solches »Motoneuron« aktiv wird, erfasst die benachbarte Mikroelektrode seine elektrische Aktivität und leitet sie nach außen weiter. Von Belles Kappe führt ein dünnes Kabel zu einer Elektronik-Box gleich außerhalb der schalldichten Kabine. Die Box wiederum ist über einen Server mit zwei Computern verbunden: Der eine steht in der gleichen Etage, der andere hingegen Hunderte von Kilometern entfernt.

Auf der gegenüberliegenden Seite des Flures, in einem überfüllten Raum, steigt die Anspannung bei unserem Forschungs­team sichtlich. Nach Monaten harter Arbeit ist die Stunde der Wahrheit gekommen. Würde es gelingen, die elektrische Aktivität im Gehirn eines Lebewesens – Belles bloße Gedanken sozusagen – zuverlässig in Steuersignale für einen Roboter zu übersetzen? Was Belle an diesem Nachmittag im Frühjahr 2000 nicht sehen kann: Wir hatten in unserem Raum einen mehrgelenkigen Roboterarm aufgebaut, den sie zum ersten Mal – ohne etwas davon zu ahnen – steuern würde.

Sobald Belles Gehirn auf einen aufleuchtenden Punkt der Anzeigetafel anspricht, sollte die Elektronik in der Box in Echtzeit die winzigen Signale der Nervenzellen analysieren, die über die beabsichtigte Armbewegung Auskunft geben. Wir hatten dafür zwei mathematische Modelle entwickelt und erprobt. Unser Laborcomputer würde dann die elektrischen Muster in Befehle umwandeln, die den Roboterarm steuern. Tausend Kilometer weiter nördlich, in Cambridge (Massachusetts), würde ein zweiter Computer einen andersartigen Roboterarm in derselben Weise agieren lassen. Konstruiert hatte ihn Mandayam A. Srinivasan, Leiter des Labors für Haptik von Mensch und Maschine, am Massachusetts Institute of Technology.

Wenn alles nach Plan läuft, müssten sich die beiden Roboterarme wie Belles Arm verhalten und synchron mit ihm bewegen. Um die neuronale Aktivität von Belle in Roboterbefehle umzusetzen, bleiben gerade 300 Millisekunden. Dies ist die natürliche Spanne zwischen dem Zeitpunkt, an dem Belles motorische Hirnrinde geplant hat, wie sich ihr Arm bewegen soll, und dem Moment, in dem die Instruktionen an die Muskeln gehen. Bedenkt man zudem, dass die Signale bei der Übertragung in unserem Labornetz und in dem störanfälligen Internet verrauscht und verzögert werden, ist die Aufgabe alles andere als einfach. Wenn dennoch das Gehirn eines Lebewesens auf diesem Wege zwei unterschiedliche Roboterarme präzise dirigieren könnte, dann wären vielleicht eines Tages auch Prothesen oder sogar gelähmte Gliedmaßen entsprechend zu steuern.

Endlich ist es soweit. Wir schalten die Lämpchen vor Belle in beliebiger Reihenfolge mal rechts, mal links an und aus, worauf sie sofort ihren Joystick dementsprechend hin- und herkippt. Unser Roboterarm bewegt sich tatsächlich ähnlich wie Belles Arm, und das tut auch Srinivasans Roboterarm. Alle drei »tanzen« synchron nach der Choreografie des elektrischen Feuerwerks, das Belles Geistesarbeit entspringt. Lautstarker Jubel bricht in Durham und Cambridge aus – auch wenn uns nur allzu bewusst ist, dass wir erst am Anfang eines viel versprechenden Weges stehen.

Seit diesem Experiment im Jahr 2000 hat der wissenschaftlich-technische Fortschritt in den Neurowissenschaften, der Informatik, der Mikroelektronik und Robotik uns und andere Forscher dem gesteckten Ziel noch ein Stück näher gebracht: Allein durch »bloßes Vorstellen« des nötigen Bewegungsablaufs – durch Geistes Hand quasi – sollen Menschen mechanische und elektronische Geräte steuern können. In erster Linie geht es dabei um Patienten, die zwar gelähmt sind, aber über eine intakte motorische Hirnrinde verfügen. Wer beispielsweise vom Hals abwärts querschnittgelähmt ist, könnte so einmal einen Rollstuhl oder einen Roboterarm bedienen. Eines Tages gewinnt er vielleicht sogar die Kontrolle über seine eigenen Arme und Beine zurück – mit Hilfe drahtloser Kommunikation zwischen Implantaten im Gehirn und in den Gliedmaßen. Diese Forschungen könnten auch zur Entwicklung von Geräten führen, die andere motorische sowie sensorische oder kognitive Funktionen wiederherstellen oder unterstützen.

Bis heute ist es der Medizin nicht gelungen, Nervenbahnen im Rückenmark oder im Gehirn zu reparieren. Neurowissenschaftler versuchen zwar, den dort unterbrochenen Nervenfasern ein Nachwachsen zu ermöglichen oder Stammzellen in Ersatzneuronen zu verwandeln. Bis zu einer Therapie ist es aber noch weit. Für die nähere Zukunft bieten deshalb Gehirn-Maschine-Schnittstellen, kurz Neuroprothesen, eher eine Chance, motorische Funktionen wiederherzustellen. Ein weiterer Schritt in diese Richtung ist uns im Sommer letzten Jahres bei Rhesusaffen gelungen, die andere Aufgaben als Belle zu bewältigen hatten.

Die Entwicklungen der letzten Jahre basieren zum Teil auf Entdeckungen, die etwa zwanzig Jahre zurückliegen. Anfang der 1980er Jahre untersuchte Apostolos P. Georgopoulos an der Johns-Hopkins-Universität in Baltimore, wie sich Neuronen in der motorischen Hirnrinde von Rhesusaffen verhalten, wenn diese einen Arm in verschiedene Richtungen bewegen wollen. Wie er feststellte, »bevorzugt« eine solche Zelle zwar gewöhnlich eine bestimmte Zielrichtung. Erkennbar ist dies an den dichten Salven von Nervenimpulsen, die sie abfeuert, wenn der Arm genau dorthin gehen soll. Ist eine abweichende Richtung geplant, verstummt die Nervenzelle aber nicht einfach, sondern vermindert ihre Aktivität nur proportional zum Cosinus des Abweichwinkels.

Im Kollektiv aktiv

Motoneuronen sind somit auf einen recht breiten Bewegungsbereich abgestimmt. Und das wiederum bedeutet, dass sich das Gehirn höchstwahrscheinlich auf die kollektive Aktivität verteilter Gruppen von Einzelneuronen stützt, um einen motorischen Befehl zu erzeugen.

Allerdings kam auch Widerspruch. Georgopoulos hatte jeweils nur ein Neuron nach dem anderen und nur in einem einzigen motorischen Hirnareal gemessen. Somit blieb die Grundhypothese unbewiesen, dass in der gleichzeitigen, aber unterschiedlichen Aktivität vieler Rindenneuronen, die sich auf mehrere Gebiete verteilen, eine Art Kodierungsschema für die geplante Bewegungsrichtung steckt. Zwar war damals längst bekannt, dass Stirn- und Scheitellappen des Gehirns beim Planen und Erzeugen motorischer Befehle zusammenwirken. Doch technische Unzulänglichkeiten hinderten die Neurophysiologen daran, ausgedehnte Bereiche des Gehirns gleichzeitig »anzuzapfen«. Darüber hinaus glaubten die meisten Fachleute, man müsse nur die Eigenschaften eines Neurons nach dem anderen katalogisieren, um zu einem vollständigen Funktionsschema des Gehirns zu gelangen – als ob die Katalogisierung der Eigenschaften einzelner Bäume schon die ökologische Struktur eines ganzen Waldes offenbarte!

Zum Glück dachten nicht alle so. Als wir beide uns vor 15 Jahren an der heutigen Drexel-Universität in Philadelphia trafen, setzten wir uns mit dem vertrackten Problem auseinander, viele einzelne Nervenzellen gleichzeitig zu belauschen. Dank neuartiger, selbst entwickelter Techniken gelang es uns dann 1993, immerhin fast fünfzig Neuronen, die sich über fünf Hirnstrukturen verteilten, simultan bei einer Ratte abzuhören. Die Bereiche gehörten zum so genannten sensomotorischen System, das Sinnesinformationen empfängt und nutzt, um Bewegungen zu steuern.

Entscheidend für diesen Erfolg und alle weiteren waren neuartige Elektroden-Arrays: eine Anordnung feinster, mit Teflon ummantelter Drähte aus Edelstahl, die man in das Gehirn eines Tieres implantieren konnte. Die bisherigen Standard-Elektroden für einzelne Zellen ähnelten starren Nadeln. Sie arbeiteten gut, aber nur für ein paar Stunden, da sich um ihre Spitze Zellbestandteile ansammeln, die schließlich wie eine elektrisch isolierende Schicht wirken. Außerdem verletzten die steifen Elektroden Nervenzellen, wenn das Gehirn durch die normale körperliche Aktivität des Tieres leicht schwabbelte. Die in unserem Labor entwickelten Mikrodrähte hingegen besaßen stumpfere Spitzen, mit einem Durchmesser von circa 50 tausendstel Millimeter, und waren auch wesentlich flexibler. Ihr Vorteil: Keine Zellbestandteile versiegelten mehr die Elektrodenspitze, und die Nachgiebigkeit senkte das Verletzungsrisiko für die Nervenzellen. Dank dieser Eigenschaften konnten wir monatelang dieselben Zellen abhören.

Die nächste Herausforderung waren Systeme, welche die Hirnsignale in Befehle übersetzten, mit denen sich ein mechanischer Apparat steuern ließ. Gemeinsam mit Donald J. Woodward und Samuel A. Deadwyler von der Wake-Forest-Univer­sität in Winston-Salem (North Carolina) sowie mit dem Elektroingenieur Harvey Wiggins, heute Direktor der Firma Plexon in Dallas, konstruierten wir aus kommerziellen elektronischen Bausteinen eine kleine Box, ähnlich jener neben Belles Kabine. Dieser nach Harvey benannte Kasten enthielt die erste Hardware, die Nervensignale aus vielen Elektroden exakt erfassen, filtern und verstärken konnte. Mit einer speziellen Software, welche die Charakteristika der elektrischen Entladungen individueller Zellen zu identifizieren vermochte, war es uns möglich, die Signale von bis zu vier aktiven Einzelneuronen im Umfeld einer Mikroelektrode zu unterscheiden.

Hirn als Handlanger

Bei unseren nächsten Experimenten Mitte der 1990er Jahre brachten wir einer Ratte bei, »durch Geisteskraft« einen Hebel im Käfig zu betätigen, um Wasser zu erhalten. Zunächst lernte sie, mit ihrer Vorderpfote den Hebel niederzudrücken, der elektronisch mit einem sichtbaren Hebelarm außerhalb des Käfigs verbunden war. Dieser Arm senkte sich auf einen Behälter, um daraus einen Tropfen Wasser zu spenden.

Wir statteten das Tier mit einer kleinen Version der Gehirn-Maschine-Schnittstelle aus, die später Belle erhielt. Jedes Mal, wenn das Gehirn der Vorderpfote »befahl«, den Hebel zu drücken, erfassten wir gleichzeitig die Signale von 46 abgehörten Nervenzellen. Über einstellbare Widerstände maßen wir jedem dieser Signale ein Gewicht bei. Dabei wählten wir die Einstellungen so, dass die Summe der gewichteten Inputsignale, über die Zeit integriert, ein einzelnes Outputsignal ergab, das sehr gut die Bewegungsbahn des Vorderbeins voraussagte. Dieser Integrator konnte über eine Steuereinheit den äußeren Hebelarm ebenfalls in Bewegung setzen.

Sobald die Ratte daran gewöhnt war, durch Drücken des Käfighebels Wasser zu erhalten, lösten wir die Verbindung zwischen ihm und dem äußeren Hebelarm. Wenn das Tier nun drückte, bewegte sich der Arm nicht. Frustriert wiederholte es immer wieder die Prozedur – vergebens. Aber mit einem Mal senkte sich der Hebelarm doch und spendete Wasser.

Was die Ratte nicht wusste: Ihre 46 Nervenzellen hatten in demselben Muster gefeuert wie bei früheren Versuchen, als der innere Hebel seine Funktion noch erfüllte. Dieses Muster veranlasste den Integrator, den äußeren Hebelarm in Bewegung zu setzen.

Nach mehreren Stunden begriff die Ratte, dass sie gar nicht mehr zu drücken brauchte. Hinschauen und sich vorzu­stellen, was die eigene Pfote sonst mit dem Hebel tat, reichte völlig. Ihre Hirnneuronen erzeugten dabei eben jenes Impuls-Muster, das unser Gehirn-Maschine-Interface als motorische Befehle für die Hebelarmbewegungen interpretierte. Nach einiger Zeit beherrschten vier von sechs Ratten diese Aufgabe. Sie hatten also gelernt, dass sie den motorischen Vorgang des Hebeldrückens gedanklich ausführen mussten.

Hier ist nichts Mystisches im Spiel – und für einen Menschen ganz einfach nachzuvollziehen. Stellen Sie sich schlicht vor, den Arm auszustrecken und ein Glas Wasser zu ergreifen – ohne dass Sie es tatsächlich tun. Auf ähnliche Weise könnte eine Person beispielsweise mit einem amputierten Arm lernen, einen Roboterarm zu steuern, der mit ihrer Schulter verbunden ist.

Unser Erfolg bei Ratten ermutigte uns, zu Tieren überzugehen, deren Gehirn dem menschlichen Denkorgan schon viel ähnlicher ist: Wir wollten versuchen, die dreidimensionale Armbewegung eines Affen mit einem Roboterarm zu reproduzieren. Dazu mussten wir erst einmal ein Verfahren entwickeln, dass zuverlässig vorhersagte, wie die Tiere ihren eigenen Arm zu bewegen beabsichtigten.

Damals wechselte einer von uns (Nicolelis) zur Duke-Universität und richtete dort ein neurophysiologisches Labor ein. Gemeinsam bauten wir ein Interface, das fast hundert Nervenzellen, verteilt über Stirn- und Scheitellappen, gleichzeitig überwachen konnte. An Nachtaffen wollten wir es zuerst ausprobieren. Ihr Gehirn besitzt noch keine tiefen Furchen und Windungen, sodass die uns interessierenden Gebiete ihrer motorischen Hirnrinde an der Oberfläche zugänglich sind. Das erleichterte die Implantation unserer Mikrodrähte-Arrays. Sie funktionierten erfreulich gut und übermittelten uns über Monate die Nervenimpulse, die so genannten Aktionspotenziale, aus dem Gehirn.

Gedankenlesen

Bei unseren allerersten Experimenten hatten die Affen, darunter Belle, einen Joystick nach links oder rechts zu bewegen, sobald ein Licht auf der entsprechenden Seite eines Fernseh-Bildschirms aufleuchtete. Später setzten wir unsere Prüflinge in einen Stuhl gegenüber einer undurchsichtigen Blende, hinter der auf einem Tablett ein Stückchen Obst lag. Hob sich die Blende, musste das Tier seinen Arm ausstrecken, die Frucht ergreifen, sie zum Maul führen und seine Hand wieder nach unten in die Ausgangslage zurückziehen. Faseroptische Sensoren am Handgelenk erfassten kontinuierlich dessen Positionen und damit dessen Bewegungsbahn.

Bei den damaligen Analysen machte John Wessberg, heute an der Universität Göteborg in Schweden, eine erfreuliche Entdeckung: Die künftige Position der Affenhand ließ sich bereits einige wenige hundert Millisekunden vor der Aktion sehr gut vorhersagen – durch eine einfache Summation der elektrischen Aktivität der motorischen Rindenneuronen. Der wichtigste Trick bestand darin, im Computer beständig die neuronalen Aktivitäten zu kombinieren, die bis zu eine Sekunde vorher entstanden waren.

Im Verlauf unserer weiteren Forschungen erwarben wir von der Firma Plexon eine verbesserte Version der Harvey-Box. Damit und mit einigen selbst geschriebenen Echtzeit-Algorithmen greift unser Computer die Aktionspotenziale alle 50 bis 100 Millisekunden ab und integriert die Daten. Spezielle Software übersetzte den Output in Befehle, nach denen ein Roboterarm dreidimensionale Bewegungen ausführen konnte. Nun erst startete der Versuch, ein solches Gerät tatsächlich über eine Gehirn-Maschine-Schnittstelle zu steuern. Als wir an jenem Nachmittag im Jahre 2000 sahen, wie unser mehrgelenkiger Roboterarm Belles Armbewegungen ausführte, konnte man über die Unglaublichkeit des Ganzen schon ins Grübeln geraten. Nur 50 bis 100 Nervenzellen, zufällig ausgewählt unter Abermillionen, vollbrachten die Arbeit, auf die es ankam.

Wie spätere mathematische Analysen ergaben, wuchs die Präzision der Roboterbewegungen in etwa mit der Anzahl erfasster Neuronen, wobei der Zuwachs im oberen Bereich geringer wurde. Bei der Auswertung von rund hundert Nervenzellen stimmte die Roboterhand in ihrer Bewegung zu rund 70 Prozent mit dem natürlichen Vorbild überein. Um eine eindimensionale Handbewegung – wie die zwischen rechts und links – auf 95 Prozent genau vorherzusagen, dürften nach weiteren Analysen schon 500 bis 700 Neuronen reichen, je nachdem, in welcher Hirnregion wir die Informationen abgreifen. Wie viele Neuronen werden wir dann brauchen, um den Verlauf dreidimensionaler, räumlicher Bewegungen – wie das Aufklauben eines Stückchens Obst – hochpräzise vorhersagen zu können? Vermutlich wiederum nur in der Größenordnung von Hunderten und nicht von Tausenden.

Zellen beim Lernen zuschauen

Wenn aus der Aktivität einer Gruppe zufällig ausgewählter Nervenzellen herauszulesen ist, welche Handbewegung ansteht, dann dürfte diese »Botschaft« innerhalb eines jeden motorischen Areals der Hirnrinde weit verteilt vorkommen. Diese Dezentralisierung ist für das Tier äußerst vorteilhaft: Im Falle einer Verletzung kann es auf ein riesiges Reservoir an Redundanz zurückgreifen. Für uns Forscher bedeutet dies, dass im Falle schwer gelähmter Patienten eine Neuroprothese möglicherweise mit einer kleineren Population von Nervenzellen zu betreiben ist als ursprünglich angenommen.

Nach Belles erfolgreicher Premiere setzten wir die Arbeit mit ihr und unseren ­anderen Affen fort. In dem Maße, wie die Tiere ihre Aufgabe besser beherrschten, veränderten sich die Eigenschaften ihrer Neuronen – nicht bloß im Laufe mehrerer Tage, sondern auch schon innerhalb der täglichen zweistündigen »Arbeitssitzung«. Der Beitrag einzelner Neuronen stieg oder fiel mit der Zeit. Dieses motorische Lernen galt es zu berücksichtigen. Daher erweiterten wir unser mathematisches Modell um eine Routine, die den Beitrag eines jeden Neurons periodisch überprüfte. Wenn Nervenzellen keinen signifikanten Einfluss mehr auf die Vorhersagen hatten, wurden sie von dem Modell ausgeschlossen und dafür andere einbezogen, die sich zu besseren Prädiktoren gemausert hatten.

Nun hatten wir also einen Weg gefunden, aus dem Gehirn einen neuronalen Output für die Bewegungsbahn der Hand zu extrahieren. Diese Kodierung, plus unsere Fähigkeit, die Aktivität von Nervenzellen zuverlässig über einen längeren Zeitraum zu messen, ermöglichte es unserer Gehirn-Maschine-Schnittstelle, Belles beabsichtigte Bewegungen mehrere Monate lang akkurat wiederzugeben. Wir hätten dieses Interface sogar noch länger nutzen können, aber wir besaßen die Daten, die wir brauchten.

Eine ganz wichtige Erkenntnis war, dass die so genannte Plastizität des Gehirns, die es lern- und anpassungsfähig macht, kein Hindernis für den Einsatz eines Gehirn-Maschine-Interface darstellt. Das Schöne an einem verteilten neuronalen Output ist ja gerade, dass er nicht auf eine bestimmte kleine Gruppe von Neuronen angewiesen ist. Wenn ein Interface monate- bis jahrelang Hunderte bis Tausende von Einzelneuronen verlässlich abhören und lernfähige mathematische Modelle einsetzen kann, so wird es auch mit Schwierigkeiten fertig werden, wie dem Absterben von Nervenzellen, neuronalen Entwicklungsvorgängen und sogar einem Nachlassen der Elektrodengüte.

Unser Interface hatte sich zwar für ein einfaches Primatengehirn im Prinzip bewährt. War es aber auch an komplexere Gehirne anzupassen? Im Mai 2001 begannen wir es an drei Rhesusaffen zu erproben. Ihr Gehirn ist ähnlich wie beim Menschen gefurcht. Wir benutzten dasselbe Interface wie für Belle, mit einer einzigen entscheidenden Erweiterung: Von nun an konnten die Affen selbst sehen, wie gut oder schlecht das System ihre Handbewegungen nachahmte. Ihre Aufgabe ähnelte diesmal einem Computerspiel: Sie durften mit einem Joystick einen Cursor beliebig über einen Computer-Bildschirm jagen. Sobald aber irgendwo auf dem Monitor eine »Zielscheibe« auftauchte, musste der Cursor blitzschnell – innerhalb einer halben Sekunde – darin platziert werden. Für jeden Treffer gab es einen Schluck Fruchtsaft zur Belohnung.

Der erste Rhesusaffe, der diese Aufgabe meisterte, war Aurora, ein elegantes Weibchen, das zweifellos den Erfolg genoss, eine Trefferquote von mehr als 90 Prozent zu erzielen. Ein Jahr lang registrierten unsere beiden wissenschaftlichen Mitarbeiter Roy Christ und José Carmena dabei die Aktivität von bis zu 92 Nervenzellen in fünf Bereichen der Stirn- und Scheitelrinde von Auroras Gehirn. Als die Affendame das Spiel beherrschte, versuchten wir sie auszutricksen. In etwa 30 Prozent der Fälle unterbrachen wir die Verbindung zwischen Joystick und Cursor. Aurora sollte dann allein kraft ihrer neuronalen Aktivität, die ständig von unserem Gehirn-Maschine-Interface verarbeitet wurde, den Cursor rasch ins Ziel bewegen.

Nach anfänglicher Irritation änderte Aurora ihre Strategie allmählich. Zwar führte sie weiterhin Handbewegungen aus, hatte aber nach einigen Tagen begriffen, dass sie den Cursor auch immer allein mit ihrem Gehirn steuern konnte, wenn sie wollte. Bei einigen der täglichen Tests in den folgenden Wochen machte Aurora nämlich keinerlei Anstalten mehr, die Hand zu bewegen: Sie führte den Cursor ausschließlich dadurch, indem sie sich die Bewegungsbahn vorstellte.

Das war noch nicht alles. Die Vorhersagen durch das Gehirn-Maschine-Interface wurden immer genauer, obwohl es stets von denselben Nervenzellen Informationen abgriff. Auch wenn noch eingehendere Analysen notwendig sind, um diesen Befund zu verstehen, gibt es zumindest eine Erklärung: Die visuelle Rückkopplung half Aurora, die Reaktion der Gehirn-Maschine-Schnittstelle auf die Lerneffekte von Gehirn wie Maschine zu steigern. Wenn sich dies als richtig erweist, könnte ein Feedback über die Augen oder andere Sinne auch Menschen in die Lage versetzen, die Leistung ihres Gehirn-Maschine-Interface zu steigern.

Ermutigend ist zugleich eine andere Beobachtung. Als wir diesen Artikel verfassten, lag die Implantation der Elektroden bei Aurora schon ein Jahr zurück, aber immer noch registrierten sie täglich die Aktivität von immerhin sechzig bis siebzig Nervenzellen. Selbst bei einem Primaten mit einem gefurchten Gehirn können also unsere Mikrodrähte-Arrays über eine lange Zeit qualitativ hochwertige Mehrkanal-Signale liefern. Obwohl es nicht mehr die 92 Neuronen wie anfangs sind, bleibt Auroras Leistung mit dem Gehirn-Maschine-Interface auf dem höchsten von ihr erreichten Niveau.

Ein Abbild der Prothese im Gehirn?

Wir wollen nun die Aufgaben für Aurora weiter erschweren. Wir haben das Interface modifiziert, um ihr für neue, jetzt anlaufende Experimente eine taktile Rückkopplung zu ermöglichen. Diesmal steuert es einen in der Nähe befindlichen Roboterarm, ausgestattet mit einem Greifer, der eine Hand simuliert. Kraftmesser sollen anzeigen, wann der Greifer ein Objekt berührt, und wie viel Kraft erforderlich ist, um es festzuhalten. Die taktile Rückkopplung – ist das Objekt schwer oder leicht, glitschig oder griffig? – geschieht über eine Art Pflaster auf Auroras Haut, in das Vibratoren eingebettet sind. Veränderungen in den Vibrationsfrequenzen sollten es Aurora herauszufinden erlauben, wie stark der Roboterarm zupacken darf und muss, um zum Beispiel eine Stückchen Obst aufzuheben und es festzuhalten, wenn er es ihr herüberreicht. Dieses Experiment dürfte uns den konkretesten aller bisherigen Belege liefern, dass eine schwer gelähmte Person Grundbewegungen eines Arms wieder ausführen könnte: durch ein Hirnimplantat, das über Drähte, oder auch drahtlos, mit Signalgeneratoren in einem Arm kommuniziert.

Angenommen, bei Aurora imitieren die visuellen und künstlichen taktilen Rückmeldungen hinreichend die Informationen, die normalerweise vom eigenen Arm zum Gehirn zurückfließen. Dann könnte ein dauerhafter Dialog mit einem Gehirn-Maschine-Interface möglicherweise ihr Gehirn veranlassen, den Roboterarm gewissermaßen als weiteren Teil ihres Körpers zu verinnerlichen. Körperrepräsentationen existieren bekanntermaßen in den meisten Hirnregionen. Sie sind aber nicht starr festgelegt. Wird ein Affe beispielsweise trainiert, für eine bestimmte motorische Aufgabe immer wieder nur den Zeigefinger der rechten Hand zu benutzen, dann wird sich das »Abbild« dieses Fingers auf seiner motorischen Rinde vergrößern. Daher ist sogar denkbar, dass Nervengewebe in Auroras Gehirn sich ausschließlich darauf verlegt, die Aktionen des Roboterarms zu steuern und seine Feedbacks zu interpretieren.

Um diese Hypothese zu prüfen, wollen wir dieselben Cursor-Experimente nochmals mit Affen durchführen, nur dass ein Arm diesmal vorübergehend betäubt und somit die natürliche Rückinformation ausgeschaltet wird. Wir vermuten, dass nach einer Übergangsphase das Tier mit dem Interface ebenfalls gut zurechtkommt. Wenn sein Gehirn den Roboterarm wirklich in sein Körperschema integriert, darf man berechtigterweise erwarten, dass das Gehirn eines Querschnittgelähmten das Gleiche tun wird. Nervenzellen, die einst einer natürlichen Gliedmaße dienten, würden für eine andere Aufgabe abgestellt: die Handhabung einer künstlichen Gliedmaße.

Jeder unserer Fortschritte zeigte, wie plastisch das Gehirn ist. Dennoch wird es immer Grenzen geben. Wer zum Beispiel einen Schlaganfall erlitten hat, wird kaum die volle Kontrolle über ein Roboterglied erlangen. Der Schaden im Gehirn ist gewöhnlich zu ausgedehnt und zu tiefgreifend – er beeinträchtigt nicht nur die Hirnrinde, sondern auch das darunter liegende Kabelnetz, das die Kommunikation zwischen Hirngebieten ermöglicht. Deshalb gewinnen Schlaganfall-Patienten auch nur selten wieder die volle Kontrolle über die betroffenen Gliedmaßen, selbst wenn sie eisern üben.

Trotz viel versprechender Ergebnisse im Tierexperiment müssen wir Forscher uns sehr davor hüten, falsche Hoffnungen bei Menschen mit schweren Behinderungen zu wecken. Zahlreiche Hindernisse sind noch zu überwinden, bevor Gehirn-Maschine-Interfaces als sichere, zuverlässige und effektive therapeutische Optionen gelten dürfen. Wir müssen in klinischen Studien nachweisen, dass eine gegebene Gehirn-Maschine-Schnittstelle die Lebensqualität wesentlich verbessert, ohne das Risiko zusätzlicher neurologischer Schäden zu erhöhen.

Hundertschaften rekrutieren

Das operative Einpflanzen von Elektroden-Arrays zum Beispiel wird immer auch medizinische Bedenken aufwerfen. Wir müssen erst herausfinden, ob besonders dicht gepackte Mikrodrähte-Arrays, die derzeit entwickelt werden, langfristig funktionieren, ohne beim Menschen Gewebe zu schädigen oder Infektionen zu verursachen. Mit einer neuen Methode von Gary Lehew, Elektrotechniker an der Duke-Universität, lässt sich die Anzahl der drahtartigen Mikroelektroden auf einem leichten und einfach implantierbaren Plättchen bereits deutlich erhöhen. So können wir inzwischen mehrere Plättchen einpflanzen, von denen jedes bis zu 160 Mikroelektroden umfasst und nur fünf mal acht Millimeter misst. Es ist somit kleiner als der Nagel eines kleinen Fingers. Kürzlich haben wir einem Rhesusaffen insgesamt 704 Mikroelektroden implantiert und die Aktivität von 318 Neuronen gleichzeitig erfasst. Die Arrays verteilten sich dabei auf acht Bereiche der Hirnrinde.

Darüber hinaus müssen die Elektronik und die Batterien stark verkleinert werden. Mit Jose Carlos Principe von der Universität von Florida in Gainesville arbeiten wir derzeit an einer implantierbaren Mikroelektronik, die in ihrer Hardware die neuronale Mustererkennung vereint, die wir vorerst noch per Software bewerkstelligen. Die direkte Fessel an einen Computer entfällt. Ein solcher Mikrochip muss dann drahtlos Steuerungsdaten an die Aktuatoren des Roboters übermitteln.

Drahtlose Neurochips

Zusammen mit dem Team von Patrick D. Wolf an der Duke-Universität haben wir den ersten drahtlosen »Neurochip« gebaut und im ersten praktischen Einsatz an Aurora getestet. Zu beobachten, wie auf einem Laptop viele Meter von der Affendame entfernt Ströme neuronaler Aktivität aufflackern, war für uns höchst befriedigend; denn es handelte sich um den ersten drahtlosen Kontakt zwischen einem Primatengehirn und einem Computer.

Mehr und mehr Wissenschaftler begeistern sich für die Vision, mit Gehirn-Maschine-Interfaces Patienten zu helfen, und haben inzwischen ähnliche Ergebnisse bei Tieren erzielt. Dieses neue Feld macht also gute Fortschritte. Den besten klinischen Nutzen versprechen wir uns von ­Gehirn-Maschine-Interfaces für hunderte oder ein paar tausend Einzelneuronen, die sich über mehrere motorische Regionen der Stirn- und Scheitellappen verteilen. Viel weniger – kaum dreißig Neuronen in nur einem einzigen Rindengebiet etwa – könnte niemals von klinischem Nutzen sein, denn solchen Schnittstellen würde die Reservekapazität fehlen, um Zellverluste oder Veränderungen in der neuronalen Ansprechbarkeit aufzufangen. Das andere Extrem – nämlich Millionen von Nervenzellen mit Hilfe großflächiger Elektroden zu erfassen – würde höchstwahrscheinlich ebenso wenig funktionieren. Der Eingriff ins Gehirn wäre wohl zu stark.

Zwar gibt es auch Verfahren, die ganz ohne Eingriff auskommen, doch eignen sie sich vermutlich nur begrenzt zum gedanklichen Steuern von Prothesen. Ein Beispiel ist die Elektroenzephalografie, kurz EEG. Mit ihr lassen sich die Hirnströme von der Kopfhaut abgreifen und für eine andere Art von Gehirn-Maschine-Interface nutzen. Niels Birbaumer von der Universität Tübingen hat erfolgreich EEG-Ableitungen und ein Computer-Interface bei Patienten eingesetzt, die durch schwere neurologische Erkrankungen völlig gelähmt waren. Sie lernten, ihre EEG-Aktivität so zu verändern, dass sie damit einzelne Buchstaben auf einem Computer-Bildschirm auswählen und zu einer Botschaft zusammensetzen konnten. Die Prozedur ist zeitaufwendig, bietet aber die einzige Möglichkeit für diese Menschen, mit der Welt zu kommunizieren. EEG-Signale lassen sich jedoch nicht direkt für Bein- oder Armprothesen nutzen, da sie die durchschnittliche elektrische Aktivität großer Populationen von Neuronen abgreifen; es ist schwierig, daraus die feinen Variationen zu extrahieren, die für eine Kodierung exakter Arm- und Handbewegungen erforderlich sind.

Trotz aller verbleibenden Hindernisse haben wir reichlich Anlass zu Optimismus – auch wenn sich unsere Vision, die wir an jenem denkwürdigen Nachmittag mit Belle so lebhaft vor Augen hatten, vielleicht erst in einem Jahrzehnt verwirklicht: Zeuge zu sein, wie erstmals ein Mensch mit einer Neuroprothese umgeht, sie kraft seiner Gedanken betätigt.

Lieteraturhinweise


Kommunikation in der Kommunikationslosigkeit: Ein Gedankenübersetzungssystem für vollständig Gelähmte. Von N. Birbaumer und N. Neumann in: Wohin geht die Wissensgesellschaft? Bd. 9, S. 206, Kleine Verlag, Bielefeld 2002.

Neural Protheses for Restoration of Sensory and Motor Function. Hg. von J.K. Chapin und K.A. Moxon, CRC Press, 2001.

Real-Time Prediction of Hand Trajectory by Ensembles of Cortical Neurons in Primates. Von J. Wessberg et al. in: Nature, Bd. 408, S. 361, 2000.

Real-Time Control of Robot Arm Using Simultaneously Recorded Neurons in the Motor Cortex. Von J.K. Chapin et al. in: Nature Neurosciences, Bd. 2, S. 664, 1999.


In Kürze


- Affen steuern inzwischen erfolgreich Roboterarme, indem sie sich vorstellen, wie sie mit ihrem eigenen Arm einen Joystick bewegen. Ihr Gehirn wird dazu über ein spezielles Interface mit einem Computer verdrahtet. Selbst Ratten bewältigen ähnliche Aufgaben.
- Fortschritte bei der Entwicklung von Mikroelektroden und Algorithmen haben dieses Kunststück ermöglicht. Drahtartige Mikroelektroden, gebündelt zu so genannten Arrays, können in verschiedene motorische Teile der Hirnrinde implantiert werden. Geeignete Rechenvorschriften »übersetzen« die elektrischen Aktivitäten der Nervenzellen im Gehirn dann in Steuerbefehle für mechanische Apparate.
- Noch ist man weit davon entfernt, hoch entwickelte Gehirn-Maschine-Interfaces am Menschen zu erproben. Diese Technik könnte jedoch einmal Menschen nach Verlust eines Armes ermöglichen, ersatzweise einen Roboterarm kraft ihrer Gedanken zu steuern. Querschnittgelähmten kann sie vielleicht dazu verhelfen, gelähmte Gliedmaßen wieder kontrolliert zu bewegen.


Der Versuchsaufbau an Belles großem Tag: Tanz der Roboter


Als Belle erstmals einen mehrgelenkigen Roboterarm kraft ihrer Gedanken bewegte, geschah dies ohne ihr Wissen. Auf ihrem Kopf war eine Kappe mit vier innenliegenden Kunststoffsteckern festgeklebt. Die Verbindungen führten zu je einem so genannten Array feinster Drahtelektroden in verschiedenen motorischen Bereichen der Hirnrinde.

Belle war darauf dressiert, einen Joystick sofort zu der Seite zu lenken, auf der sie ein Licht aufleuchten sah. Die Mikroelektroden griffen elektrische Signale ab, die der eigentlichen Bewegung vorausgingen und von aktivierten Neuronen in der Hirnrinde stammten. Übermittelt wurden diese Signale per Kabel an eine »Harvey-Box«. Das nach dem Vornamen ihres Erfinders benannte elektronische Gerät erfasste, filterte und verstärkte sie und gab sie dann an einen Server in einem Nachbarraum weiter.

Die Signale, die in der Box einlaufen, lassen sich als so genannter Raster-Plot darstellen: Jede Zeile repräsentiert die Aktivität eines einzelnen Neurons während der gemessenen Zeitspanne; jeder senkrechte Zacken darin zeigt an, dass das Neuron in diesem Moment gerade »feuerte«. Oft traten ganze Salven von Nervenimpulsen auf.

Der Computer sagte die Bewegungsbahn voraus, die Belles Arm beschreiben würde, und setzte diese Information in Befehle um, welche dieselbe Bewegung in einem Roboterarm hervorrufen sollten. Anschließend schickte der Rechner diese Befehle an zwei andere Computer. Der erste stand in einem Raum gegen­über, der zweite in einem Labor tausend Kilometer entfernt. Jeder steuerte einen eigenen Roboterarm. Von Belles Entscheidung, ihren Arm in eine bestimmte Richtung zu bewegen, bis sie es tatsächlich tat, vergingen nur Bruchteile von Sekunden. Dies reichte aber unserem System, um beide Roboterarme dann synchron zum Arm des Tieres zu bewegen.


Visionäre Kraft


Eine Gehirn-Maschine-Schnittstelle könnte einmal Querschnittgelähmten zu mehr Eigenständigkeit verhelfen. Der Patient bekäme in mehrere Bereiche seiner motorischen Hirnrinde winzige Arrays drahtartiger Mikroelektroden implantiert, die mit einem Neurochip im Schädel verkabelt sind. Sobald sich diese Person einen bestimmten Bewegungsablauf ihres Armes vorstellt, zum Beispiel das Ausstrecken, um etwas Essbares von einem Tablett aufzunehmen, würde der Chip die begleitende elektrische Aktivität der Nervenzellen in eine Folge von Radio-Frequenz-Signalen umwandeln. Diese übermittelte er dann drahtlos an einen kleinen batteriebetriebenen »Huckepack«-Computer hinten am Rollstuhl.

Der Computer würde die Signale in motorische Befehle umsetzen und wiederum drahtlos an einen anderen Chip weiterleiten, der in den Arm des Patienten implantiert ist. Dieser zweite Chip soll die Nerven der benötigten Muskeln aktivieren und so den Arm in der gewünschten Weise bewegen. Alternativ könnte der Computer einen Roboterarm steuern, der am Rollstuhl montiert ist. Der Huckpack-Computer könnte zudem Motor und Lenkung des Rollstuhls steuern, sobald die Person sich vorstellt, wohin das Gefährt fahren soll. Im Falle einer Amputation könnte ein solches Huckepack-System auch eine Armprothese steuern. Patrick Wolf von der Duke-Universität in Durham hat bereits einen Prototypen eines Neurochips und eines Huckepack-Computers konstruiert.


Epileptische Anfälle stoppen


Menschen mit schwerer chronischer Epilepsie erleiden Dutzende von Anfällen pro Tag. Ihre Lebensqualität ist stark gemindert. Außerdem können die vielen Anfälle das Gehirn schädigen. Zu allem Übel sprechen diese Patienten meist nicht mehr auf die herkömmlichen Medikamente an.

Ein Gehirn-Maschine-Interface kann bei Tieren Anfälle in Schach halten. Es funktioniert in gewisser Weise wie ein Defibrillator bei Herzkammerflimmern und überwacht beständig die elektrische Aktivität des Gehirns. Taucht ein Erregungsmuster auf, das einen Anfall ankündigt, wird das Gerät aktiv. Denkbar ist, dem Gehirn oder einem peripheren Nerv einen elektrischen Reiz zu versetzen, der das aufkeimende »Gewitter« unterdrückt. Alternativ könnte ein Signal des Interface ein Medikament aus einem Speicher freisetzen.

Die Machbarkeit dieses Konzeptes bewiesen wir zusammen mit Erika E. Fanselow und Ashian P. Reid, die inzwischen an der Brown-Universität in Providence (Rhode Island) beziehungsweise an der Universität von Pennsylvania in Philadelphia tätig sind. Wir implantierten ein Gehirn-Maschine-Interface mit seinen Mikroelektroden-Arrays bei Ratten, die Pentylentetrazol erhielten. Die Substanz induziert wiederholt epileptische Anfälle.

Wenn sich ein Anfall anbahnt, beginnen Nervenzellen der Hirnrinde in hochsynchronisierten Salven zu »feuern«. Sobald das Gerät dieses Muster entdeckte, löste es eine elektrische Reizung des fünften Hirnnervs aus. Der kurze Reiz unterbrach rasch und wirkungsvoll die epileptische Aktivität, ohne den Nerv zu schädigen. Dadurch verminderte sich die Häufigkeit und Dauer der Anfälle.


Aus: Spektrum der Wissenschaft 1 / 2003, Seite 74
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
1 / 2003

Dieser Artikel ist enthalten in Spektrum der Wissenschaft 1 / 2003

Kennen Sie schon …

Spezial Archäologie - Geschichte - Kultur 2/2019

Spektrum der Wissenschaft – Spezial Archäologie - Geschichte - Kultur 2/2019: Die Anfänge der Medizin

Medizin im Mittelalter • Hildegard von Bingen: Missverstandene Ikone der Klostermedizin • Die Pest: Die überraschenden Folgen der Seuche • Sex in the city: Geschlechtsverkehr als Heilmittel

Neuroprothesen - Wenn Mensch und Maschine verschmelzen

Spektrum Kompakt – Neuroprothesen - Wenn Mensch und Maschine verschmelzen

Forscher und Ärzte testen immer mehr Anwendungen für Gehirn-Computer-Schnittstellen und Neuroimplantate - und helfen so Patienten, denen sonst kaum Behandlungen zur Verfügung stehen.

Die Hand - Präzisionswerkzeug zum Greifen und Fühlen

Spektrum Kompakt – Die Hand - Präzisionswerkzeug zum Greifen und Fühlen

Hände sind multifunktional: Schreiben, greifen, werken, berühren, formen - all das, und noch viel mehr, schaffen wir mit ihrer Hilfe. Manche Menschen machen es lieber mit links - und sie unterscheiden sich nicht nur in ihrer Händigkeit von den restlichen 90 Prozent.

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!