Direkt zum Inhalt

Oktober 2005: Künstliche Netzhaut für Mensch und Roboter

Elektronikmodule nach dem Vorbild von neuronalen Verschaltungen sollen eine geschädigte Netzhaut ersetzen oder auch Robotern dienen. Größe und Energiebedarf dieser »neuromorpen Chips« nähern sich immer mehr denen natürlicher Systeme.
Ein blaues Auge aus Nullen und Einsen sieht dem Betrachter entgegen.

Rohe Rechenleistung war im Spiel, als Deep Blue im Mai 1997 den Schachweltmeister Garri Kasparow »entthronte«. Der Supercomputer von IBM vermochte bei dem New Yorker Match pro Sekunde um die 200 Millionen potenzielle Züge in Erwägung zu ziehen. Beim Menschen sind es höchstens drei.

Trotzdem stellen Computer für unser Gehirn bisher keine ernsthafte Konkurrenz dar – nicht auf Gebieten wie Sehen, Hören, Mustererkennung oder Lernen. Sie können zum Beispiel einen Menschen von Weitem nicht einfach am Gang erkennen. Ganz schlecht schneiden sie bei einem Effizienzvergleich ab. Ein typischer Supercomputer füllt ein Zimmer. Er wiegt tausendmal so viel wie das menschliche Gehirn und verbraucht millionenfach mehr Energie.

Zugegeben, die einzelnen Hirnzellen arbeiten im Vergleich geradezu einschläfernd langsam. Von einem Neuron zum nächsten benötigt ein chemisch übermitteltes Signal relativ lange: in etwa eine tausendstel Sekunde. Wie ist es da möglich, dass unser Gehirn viele Aufgaben dennoch schneller und effizienter ausführt als die leistungsfähigsten Digitalrechner? Offenbar bringt es das über seine Organisation zu Stande.

40 Jahre Spektrum der Wissenschaft | Feiern Sie mit uns die besten Artikel aus vier Jahrzehnten!

Wenn im Gehirn eine Synapse aktiviert wird (eine Kontaktstelle zur Signalübermittlung zwischen Neuronen), entspricht das ungefähr der Ausführung einer elementaren Instruktion im Computer – nur dass im Computer der Anstoß zu solcher Aktivität von einem Programm kommt. Hier zeigt sich ein immenser Unterschied zum Rechner: Das Gehirn schafft pro Sekunde 1016 Synapsenaktivierungen (10 Billiarden). Für die gleiche Leistung bräuchte man eine Million Pentium-Computer – und einige hundert Megawatt Strom.

Eine kleine Fraktion von Ingenieuren aus verschiedenen Ländern versucht die überlegene Organisation und Funktionsweise von neuronalen Systemen zu kopieren, besser gesagt technisch nachzuempfinden. Wir nennen das Umsetzen der Naturprinzipien in die technische Gestalt »Morphing« (abweichend vom deutschen Sprachgebrauch): Die Muster neuronaler Verbindungen morphen wir zu Siliziumschaltkreisen, das heißt, wir erstellen neuromorphe Mikrochips. Zu den Zielen dieser Forschung gehört die ins Auge implantierbare Kunstnetzhaut für Blinde auf Basis solcher Chips, die dreißig Jahre lang mit einer einzigen 9-Volt-Batterie funktionieren würde, ebenso wie der Schallprozessor für Gehörlose auf ähnlicher Grundlage. Desgleichen könnten sich preisgünstige und zugleich hocheffiziente neuromorphe Chips eignen, um Roboter oder sonstige intelligente Maschinen mit visuellen, auditorischen und Geruchserkennungssystemen auszustatten.

In meinem Team an der Universität von Pennsylvania in Philadelphia stand zunächst die Netzhaut im Mittelpunkt, schon deswegen, weil Aufbau und Funktionsprinzip der natürlichen Struktur recht gut untersucht und verstanden sind. Inzwischen beschäftigen wir uns auch mit ihrer Beziehung zu anderen Abschnitten – höheren Verrechnungsebenen – des visuellen Systems. Insbesondere möchten wir verstehen und nachbilden, wie sich die natürlichen Verschaltungen auf den Ebenen des Sehsystems ausformen, also nach welchen Kriterien das Gehirn sie in der individuellen Entwicklung herstellt. Die Nachbildung dieser Prozesse nennen wir Metamorphing.

Die etwa einen halben Millimeter starke natürliche Netzhaut – die Retina – stellt im Prinzip eine Gehirnausstülpung dar. Mit mehreren spezialisierten Zellschichten – eine davon die Sehzellen – bildet sie die innerste Auskleidung des hinteren Augapfels. Die Zellen der Netzhaut bearbeiten die auftreffenden Bilder bereits vor, das heißt sie entlasten das Gehirn, indem sie schon elementare Informationen gewinnen, die dann über den Sehnerv ins Gehirn geschickt werden. Bei dieser Vorverarbeitung leistet jede Zellschicht ihren besonderen Beitrag.

Die äußerste – tatsächlich der Wand des Augapfels zugekehrte – Schicht der Netzhaut sind die Sehzellen oder Fotorezeptoren. Die innerste Schicht besteht aus den retinalen Ganglienzellen, deren lange Ausläufer, die so genannten Axone, den Sehnerv bilden. Die fast eine Million Ganglienzellen der Netzhaut kommen in verschiedenen Typen vor. Ihnen fällt die Aufgabe zu, die vorverarbeiteten visuellen Signale aufzunehmen und ans Gehirn weiterzugeben. Sie erfassen Gruppen von jeweils einer Hand voll bis zu mehreren Hundert Sehzellen. Jede Gruppe an Sehzellen ist dabei für einen kleinen Ausschnitt des Gesichtsfelds zuständig.

Wann immer sich ein Reizmerkmal – etwa die Helligkeit – in einem Sektor verändert, melden die Ganglienzellen das dem Gehirn über den Sehnerv vermittels Pulsen elektrischer Aktivität. Dabei »feuert«, wie es im Laborjargon heißt, jede Zelle proportional zur relativen zeitlichen oder räumlichen Veränderung der Lichtintensität – aber nicht etwa im Verhältnis zur absoluten Reizstärke! Vielmehr nimmt die neuronale Empfindlichkeit mit zunehmender Lichtintensität deutlich ab. Denn unser Auge muss im hellen Mittagslicht ebenso zuverlässig funktionieren wie in der Dämmerung. Die Himmelshelligkeit ändert sich dazwischen um das Zehntausendfache.

Als Ersten gelang es der Biologin Misha A. Mahowald und dem Mikroelek troniker Carver Mead am California Institute of Technology in Pasadena, die ersten drei Zellschichten der Netzhaut (von den Sehzellen an gezählt) elektronisch nachzubilden. Andere Wissenschaftler vermochten dann weitere Abschnitte des visuellen Systems beziehungsweise Teile des Hörsystems zu morphen. Nicht wenige von ihnen, ich inbegriffen, hatten in Meads Labor Erfahrung gesammelt.

Im Jahr 2001 gelang es meinem Doktoranden Kareem Zaghloul, alle fünf Schichten der Netzhaut in einem Chip abzuformen. Das ermöglichte, die Signale zu simulieren, die der Sehnerv verschickt. Zaghlouls Chip namens »Visio1« erzeugt Antworten der vier Haupttypen der retinalen Ganglienzellen, deren Ausläufer 90 Prozent des Sehnervs bilden.

Der Natur nachgemacht: winziges Signal – großer Effekt

In dem Chip entspricht der elektrischen Aktivität eines jeden Neurons eine einzelne elektrische Spannung. Durch Spannungsunterschiede fließt Strom zwischen verschiedenen Punkten des Schaltkreises und wird unterwegs durch Transistoren beeinflusst. Dies entspricht der Modulation eines Nervensignals an Synapsen. Licht, das auf einen Fotosensor trifft, verändert an dieser Stelle des Schaltkreises die Spannung, ebenso wie sich die neuronale Aktivität einer Sehzelle durch Lichteinfall verändert. Um das Verhalten aller fünf Netzhautschichten zu reproduzieren, setzte Zaghloul zahlreiche Exemplare dieses Schaltkreises nebeneinander.

Eine retinale Ganglienzelle macht – wie jede Nervenzelle – aus einem kleinen Eingangsein großes Ausgangssignal, das charakteristische »Aktionspotenzial«, dadurch, dass sie der Energie des Eingangssignals ein Vielfaches an gespeicherter Energie hinzufügt. Diesen Verstärkungseffekt erzielt Zaghloul, indem er das Ausgangssignal eines Transistors wieder auf diesen selbst zurücklenkt. Dadurch steigt die Spannung am Transistor sehr rasch bis auf einen Maximalwert, was dann in einem kurzen, heftigen Spannungsimpuls resultiert.

Visio1 benötigt nur 60 Milliwatt, das Tausendstel eines PC. Der Chip könnte somit tatsächlich den Weg für eine komplette Inneraugenprothese mitsamt Kamera, Prozessor und Stimulator ebnen. Verschiedene Forschergruppen arbeiten an künstlichen Implantaten, die denjenigen Erblindeten eines Tages wieder zum Sehen verhelfen könnten, bei denen die Sehzellen geschädigt, die retinalen Ganglienzellen und der Sehnerv aber intakt geblieben sind. Bei Prothesen, wie sie derzeit unter anderem an der University of Southern California in Los Angeles entwickelt werden, benötigt der Patient noch eine Brille mit einer Kamera und einen kleinen tragbaren Computer. Implantierte Mikroelektroden stimulieren die retinalen Ganglienzellen. Der Patient sieht verteilte Leuchtpunkte, und auch das nur in einem so kleinen Ausschnitt des normalen Gesichtsfelds (weniger als 10 mal 10 Bildpunkte), dass er stets den Kopf bewegen und so die Welt Stück für Stück abfahren muss, um den Tunnelblick etwas zu weiten.

Betroffene hätten es bequemer, wäre das Auge selbst wieder die Kamera. Der Chip Visio1 mit seinen 3600 Ganglienzell-Ausgängen sollte ein fast normales Sehen ermöglichen. Bevor eine Prothese für naturnahes Sehen Wirklichkeit wird, ist allerdings die biologische Verträglichkeit der Hüllmaterialien und Reizschnittstellen noch zu verbessern. Das visieren die Experten etwa für das Jahr 2010 an. Ebenso herrscht weiterer Klärungsbedarf bezüglich der Rolle der einzelnen Zelltypen der Netzhaut, ihrer speziellen Reaktionen und ihres Beitrags zur visuellen Empfindung. Vorher schon könnten die neuromorphen Netzhautchips als Sensoren etwa für Roboter, Überwachungsund andere Automationssysteme Verwendung finden.

Im Vergleich zu anderen elektronischen Sehhilfen bringt unser neuromorpher Netzhautchip so viel Energieeinsparung, dass mich nun interessierte, wie das Gehirn wohl seine hohe Effizienz erzielt. Mead hatte schon zwei Jahrzehnte zuvor offenbar zu Recht vorhergesagt, dass gewöhnliche Computer trotz der enormen Fortschritte niemals so effektiv arbeiten würden wie das Gehirn. Doch ließe sich dieses Ziel irgendwie anders erreichen? Die Lösung kam mir vor acht Jahren in den Sinn.

Bei der Hardware angesetzt

Ich machte mir klar, dass die Effizienz davon abhängt, wie gut bereits die Hardware – also praktisch die Bauteile – zur Aufgabe passt, das heißt dafür maßgeschneidert ist. Bei normalen Computern ist eine nachträgliche Feinjustierung der Hardware nicht möglich. Dafür verwendet man stattdessen die Software, die aufgespielten Programme. Die heutigen Rechner bieten einige wenige Allzweckbauteile. Die Software gibt dann lediglich vor, in welcher Reihenfolge diese Werkzeuge benutzt werden sollen.

Das Gehirn – und auch neuromorphe Chips – funktionieren anders. Bei ihnen passt sich die Hardware an die Aufgabe an. Das bedeutet, das Werkzeug selbst verändert sich gemäß den Anforderungen: Die Programmierung erfolgt auf der Ebene der einzelnen Verbindungen zwischen den Bausteinen. Nur – wie macht das Gehirn das? Wie richtet es individuelle Kontakte zwischen Nervenzellen ein?

Könnten wir den Mechanismus, den die Neuronen benutzen, in Siliziumstrukturen umsetzen – wir sagen dazu »metamorphen« –, bekämen wir neuromorphe Chips, die sich nach dem gleichen Prinzip selbst modifizieren würden. Dann müssten wir die Gehirnschaltkreise nicht mehr mühsam detailgenau nachbauen. Ich begann nachzuforschen, was man diesbezüglich über die neuronalen Entwicklungsprozesse weiß. Hiervon versprach ich mir Aufschluss darüber, wie der Organismus sein Rüstzeug, seine Hardware, passgenau herstellt – sprich, wie das Gehirn eben die Verbindungen aufbaut, die es benötigt.

Es verschlägt einem den Atem, wenn man bedenkt, wie das Neuronennetzwerk eines menschlichen Gehirns mit seinen grob geschätzt 1012 Nervenzellen und 1016 Synapsen wohl entsteht. Zwar weist die menschliche DNA das Äquivalent an Information von einer Milliarde (109) Bits auf. Jedoch würde das keinesfalls ausreichen, um Position und Kontakte so vieler Neuronen im Detail zu kodieren. Mag die genetische Information die frühen Entwicklungsschritte noch weit gehend lenken, so dominieren später andere Einflüsse: nämlich solche von Interaktionen der Neuronen untereinander und von Eindrücken der Außenwelt. So genannte sensorische Neuronen – die Sinneseindrücke verarbeiten – verdrahten sich in Reaktion auf den sensorischen Input. Als grobe Faustregel kann dabei gelten: Nervenzellen, die zugleich feuern, verdrahten sich. Das bedeutet, dass ein Neuron von allen ankommenden Signalen diejenigen akzeptiert, die es regelmäßig dann erhält, wenn es selbst auch gerade aktiv ist – die also von zeitgleich aktiven Zellen stammen. Der große Rest der eintreffenden Signale wird ignoriert.

Wie verdrahten sich dann verschiedene neuronale Ebenen, etwa im Sehsystem die Axone des Sehnervs, weiter im Gehirn? Am Froschgehirn haben Neurowissenschaftler eingehend untersucht, was mit der Information von der Netzhaut weiter geschieht. Bei diesen Tieren bildet das Tectum opticum im Mittelhirn eine der Endstationen des Sehnervs und eine wichtige Verarbeitungsstation der visuellen Information. Die im Auge verrechneten Netzhautbilder werden auf das Tectum topografisch projiziert: Die Information benachbarter Punkte auf der Netzhaut erscheint auch auf dieser Station nahe beieinander.

Wie sich herausstellte, erfolgt die Verknüpfung in zwei Schritten. Ein neu entstandenes Neuron (also auch eine zukünftige retinale Ganglienzelle) bildet viele Ausläufer, wovon sich der längste zum Sendedraht – dem Axon – entwickelt. Die anderen werden zu Empfangsleitungen – den oft baumartig verzweigten Dendriten. (Die retinalen Ganglienzellen empfangen über ihre Dendriten Signale von anderen Netzhautneuronen.) Das Axon streckt sich immer länger, geleitet von einem so genannten Wachstumskegel an seiner Spitze, der sich amöbenartig weiter und weiter schiebt. Diese Struktur erkennt chemische Konzentrationsgefälle, die den Ausläufer gewissermaßen zur richtigen Straße der Stadt aus Tectumzellen geleiten.

Auf einer Duftspur zum gemeinsamen Ziel

Das richtige Haus – die passende Zelle im Mittelhirn, zu der auch die Ausläufer der retinalen Nachbarn Kontakt aufnehmen – findet das Axon in einem zweiten Schritt. Ganz genau verstehen die Forscher diesen Prozess noch nicht. Sie wissen aber, dass benachbarte retinale Ganglienzellen dazu neigen, gleichzeitig zu feuern. Ich überlegte, ob die Axone einer benachbarten Gruppe von retinalen Ganglienzellen auf Duftspuren ansprechen, die von denselben zu dem Zeitpunkt gerade aktiven Tectumneuronen freigesetzt werden. Die Axone benachbarter Ganglienzellen würden sich demnach an derselben chemischen Duftspur orientieren. Wenn ein solches Axon dann bis zu dem Dendritenbaum vorgestoßen ist, der die Spur gelegt hat, stellt es den Kontakt her – denn Ganglien- und Tectumzelle sind ja gleichzeitig erregt.

Nach diesem Modell entwickelte mein Doktorand Brian Taba 2001 einen Chip, »Neurotrope1« genannt, der diesen Prozess im Tectum simuliert und mit Zaghlouls Netzhautchip verknüpft wird. Dabei machte er aus der Not einer technischen Beschränkung eine Tugend: Visio1 enthält zwar 3600 »Ganglienzellen«, aber weitaus weniger elektrische Ausgänge. Es gibt also nicht zu jeder Ganglienzelle einen eigenen Draht; vielmehr gibt Visio1 jedes Mal, wenn eine Ganglienzelle feuert, deren Nummer (»Adresse«) in Form von 13 Bits aus. Der Empfängerchip Neurotrope1 dekodiert die Adresse und erzeugt an der richtigen Stelle im Siliziummosaik wieder einen Impuls. Mit diesem Trick erhalten wir zwischen den korrespondierenden Koordinaten beider Chips ein Bündel virtueller Axone – einen künstlichen Sehnerv. Indem Taba zwischen Sender und Empfänger eine Art »Adressbuch« schaltet, das zu jeder vom Sender eingehenden eine – nicht notwendig identische – Ausgangsadresse liefert, kann er de facto jede Faser seines künstlichen Sehnervs an einen anderen Ort umlenken.

Die Umverdrahtung, die im natürlichen Vorbild durch chemische Gradienten gesteuert wird, realisiert Taba durch Schaltkreise, die auf elektrische Gradienten ansprechen und zwischen den im Bienenwabenmuster angeordneten Neuronen des künstlichen Tectums sitzen. Die Siliziumneuronen laden, wenn sie aktiv sind, ihre Gitterumgebung elektrisch auf. Wie in einem Transistor diffundiert die Ladung dann durch das künstliche neuronale Gewebe. Der Vorgang simuliert, dass die Tectumzellen Signalstoffe zur Orientierung des Axonwachstums abgeben. Die simulierten Wachstumskegel registrieren die Gradienten der simulierten Signalstoffe und führen ihre virtuellen Axone gradientenaufwärts, der Ladungsquelle entgegen. Eine virtuelle Verdrahtung erfolgt, wenn Ladungsabgabe und Gradientendetektion gleichzeitig stattfinden – das entspricht einer gleichzeitigen Aktivierung von Axon und Zielneuron.

Würden sich unter diesen Voraussetzungen die Enden der virtuellen Axone in einer gewissen Ordnung sortieren – ähnlich wie bei der natürlichen Projektion von Netzhautbereichen auf das Tectum, wobei die Axone benachbarter Zellen nah beieinander enden? Taba begann mit einer Zufallsverdrahtung zwischen Visio1 und Neurotrope1. Dann reizte er jeweils kleine Bereiche der Kunstnetzhaut, und zwar abwechselnd immer wieder einen anderen Flecken – insgesamt mehrere tausend Gebiete. Das brachte benachbarte Gruppen von »Ganglienzellen« dazu, gleichzeitig zu feuern.

Tatsächlich veränderte die fleckweise Aktivierung die virtuelle Verdrahtung mit dem anderen Chip dramatisch. Die virtuellen Axone benachbarter »Zellen« von Visio1 endeten auf Neurotrope1 nun doppelt so nah beieinander wie vorher, mit leichten Variationen durch die Zufälligkeit des »Lernprozesses«. Allerdings lagen die virtuellen Kontakte nicht unmittelbar beieinander wie im natürlichen Vorbild. Warum macht es das Gehirn so viel besser?

Um weiterzukommen, wandten wir uns nun der Hirnrinde, dem Cortex, zu. Bei Säugetieren hat das Tectum für die Sinne nur noch eine eher untergeordnete Bedeutung. Vielmehr gelangt der Großteil der visuellen Information von der Netzhaut über eine Schaltstation im alamus zur Sehrinde im Hinterkopf. Auch dort finden sich Informationen aus benachbarten Netzhautbereichen desselben Auges nebeneinander. Solche topografischen Karten legt die Hirnrinde in der frühen Kindheit an. Die Informationen aus dem Auge treffen in der so genannten primären Sehrinde ein, der Area V1 (auch Area 17 oder Area striata genannt) – und dort in der Schicht 4. Gründlicher erforscht als dieses Gebiet ist keine Landkarte der knapp drei Millimeter dicken Hirnrinde.

In der primären Sehrinde herrscht hinsichtlich der eintreffenden Signale eine ausgeklügelte Aufgabenteilung. In der Rindenschicht, die solche Eingänge erhält, spezialisieren sich die Zellen jeweils auf bestimmte Merkmale eines Objekts, das vor dem Auge erscheint. In dieser Weise werden nicht nur dessen Breite oder Länge einzeln erfasst, sondern auch die Ausrichtung der Kanten wird abgebildet. Jede der betreffenden Zellen reagiert bei einem bestimmten Winkel: die eine etwa auf eine waagrechte Objektkante, eine andere auf eine senkrechte, wieder andere auf eine Neigung von beispielsweise 45 Grad und so weiter in vielen Nuancen. Ungefähr alle Millimeter wiederholen sich Zellen für dieselbe Orientierungsrichtung, sodass sie das gesamte Bild einfangen.

Für die Entdeckung dieser Karte in der primären Sehrinde, die ihnen in den 1960er Jahren an der Harvard-Universität in Cambridge (Massachusetts) gelang, erhielten David H. Hubel und Torsten N. Wiesel 1981 den Nobelpreis für Physiologie oder Medizin. Anhand der Befunde entwarfen die beiden Neurophysiologen ein Verdrahtungsschema für einen künstlichen visuellen Cortex von geradezu abschreckender Komplexität. Es verdeutlicht aber, wie es gelingen könnte, die Wahrnehmung einer gerade oder schräg orientierten Kante durch Zellen der Sehrinde zu ermöglichen.

In dem Modell von Hubel und Wiesel ist jede »Rindenzelle« mit zwei Zellsorten vom alamus verdrahtet (der Zwischenstation, welche die Sehnervimpulse auffängt). Die eine dieser beiden Zellgruppen im Thalamus spricht an, gibt also ein Signal an die Rinde weiter, wenn den entsprechenden Netzhautbereich ein dunkler Fleck trifft. Die andere Gruppe reagiert auf Helligkeit. (Übertragen auf unseren Visio1-Chip – der in dem Fall die Rolle des Thalamus übernimmt – entspricht die Reaktion auf Dunkelheit dem Verhalten von dessen »Aus«-Zellen, die Reaktion auf Helligkeit dem der »An«-Zellen.) Die räumliche Anordnung beider Zellfraktionen zueinander im alamus entscheidet darüber, auf was genau die einzelnen Zellen der Hirnrinde »achten«. Damit eine Rindenzelle zum Beispiel eine senkrecht orientierte Kante erkennt, müssen beide Sorten auf der Projektionskarte im alamus in senkrechten Reihen angeordnet sein, allerdings leicht gegeneinader versetzt, zum Beispiel die Aus-Zellen immer links von den An-Zellen. Eine an genau der richtigen Stelle senkrecht im Blickfeld liegende Objektkante (ein SchwarzWeiß-Übergang) aktiviert alle Auswie auch alle An-Zellen. Dagegen erregt eine waagrechte Kante nur je die Hälfte beider alamus-Zellgruppen. Bei einer senkrechten Kante erhält also diese Rindenzelle doppelt so viel Input und reagiert entsprechend lebhafter.

Spontane Fleckenmuster nach Turing

Zunächst entmutigte uns die Detailflut dieses Modells. Um es umzusetzen, hätten wir jede einzelne »Zelle« der imitierten Hirnrinde gemäß der von ihr bevorzugten Orientierung verdrahten müssen. Dann müsste man, um die natürlicherweise fließenden Übergänge der Winkelpräferenz von Zelle zu Zelle zu imitieren, das Verschaltungsmuster systematisch langsam von einer Zelle zur anderen ein wenig verschieben, sodass Nachbarzellen in der Hirnrinde sich ähnlich, aber nicht völlig gleich verhielten. Auch müssten sich sämtliche Orientierungen wie in der echten Hirnrinde jeweils nach einem Millimeter wiederholen, und zwar so, dass aneinander grenzende Orientierungsstreifen der Hirnrinde von benachbarten Streifen der Netzhaut stammen. Tabas Simulation eines Wachstumskegels leistete diese komplexe Anordnung jedenfalls nicht mehr.

Ende des Jahres 2002 entschlossen wir uns, den Kampf mit diesem Modell aufzugeben und uns nach einem neuen Ansatz umzusehen. Auf den brachte uns schließlich ein fünfzig Jahre altes Experiment. Der Mathematiker und geistige Vater des Computers Alan M. Turing hatte Anfang der 1950er Jahre ein Modell entwickelt, nach dem sich aus verrauschten Vorgaben spontan geordnete Muster entwickeln können – ähnlich den Flecken eines Leoparden oder der Fellzeichnung einer Kuh. Unsere Hoffnung war, auf ähnliche Art fleckenweise sortierte Zellen zu erhalten.

Als Turing seine Idee an der Universität Manchester auf einem der ersten elektronischen Computer testete, ließ er die »Hautzellen« zufallsverteilt sowohl »schwarze Pigmente« als auch »Bleiche« ausschütten. Beide Stoffe diffundierten in die Nachbarzellen und beeinflussten nicht nur deren Farbe, sondern auch deren Ausschüttungsverhalten. Winzige Unterschiede der Zellen bei der Produktion von Farbe oder Bleiche – quasi geringe Abweichungen der Genexpression beider Stoffe – entwickelten sich zu Tupfen, Sprenkeln und selbst Streifen, schließlich daraus dann zu großen hellen und dunklen Bereichen. Würde das Prinzip auch bei simulierten kortikalen Landkarten funktionieren?

Das wiesen Misha Tsodyks und seine Kollegen vom Weizmann Institute of Science in Rehovot (Israel) vor vier Jahren mit einer Softwaresimulation nach. Mein Doktorand Paul Merolla machte sich daran, den Selbstorganisationsprozess auch in Siliziumbausteinen zu morphen. Halbleiter von Transistoren werden absichtlich mit Fremdatomen versetzt – dotiert –, um Zonen verschiedener Leitfähigkeit zu erzeugen. Dadurch variieren die Rechenelemente geringfügig entsprechend den natürlichen Zellen, die trotz identischer Genausstattung geringfügig verschiedene Mengen an Proteinen produzieren.

Simulierte Karten der Hirnrinde

So baute Merolla ein Siliziumneuron, von dem er viele Versionen zusammenfügte. Um die Diffusion von Pigment und Bleichmittel nachzuahmen, sind in dem Mosaik Nachbarneuronen nach dem Vorbild echter Zellen durch erregende und hemmende Kontakte verbunden. 2003 brachten wir die neuen Chips zum Laufen – und erhielten tatsächlich Aktivitätsflecken, die an die Musterung eines Leoparden erinnern. Je nachdem welche Kantenorientierung wir für ein simuliertes Objekt eingaben, meldeten sich andere Zellgruppen. Mit unterschiedlichen Farben für die einzelnen Gruppen erzielten wir Bilder mit orientierungsspezifischen Flächen, die zu unserer Freude den Karten von der primären Sehrinde sehr junger Frettchen ähneln.

In der primären Sehrinde stellt die Landkartenebene, in der die Information vom alamus eingeht, nur eine – die vierte – von sechs Schichten dar. Da es gelungen war, die fünf Schichten der Netzhaut in dem Chip Visio1 zu morphen, möchten wir das irgendwann auch für die sechsschichtige Hirnrinde versuchen. In einem ersten Schritt haben wir die Schicht 4 grob als orientierungsspezifische Karte nachgebaut. Da die Rinde trotz nicht einmal 3 Millimeter Dicke immerhin etwa fünfmal mächtiger ist als die Netzhaut, würden wir pro Fläche wesentlich mehr integrierte Schaltkreise benötigen.

Zwar steigt auch die Leistung von Computern üblicher Machart rapide. Chiphersteller zwängen heute schon eine Million Transistoren und zehn Meter Verbindungsdraht auf einen Quadratmillimeter. Das ist bereits ein Hundertstel dessen, was die Hirnrinde in einem Kubikmillimeter enthält (100 Millionen Synapsen und drei Kilometer Axone), und die Computertechnik schreitet rasant voran: In fünf Jahren sollte der Vorsprung des Gehirns auf den Faktor 10 zusammengeschmolzen sein. Was brächte das aber für die Simulation der Hirnrinde? Bei Standardmethoden würden, um eine Milliarde Transistoren pro Quadratzentimeter zu designen, Tausende von Ingenieuren benötigt.

Schon wenn man die Effizienzsteigerung vergleicht, ist die Natur um Dimensionen überlegen. Es mag viele beeindrucken, dass die Firma Intel 10.000mal so viele Transistoren wie zuvor mit nur der hundertfachen Anzahl an Fachleuten zu verdrahten wusste. Aber der Mensch besitzt lediglich doppelt so viele Gene wie die Fliege, jedoch zehn Millionen Mal so viele Neuronen. Der Komplexitätssprung gelang der Natur mit ausgefeilteren Entwicklungsstrategien, die nach einem an sich einfachen Prinzip wirken. Wenn wir das nachahmen und uns, statt einfach neuronale Schaltkreise zu morphen – also in Chips zu übersetzen –, die Entwicklungsprozesse im Gehirn genau ansehen und diese nachempfinden, kann die Nanoelektronik der Zukunft für den Umgang mit Komplexität nur gewinnen.

Kennen Sie schon …

Spektrum Kompakt – Neuroprothesen - Wenn Mensch und Maschine verschmelzen

Forscher und Ärzte testen immer mehr Anwendungen für Gehirn-Computer-Schnittstellen und Neuroimplantate - und helfen so Patienten, denen sonst kaum Behandlungen zur Verfügung stehen.

Spektrum der Wissenschaft – Mensch Maschine Visionen: Mensch Maschine Visionen

Künstliche Körperteile: Forscher arbeiten an fühlenden Prothesen • Verbessertes Gehirn: Wie weit können Neurochips unsere Hirnleistung steigern? • Verkörperung: So schlüpfen wir in Avatare oder Roboter

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Infos

Selbst ist das Netz. Von C. W. Eurich und S. Wil- ke in: Gehirn und Geist 3/2002, S. 90

A recurrent model of orientation maps with simp- le and complex cells. Von P. Merolla und K. Boa- hen in: Neural Information Processing Systems, Bd. 16. Von S. Thrun et al. (Hg.), MIT-Press, 2004

Optic nerve signals in a neuromorphic chip. Von K. A. Zaghloul und K. Boahen in: IEEE Transactions on Biomedical Engineering, Bd. 51, Nr. 4, S. 657, 2004

Topographic map formation by silicon growth cones. Von B. Taba und K. Boahen in: Advances in Neural Information Processing Systems, Bd. 15. Von S. Becker et al. (Hg.), MIT Press, 2003

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.