Direkt zum Inhalt

Neuromorphe Rechner: Künstliches Gehirn für Smartphone und T-Shirt

Die IT-Welt sucht nach neuen Arten von Computern, um künstliche Intelligenz schneller und energiesparender zu machen. Als Vorbild dient ihnen dabei das menschliche Gehirn.
Neuromorphes ComputingLaden...

Kleiner, schneller, effizienter. In der Computerchipindustrie galt dieses Motto über Jahrzehnte fast als selbstverständlich. Doch mittlerweile hat die herkömmliche Technik Grenzen erreicht. Aus diesem Grund suchen Forscher nach Alternativen zur herkömmlichen Chiptechnologie. Besonders was die Effizienz angeht, ist Luft nach oben: Das menschliche Denkorgan beispielsweise ist den Computern deutlich überlegen. Für Alltägliches, etwa sich zu unterhalten oder ein Auto zu steuern, benötigt das Gehirn nur rund 20 Watt an Leistung – etwas mehr als eine helle LED-Leuchte. Teilweise lassen sich derartige, durchaus komplexe Leistungen mit Computern und spezieller Software nachahmen – aber nur sehr ineffizient. In der Regel braucht es dafür Großrechner mit wahnsinnig hohem Energieverbrauch. Der Akku eines Handys wäre in der Regel binnen weniger Minuten leer, wenn dieses die Sprache selbst verstehen müsste. Daher werden die Daten üblicherweise von den Endgeräten wie Smartphone oder Bordcomputer in die Cloud geladen und in Rechenzentren von Künstliche-Intelligenz-Programmen, kurz KI, verarbeitet.

Dieser wachsende Energiebedarf der Computertechnik für die Bewältigung eigentlich alltäglicher Aufgaben bereitet IT-Spezialisten Sorgen. So ist es nicht verwunderlich, dass Forscher weltweit versuchen, die Arbeitsweise des Gehirns nicht nur auf Software-, sondern auch auf Hardwareebene nachzubilden – also gewissermaßen die physische Verdrahtung, das komplexe Netzwerk aus Nervenzellen. In der Fachwelt wird dieser Ansatz als neuromorphes Computing bezeichnet.

Derartige Computer würden die vielen KI-Anwendungen viel schneller und energiesparender machen, so die Hoffnung der Forscher. Sie träumen gar von »ubiquitous intelligence«, zu Deutsch etwa »allgegenwärtige Intelligenz«, die fähig ist, selbstständig zu lernen – eben wie das Gehirn. Entsprechende Chips sollen in jeden Winkel der vernetzten Welt vordringen: in Smartphones, in Autos oder sogar in Kleidung, die dann etwa erkennt, wenn mit der Herzfrequenz des Trägers etwas nicht stimmt. Lernen und Erkennen würde direkt vor Ort passieren, der aufwändige Datenaustausch mit der Cloud würde minimiert. Ein positiver Nebeneffekt wäre, dass der Datenschutz einfacher zu gewährleisten wäre, da die Daten beim Nutzer verbleiben könnten.

Einen »Goldrausch« hätte die Idee des neuromorphen Computings ausgelöst, sagt Johannes Leugering, Neurowissenschaftler am Fraunhofer-Institut für Integrierte Schaltungen (IIS) in Erlangen. Sowohl alte Größen der Chipindustrie wie IBM oder Intel als auch ehemalige Start-ups wie »Brainchip« oder »Mystic« entwickeln Computerchips, die von der Arbeitsweise des Gehirns inspiriert sind. Darüber hinaus basteln auch Forscher an Universitäten und öffentlichen Forschungseinrichtungen an neuromorphen Computertechniken.

Neuerfindung des Computers

Das Vorhaben gleicht einer Neuerfindung des Computers, denn das Gehirn arbeitet völlig anders als ein traditioneller Siliziumchip. Letzterer speichert und verarbeitet Daten räumlich getrennt. Der ständige Datenaustausch kostet Energie und Zeit. Die kleinsten Bausteine des Hirns hingegen, die Neurone, sind Speicher und Prozessor in einem. Diese doppelte Funktion beruht zum einen auf den Synapsen, durch die die Neurone verknüpft sind und mit Hilfe derer sie elektrische Signale weiterleiten. Die Synapsen speichern Gelerntes ab, indem sie sozusagen ihre »Verstärkung« ändern. Oft gebrauchte Synapsen ändern ihre Morphologie und Physiologie dahingehend, dass sie die ankommenden elektrischen Signale verstärkt weitergeben, für selten verwendete hingegen gilt das Gegenteil. Fachleute sprechen in diesem Zusammenhang von neuronaler Plastizität. Das Lernen und Speichern beruht also auf einer nutzungsabhängigen Änderung der Anatomie und Funktion der Synapse.

Zum anderen dient das Neuron aber auch als Prozessor. Denn es sammelt von anderen Neuronen eingehende Signale, bis diese eine gewisse Gesamtstärke überschreiten. Dann sendet es selbst ein Signal, einen kurzen elektrischen Puls, den Fachleute »Spike« nennen. Wenn man so will, ist das Gehirn also faul, denn die einzelnen Prozessoren arbeiten nicht kontinuierlich, sondern nur sporadisch, nämlich wenn sie Spikes aussenden. Sonst verharren die Neuronen in Ruhe. Erst das gesamte Muster aller Impulse von rund 100 Milliarden Neuronen und 100 Billionen Synapsen, das diese in Raum und Zeit formen, bildet die Grundlage für die »Rechenleistung« des Gehirns.

Virtuelle Neurone auf Chip

Diese sporadische Arbeitsweise lässt sich bereits mit herkömmlicher Chiptechnik nachahmen. Dazu werden virtuelle Neurone programmiert, die Signalstärken so lange addieren, bis sie ein Spike aussenden. Die Kunst besteht darin, das Spike möglichst schnell zum Zielneuron zu bringen. Dazu haben sich Entwickler von der Funktionsweise des Internets inspirieren lassen: Durch das Netz reisende Datenpakete tragen die Adresse des Zielrechners mit sich. Anhand dieser lenken Spezialrechner, so genannte Router, das Paket auf möglichst schnellem Weg ans Ziel. Ähnlich geschieht es auf einem neuromorphen Chip mit virtuellen Neuronen: Das Spike trägt die Adresse des Zielneurons mit sich, die von winzigen Routern auf dem Chip erkannt wird, um es möglichst schnell zum Zielneuron zu leiten.

Die Firma Brainchip aus Kalifornien will einen solchen neuromorphen Chip noch 2020 auf den Markt bringen. Laut Website des Unternehmens soll er für die Erkennung von Gesten, Personen oder anderen Objekten nur wenige Milliwatt verbrauchen. Zum Vergleich: Ein normaler Computer benötigt 250 Watt, um 1000 verschiedene Objekte zu unterscheiden. Ein solcher Brainchip könnte zum Beispiel die Haustürklingel mit Kamera ergänzen und dort lernen, Familie und Freunde zu erkennen.

Dass solche Chips bei sehr geringem Energieverbrauch komplexere Aufgaben lösen können, hat Intel mit seinem so genannten Loihi-Chip bereits demonstriert: Die Forscher stellten die Verschaltung der Neurone des Riechapparats von Säugetieren nach. Mit nur wenigen Beispielen lernte der Chip mehrere Chemikalien zu unterscheiden: anhand von deren Signatur in Sensordaten. Wenn er einen neuen Stoff kennen lernte, vergaß er den alten nicht, was die Basis für »lebenslanges Lernen« sei, wie die Forscher um Nabil Imam in der Fachzeitschrift »Nature« schreiben. Der Chip erkannte die Stoffe sogar vor störendem Hintergrund, ähnlich wie die Nase einen bestimmten Duft in einem Gemisch vieler Gerüche isolieren kann. Für das Wiedererkennen benötigte der Chip nur etwa ein zehntel Milliwatt an elektrischer Leistung.

Neuromorpher Rechner von Intel

Im Frühjahr 2020 stellte Intel dann einen Computer vor, der aus mehreren hundert seiner »Loihi«-Chips besteht. Insgesamt waren darin mehr als 100 Millionen Neurone über fast 100 Milliarden Synapsen verschaltet. Solche neuromorphen Rechner sollen noch deutlich anspruchsvollere Aufgaben erledigen können als ein einzelner Chip. Bedarf gäbe es genug: zum Beispiel die Optimierung des Großstadtverkehrs oder etliche Simulationen in der Forschung, etwa der Astrophysik. Hier stoßen herkömmliche Computer an ihre Grenzen. Neuromorphe Rechner, die dazu verwendet werden könnten, müssten allerdings einen hohen Grad an dicht vernetzten künstlichen Neuronen und Synapsen aufweisen. Genau hier lauert aber ein Dilemma: »Je komplexer ein Neuronennetz, desto langsamer wird es«, sagt Tobias Noll vom Forschungszentrum Jülich. Dort simulieren Forscher biologische Lernprozesse in Neuronennetzwerken, um sie besser zu verstehen. Lernvorgänge in der Natur dauern oft Tage oder Wochen. Das liegt unter anderem daran, dass Signale durch biologische Nervenbahnen vergleichsweise langsam laufen. In elektronischen Leitungen geht das deutlich schneller. Die gigantische Zahl von Verbindungen im Gehirn gleicht den Nachteil jedoch aus.

Das neuromorphe »Routing à la Internet« erreichte bislang lediglich ein Rechentempo wie in natürlichen Neuronennetzen gleicher Größe. Dass da mehr geht, konnten unter anderem Wissenschaftler vom Forschungszentrum Jülich zeigen. Sie entwickelten Spezialchips, deren elektronische Verbindungen sich so verändern, dass sie die dynamische Arbeitsweise eines Neurons simulieren. Der große Vorteil ist, dass die Software für solche Chips nicht an einen starren Schaltplan angepasst werden muss, wodurch den Signalen große Umwege erspart bleiben. Solche elektronischen Netzwerke arbeiten deutlich schneller als auf gewöhnlichen Bits basierende Hardware. Die Jülicher Forscher konnten erst kürzlich mit einer solchen Herangehensweise einen Erfolg vermelden: »Wir sind mehr als viermal so schnell wie ein biologisches Netz gleicher Größe«, sagt Noll. Die Simulation in Jülich besitzt allerdings nur 80 000 Neurone und 300 Millionen Synapsen und ist damit ebenfalls weit von der Komplexität des Gehirns entfernt.

Künstliche Synapsen

Die Arbeitsweise des Gehirns und damit dessen Komplexität noch besser zu kopieren, könnte mit einem elektronischen Bauelement gelingen, das in der Praxis bislang kaum verwendet wird: dem »Memristor« – ein Kunstwort aus den beiden englischen Wörtern »memory« und »resistor«, also »Speicher« und »Widerstand«. Ein Memristor ist ein elektrischer Leiter, dessen Widerstand bei angelegter Spannung steigt oder sinkt, je nach deren Polung. Nach Abschalten der Spannung bleibt der neue Widerstandswert erhalten. Daher kann das Bauteil Daten gleichzeitig verarbeiten und speichern – und verhält sich somit ähnlich wie eine biologische Synapse. So wird der Energie und Zeit fressende Datentausch zwischen Speicher und Prozessor vermieden. Daher ließe sich mit Memristoren, so denken Forscher, die neuronale Netzwerkstruktur des Gehirns womöglich nachbauen.

Bevor man eine Vielzahl solcher einzelner künstlicher Synapsen zu einem Netzwerk verknüpfen kann, müssen sie jedoch zuverlässig funktionieren und steuerbar sein. Um das zu erreichen, versuchen Wissenschaftler auf unterschiedliche Weise das Memristor-Prinzip umzusetzen. Ein Team um Lambert Alff von der Technischen Universität Darmstadt arbeitet etwa an einer Version, die aus einer Metalloxidschicht zwischen zwei metallischen Elektroden besteht. Die Oxidschicht leitet keinen Strom. Doch ein Spannungsimpuls kann zu einem Durchschlag führen: Das Metalloxid verändert entlang eines Kanals seine chemische Struktur und wird leitfähig. Mehrere solcher Impulse können die Röhre erweitern und somit den Widerstand verringern. Der umgekehrte Prozess ist durch Umpolung möglich. Die Entwicklung dieser Art von Memristoren stecke allerdings »noch absolut in den Kinderschuhen«, räumt Materialwissenschaftler Alff ein. Bislang, so der Forscher, lasse sich der Widerstand bei den Bauteilen nur über einen schmalen Bereich hinweg steuern und verändere sich nicht gleichmäßig mit der Zahl der Spannungspulse. Daher besteht ein Ziel der Darmstädter Wissenschaftler darin, ihre Memristoren in Zukunft besser kontrollierbar zu machen.

»Wir haben eine Möglichkeit entdeckt, unterschiedlich erregbare Arten von künstlichen Synapsen zu konstruieren«
(Ilia Valov, Materialwissenschaftler am Forschungszentrum Jülich)

Ein Team um Ilia Valov vom Forschungszentrum Jülich hat derweil bereits eine Möglichkeit gefunden, ähnliche Memristoren fein zu steuern. Die Jülicher nutzten für ihre Version Siliziumdioxid als isolierende Schicht. Die Forscher verteilten Fremdatome in verschiedener Konzentration in das Material. Je mehr Fremdatome, umso langsamer ändert sich der Widerstand der Memristoren mit der Zahl der eingehenden Spannungspulse und umso stabiler bleibt der Widerstand. »Damit haben wir eine Möglichkeit entdeckt, unterschiedlich erregbare Arten von künstlichen Synapsen zu konstruieren«, erklärt Valov.

Obwohl einzelne Memristoren noch zu stark in ihren Eigenschaften variieren, um eine Massenproduktion zu ermöglichen, sind Prototypen von Memristor-Schaltungen für bestimmte Nischenanwendungen bereits in der Entwicklung: Am Fraunhofer-Institut für integrierte Schaltungen IIS in Erlangen arbeiten Forscher derzeit an Memristor-Schaltkreisen, die EKG-Signale auswerten oder bei Maschinen Wartungsbedarf erkennen sollen. Die Herangehensweise sei dabei aber ziemlich pragmatisch, wie Johannes Leugering vom IIS schildert. Die volle Komplexität des Hirns nachzuahmen, sei gar nicht das Ziel. Es gehe eher darum, fundamentale Prinzipien der Informationsverarbeitung in der Natur zu erkennen und diese technisch umzusetzen. Da sich die Wissenschaftler dabei auf Grundlegendes konzentrieren, können sie womöglich manchen Mehraufwand vermeiden, den die Natur treiben muss – etwa um die Nervenzellen mit Nahrung zu versorgen. Allerdings ist Leugering skeptisch, ob auf diese Art und Weise die Effizienz des Gehirns jemals erreicht werden kann. Gleichwohl könnten die Schaltungen gegenüber der herkömmlichen Computertechnologie immerhin einen Faktor zehn an Energie einsparen, schätzt er. Und Überraschungen schließt auch Leugering nicht aus: »Vielleicht werden vereinfachte Systeme am Ende doch effizienter sein als die Natur selbst.«

Im Frühjahr 2020 gelang es Forschern um Qiangfei Xia von der University of Massachusetts in Boston zum ersten Mal, mehrere Lagen aus zweidimensionalen Memristorschaltungen übereinanderzustapeln und die einzelnen künstlichen Synapsen in drei Dimensionen jeweils mit ihren direkten Nachbarn zu vernetzen. Dieser dreidimensionale Memristor-Schaltkreis konnte handgeschriebene Ziffern mit 98 Prozent Trefferquote erkennen. Eine solche dreidimensionale Verschaltung einzelner künstlicher Synapsen gilt als wichtiger Schritt hin zu einem neuromorphen Prozessor.

Dass dabei nicht von heute auf morgen ein funktionierendes und sinnvolles Gerät entsteht, zeigt die Geschichte der herkömmlichen Halbleiterchips. Auch hier war anfangs nicht abzusehen, ob es jemals praktische Anwendungen geben würde. Es brauchte mehrere Jahrzehnte Forschungsarbeit, bis daraus Prozessoren entstanden, die schließlich die Technikwelt revolutionierten. Vielleicht gelingt ja dem Rechner nach Art des Gehirns einmal Ähnliches.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnervideos