Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Künstliche Intelligenz: Ein Chip nach dem Vorbild des Gehirns

Um die Fähigkeiten des menschlichen Gehirns nachzuahmen, optimieren Fachleute nicht nur Software, sondern auch Hardware. Nun haben Informatiker einen analogen Computerchip hergestellt, der ähnlich wie unser Denkorgan funktioniert – und extrem energieeffizient ist.
Die beiden Gehirnhälften

Sobald es um die erstaunlichen Anwendungen moderner künstlicher Intelligenz geht – sei es im Bereich der Bilderkennung, Sprachverarbeitung, medizinischen Diagnostik oder Wettervorhersagen –, sind meist neuronale Netze am Werk. Dabei handelt es sich um Algorithmen, deren Aufbau dem visuellen Kortex in Säugetieren nachempfunden ist. Die bemerkenswerten Fähigkeiten dieser Computerprogramme haben in den letzten Jahren oft für Schlagzeilen gesorgt, etwa als eine KI 2016 erstmals den Go-Weltmeister Lee Sedol besiegte oder 2020 die Faltung von Proteinen vorhersagen konnte. Doch die Programme stehen ihrem biologischen Vorbild in einem entscheidenden Punkt nach: Im Gegensatz zu unserem hocheffizienten Denkorgan verschlingt ihre Ausführung auf Computern enorme Mengen an Strom. Aufwändige Modelle wie Übersetzungssoftware verbrauchen für ihr Training etwa fünfmal so viel Energie wie ein Auto über seine gesamte Lebensdauer.

Ein möglicher Ausweg könnte darin bestehen, das menschliche Gehirn nicht nur für die Software als Vorbild zu nehmen, sondern auch für die Hardware. Bei diesem als neuromorphes Engineering bekannten Ansatz versucht man Bauteile wie Computerchips herzustellen, die Signale ähnlich wie die Nervenzellen unseres Denkorgans verarbeiten. Anstatt also Daten wie in gewöhnlichen Rechnern über lange Wege zwischen einer zentralen Verarbeitungseinheit, dem Prozessor, und einem Speicher, der Festplatte, immer wieder hin und her zu transportieren, sind die beiden Komponenten wie in der gallertartigen Masse in unserem Schädel als neuromorphe Chips nebeneinander angeordnet: Aufeinander folgende Schichten aus Recheneinheiten, die »Neurone«, sind über Synapsen miteinander verbunden, wobei letztere als Speicher fungieren. Elektrische Signale breiten sich somit von Schicht zu Schicht durch das System aus und werden dabei verarbeitet.

Damit folgt die Hardware der Funktionsweise künstlicher neuronaler Netze, den derzeit verbreitetsten KI-Algorithmen. Bei diesen sind die Recheneinheiten allerdings virtuell – das heißt, sie simulieren ein Neuron, laufen aber auf gewöhnlichen digitalen Bauteilen. Um Biologie und Technik weiter anzunähern, übertragen Forscherinnen und Forscher das Vorbild nun auch auf die Hardware von Computern …

Von »Spektrum der Wissenschaft« übersetzte und bearbeitete Fassung des Artikels »AI Overcomes Stumbling Block on Brain-Inspired Hardware« aus »Quanta Magazine«, einem inhaltlich unabhängigen Magazin der Simons Foundation, die sich die Verbreitung von Forschungsergebnissen aus Mathematik und den Naturwissenschaften zum Ziel gesetzt hat.

Kennen Sie schon …

Spektrum - Die Woche – Der Knuddelfaktor

Oh wie süß! In dieser Woche geht es um niedliche Tierbabys und Kinder, dank derer sich nicht nur entspannen, sondern auch manipulieren lässt. Außerdem: ein neuartiges kosmisches Hintergrundrauschen und die Alltagsprobleme von Mars-Helikopter Ingenuity (€).

Spektrum Kompakt – Neuronale Kommunikation – Hirnzellen im Gespräch

Axone, Dendriten, Synapsen – diese und weitere Strukturen brauchen Neurone, um elektrische und chemische Signale weiterzuleiten und miteinander auszutauschen. Wie das funktioniert, erfahren Sie in diesem Kompakt.

Spektrum der Wissenschaft – Der Ursprung von Raum und Zeit

»Spektrum der Wissenschaft« berichtet über den Ursprung von Raum und Zeit, den kleinsten Bausteinen einer Quantengravitation. Außerdem im Heft: Kadaverökologie, Alternativen zum Periodensystem sowie Photonik - Vorbild Natur.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

McCallum, A. et al.: Energy and Policy Considerations for Deep Learning in NLP. ArXiv: 1906.02243, 2019

Zenke, F. et al.: Surrogate Gradient Learning in Spiking Neural Networks. ArXiv: 1901.09948, 2019

Zenke, F. et al.: Surrogate gradients for analog neuromorphic computing. PNAS 119, 2022