Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Informatik: Programm mit Köpfchen

Künstliche neuronale Netze arbeiten mit einem Mechanismus, der dem menschlichen Gehirn nicht zur Verfügung steht. Um die Geheimnisse des Lernens zu lüften, suchen Forscherinnen und Forscher nach biologisch plausiblen Alter­nativen.
Ein stilisiertes Gehirn zwischen Schaltkreisen und Nullen und Einsen.

Deep Learning ist heute aus Anwendungen künstlicher Intelligenz (KI) kaum wegzudenken: Ihm verdanken wir es, dass Siri gesprochene Befehle versteht oder Computer eigenständig Kunstwerke erschaffen. Doch das war nicht immer so. Als einige Informatiker 2007 bei einer renommierten Konferenz zu künstlicher Intelligenz einen Workshop über tiefe neuronale Netzwerke vorschlugen, lehnten die Veranstalter prompt ab. Man wollte dem ­damals belächelten Randgebiet nicht zu viel Platz einräumen.

Die Interessenten organisierten daraufhin ein inoffizielles Meeting, an dem unter anderem der kognitive Psychologe und Informatiker Geoffrey Hinton von der University of Toronto teilnahm. Er wirkte an einigen der größten Durchbrüche im Bereich tiefer neuronaler Netze mit. Seinen Vortrag begann er mit einem Scherz: »Vor etwa einem Jahr kam ich zum Abendessen nach Hause und sagte: ›Ich glaube, ich habe endlich herausgefunden, wie das Gehirn funktioniert‹ – woraufhin meine 15-jährige Tochter seufzte: ›Oh, Dad, nicht schon wieder.‹« Das Publikum lachte. Hinter der Witzelei verbarg sich jedoch ein ernst gemeintes Ziel: Er will mit Hilfe von KI das Gehirn verstehen.

Heute spielen tiefe neuronale Netze eine zentrale Rolle in der KI-Forschung. Zu einem großen Teil verdanken sie das einem bestimmten Algorithmus, genannt »Backpropaga­tion« (was übersetzt etwa »Fehlerrückführung« bedeutet). Er ermöglicht es Programmen, anhand von Beispieldaten zu lernen. Dank des Berechnungsverfahrens können Computer Bilder klassifizieren, Sprache verstehen und übersetzen, die Umgebung für selbstfahrende Autos erkennen und zahlreiche andere Aufgaben meistern.

Dass unser Gehirn Informationen nach einem ähn­lichen Muster wie der Algorithmus verarbeitet, halten Fachleute jedoch für höchst unwahrscheinlich. Yoshua Bengio, Informatiker an der Université de Montréal und einer der Organisatoren des Workshops von 2007, betont, dass das menschliche Gehirn selbst den modernsten KI-Systemen weit überlegen ist: Es verallgemeinert und lernt besser und schneller als jedes Programm. Zudem ist die Backpropagation aus einer Vielzahl von Gründen nicht mit der Anatomie und Physiologie des Gehirns kompatibel. Das gilt insbesondere für die Struktur des Kortex, in dem unsere kognitiven Fähigkeiten verortet sind.

Bengio sowie weitere IT-Experten und -Expertinnen tüfteln bereits an aus neurobiologischer Sicht plausibleren Lernmechanismen, die zumindest mit der Backpropagation mithalten können. Drei davon haben sich als sehr viel versprechend erwiesen …

Logo des Quanta Magazine

Von »Spektrum der Wissenschaft« übersetzte und bearbeitete Fassung des Artikels »Artificial Neural Nets Finally Yield Clues to How Brains Learn« aus »Quanta Magazine«, einem inhaltlich unabhängigen Magazin der Simons Foundation, die sich die Ver­breitung von Forschungsergebnissen aus Mathematik und den Naturwissenschaften zum Ziel gesetzt hat.

Kennen Sie schon …

Gehirn&Geist – 11/2021

»Gehirn&Geist« berichtet über Alzheimer - Die unterschätzte Rolle des Immunsystems. Außerdem im Heft: Partnerschaft - Was jungen Eltern hilft, Nikotin - Booster fürs Denken?. KI entdeckt das Selbst, frühe Therapie bei Psychosen, Mann sein – was das heute bedeutet.

Spektrum der Wissenschaft – 10/2021

»Spektrum der Wissenschaft« berichtet über die neue Vermessung des Weltalls, die Fragen zur kosmische Expansion klären könnte. Außerdem im Heft: Biodiversität - Artenvielfalt, Mumien aus dem Salzbergwerk, Proteinfaltung - Durchbruch dank künstlicher Intelligenz.

Spektrum der Wissenschaft – Spezial Physik - Mathematik - Technik 3/2021: Algorithmen für die Zukunft

Algorithmen für die Zukunft - Beweisführung: Mathematiker aus Silizium • Arzneimittel: Automatisiert zu neuen Medikamenten • Neuronale Netze: Der gesunde Maschinenverstand

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Lillicrap, T. P. et al.: Random synaptic feedback weights support error backpropagation for deep learning. Nature Communications 7, 2016

Millidge, B. et al.: Predictive coding approximates backpropagation along arbitrary computation graphs. ArXiv 2006.04182, 2020

Nayebi, A. et al.: Identifying learning rules from neural network observables. ArXiv 2010.11765v2, 2020

Scellier, B., Bengio, Y.: Equilibrium propagation: Bridging the gap between energy-based models and backpropagation. Frontiers in Computational Neuroscience, 2017