Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten mit Zugriffsrechten für diese Ausgabe frei zugänglich.

Informatik: Programm mit Köpfchen

Künstliche neuronale Netze arbeiten mit einem Mechanismus, der dem menschlichen Gehirn nicht zur Verfügung steht. Um die Geheimnisse des Lernens zu lüften, suchen Forscher und Forscherinnen nach biologisch plausiblen Alternativen.

Deep Learning ist heute aus Anwendungen künstlicher Intelligenz (KI) kaum wegzudenken: Ihm verdanken wir es, dass Siri gesprochene Befehle versteht oder Computer eigenständig Kunstwerke erschaffen. Doch das war nicht immer so. Als einige Informatiker 2007 bei einer renommierten Konferenz zu künstlicher Intelligenz einen Workshop über tiefe neuronale Netzwerke vorschlugen, lehnten die Veranstalter prompt ab. Man wollte dem damals belächelten Randgebiet nicht zu viel Platz einräumen.

Die Interessenten organisierten daraufhin ein inoffizielles Meeting, an dem unter anderem der kognitive Psychologe und Informatiker Geoffrey Hinton von der University of Toronto teilnahm. Er wirkte an einigen der größten Durchbrüche im Bereich tiefer neuronaler Netze mit. Seinen Vortrag begann er mit einem Scherz: »Vor etwa einem Jahr kam ich zum Abendessen nach Hause und sagte: ›Ich glaube, ich habe endlich herausgefunden, wie das Gehirn funktioniert‹ – woraufhin meine 15-jährige Tochter seufzte: ›Oh, Dad, nicht schon wieder.‹« Das Publikum lachte. Hinter der Witzelei verbarg sich jedoch ein ernst gemeintes Ziel: Er will mit Hilfe von KI das Gehirn verstehen.

Heute spielen tiefe neuronale Netze eine zentrale Rolle in der KI-Forschung. Zu einem großen Teil verdanken sie das einem bestimmten Algorithmus, genannt »Backpropagation« (was übersetzt etwa »Fehlerrückführung« bedeutet). Er ermöglicht es Programmen, anhand von Beispieldaten zu lernen. Dank des Berechnungsverfahrens können Computer Bilder klassifizieren, Sprache verstehen und übersetzen, die Umgebung für selbstfahrende Autos erkennen und zahlreiche andere Aufgaben meistern. Dass unser Gehirn Informationen nach einem ähnlichen Muster wie der Algorithmus verarbeitet, halten Fachleute jedoch für höchst unwahrscheinlich…

Kennen Sie schon …

Science not fiction - Die Welt der Technik

Spektrum Kompakt – Science not fiction - Die Welt der Technik

Ist das noch Sciencefiction oder schon Realität? Bei manchen technischen Fortschritten erleben wir gerade den Übergang. Und auch wenn Warp-Antrieb oder Städte im All noch auf sich warten lassen: Die theoretischen Grundlagen werden längst in der Wissenschaft diskutiert.

6/2021

Spektrum der Wissenschaft – 6/2021

In dieser Ausgabe widmet sich »Spektrum der Wissenschaft« dem Thema moderne Alchemie, wie Physiker Stoffe nach ihren Wünschen formen. Außerdem im Heft: Die Evolution Fleisch fressender Pflanzen, die ersten Galaxienhaufen sowie Covid-19 deckt große Defizite im Gesundheitswesen auf.

5/2021

Spektrum der Wissenschaft – 5/2021

In dieser Ausgabe widmet sich Spektrum der Wissenschaft dem Thema Darwin und Evolution. Außerdem im Heft: Reise zu dem Zwergplaneten Ceres; wie neuronale Netze helfen, unser Gehirn zu verstehen; Süßwasser: Wird unsere Lebensgrundlage knapp?

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Lillicrap, T. P. et al.: Random synaptic feedback weights support error backpropagation for deep learning. Nature Communications 7, 2016

Millidge, B. et al.: Predictive coding approximates backpropagation along arbitrary computation graphs. ArXiv 2006.04182, 2020

Nayebi, A. et al.: Identifying learning rules from neural network observables. ArXiv 2010.11765v2, 2020

Scellier, B., Bengio, Y.: Equilibrium propagation: Bridging the gap between energy-based models and backpropagation. Frontiers in Computational Neuroscience, 2017