Direkt zum Inhalt

Predictive Coding: Sagt unser Gehirn die Zukunft voraus?

Mit »Predictive Coding« wollen Forscher von Grund auf neu erklären, wie unser Gehirn funktioniert: Geht es in unserem Kopf immer nur um den Blick in die Zukunft?
Wo geht es als nächstes hin?Laden...

Im Sommer 2018 stellte das Unternehmen Deep Mind, das zu Google gehört, eine neue Software vor. Diese kann anhand weniger Bilder von Objekten in einem virtuellen Raum dreidimensionale Szenen ableiten – ohne Vorgaben von Menschen. Dem Programm liegt ein System zu Grunde, das »Generative Query Network« (GQN) heißt. Damit kann die Software zum Beispiel das Layout eines einfachen Videospiels nachbilden.

Das macht GQN nicht nur für technologische Anwendungen interessant, auch Neurowissenschaftler haben ein Auge auf das System geworfen. Besonders interessiert sie der Trainingsalgorithmus, mit dem das Programm seine Aufgabe lernt. Und der funktioniert ungefähr so: Aus einem Bild einer räumlichen Szene erzeugt GQN Vorhersagen darüber, wie die Szene aus anderen Blickwinkeln aussehen würde – etwa, wo sich die Objekte befinden, wie ihre Schatten auf Oberflächen fallen und welche Bereiche aus verschiedenen Winkeln sichtbar sind. Die Unterschiede zwischen den Vorhersagen und den tatsächlichen Beobachtungen nutzt das System, um die Genauigkeit seiner künftigen Vorhersagen zu verbessern.

Danilo Rezende, Mitarbeiter des Deep-Mind-Projekts, erklärt die Vorgehensweise der Software folgendermaßen: »Der Algorithmus verändert die Parameter seines Vorhersagemodells so, dass er weniger überrascht ist, wenn er das nächste Mal auf die gleiche Situation stößt.«

Neurowissenschaftler vermuten schon seit Längerem, dass unser Gehirn auf ähnliche Weise funktioniert. Eine Vermutung, von der sich auch das GQN-Team hat inspirieren lassen. Dieser Theorie des »Predictive Coding« zufolge erzeugt das Gehirn auf allen Ebenen seiner kognitiven Prozesse Modelle, die beschreiben, was gerade auf der nächstniedrigeren Ebene vor sich geht. Diese Modelle übersetzt es in Vorhersagen darüber, was es in einer bestimmten Situation erleben wird. So liefert es die beste Erklärung für das, was geschieht: Es sorgt dafür, dass die Erfahrung Sinn ergibt.

Anschließend werden die Vorhersagen als Feedback in die sensorischen Areale des Gehirns heruntergereicht. Dort vergleicht es seine Vorhersagen mit den tatsächlichen Sinneseindrücken. Um die Ursachen für Abweichungen und Vorhersagefehler zu »erklären«, benutzt es wiederum interne Modelle. Unser internes Modell für einen Tisch könnte beispielsweise ein Ding aus Oberfläche mit vier Beinen beschreiben. Trotzdem erkennen wir einen Tisch selbst dann noch, wenn wir nur zwei Beine sehen, weil uns etwas die Sicht versperrt.

Vorhersagefehler, die so nicht erklärt werden können, leitet das Gehirn an höhere Ebenen des Netzwerks weiter – und zwar nicht als »Feedback«-, sondern als »Feedforward«-Signal. Dort werden sie mit besonderer Priorität behandelt. »Es geht dann darum, die internen Modelle so anzupassen, dass der Vorhersagefehler unterdrückt wird«, erklärt Karl Friston vom University College London. Er ist renommierter Neurowissenschaftler und einer der Pioniere der Predictive-Coding-Hypothese.

Seit gut zwei Jahrzehnten wächst die Zahl der Kognitionswissenschaftler, Philosophen und Psychologen, die im Predictive Coding ein überzeugendes Modell der Wahrnehmung sehen. Manche wagen sich sogar noch einen Schritt weiter: Ihnen liefert das Predictive Coding gar den Ansatz für eine allumfassende Theorie der Funktionsweise unseres Gehirns. Erst seit Kurzem hat die Forschung überhaupt das Handwerkszeug, um spezifische Vorhersagen der Hypothese zu testen. Mehrfach wurde sie dabei schon eindrucksvoll bestätigt. Dennoch bleibt sie umstritten – abzulesen an der aktuellen Debatte darüber, ob einige der vermeintlich richtungsweisenden Resultate überhaupt einer genaueren Überprüfung standhalten.

Hund im KaffeeLaden...
Hund im Kaffee | Hören Versuchspersonen Wörter, die nicht in den Satzzusammenhang passen, erzeugt das Gehirn einen messbaren Vorhersagefehler.

Kaffee mit Milch und Hund

»Ich nehme einen Kaffee mit Milch und ____« – ein passendes Wort wäre hier »Zucker«. Das nahmen auch die Kognitionswissenschaftler Marta Kutas und Steven Hillyard von der University of California in San Diego an. Im Jahr 1980 führten sie eine Reihe von Experimenten mit derartigen Lückensätzen durch. Dabei präsentierten sie ihren Probanden den Satz Wort für Wort auf einem Bildschirm und nahmen dabei deren Hirnaktivität auf. Mal endete der Satz mit »Zucker«, mal mit »Hund«, also: »Ich nehme einen Kaffee mit Milch und Hund.«

Wenn die Versuchsteilnehmer dem unerwarteten Wort »Hund« begegneten, beobachteten die Forscher im EEG, dass deren Gehirn stärker reagierten. Die elektrische Aktivität nahm ein bestimmtes Muster an: Etwa 400 Millisekunden nach der Entdeckung des unpassenden Worts erreichte sie einen Höchststand. Heute bezeichnet man das als den »N400-Effekt«. Unklar blieb weiterhin, wie man das Muster interpretieren könnte. Reagierte das Gehirn darauf, dass die Bedeutung des Worts im Zusammenhang des Satzes keinen Sinn ergab? Oder weil es das Wort einfach nicht erwartet hatte, also nicht den Vorhersagen entsprach?

Im Jahr 2005 veröffentlichten Kutas und ihr Team eine weitere Studie, die Letzteres nahelegt. In der Studie baten sie Probanden, folgenden englischen Satz Wort für Wort auf einem Bildschirm zu lesen: »The day was breezy so the boy went outside to fly ____« (zu Deutsch: »Der Tag war windig, also ging der Junge hinaus, um ____ steigen zu lassen.«) Weil für diese Lücke die Wörter »a kite« (»einen Drachen«) am wahrscheinlichsten erscheinen, erwarteten die Probanden, zunächst das Wort »a« (»einen«) zu lesen. Der Artikel bedeutet zwar für sich genommen nichts, sagt aber das darauf folgende Wort in gewisser Weise vorher. Sahen die Teilnehmer stattdessen das Wort »an«, das nicht zu »kite« passt, sondern eher zu »an airplane« (»ein Flugzeug«), erzeugte ihr Gehirn erneut die N400-Reaktion. Der Effekt hatte also anscheinend nichts mit der Bedeutung des Worts zu tun oder mit Schwierigkeiten, das Dargestellte zu verarbeiten, sondern mit einem Konflikt zwischen Realität und intern gebildeten Vorhersagen.

Diese Ergebnisse scheinen gut in das Gerüst des Predictive Coding zu passen. Im April 2018 berichteten Forscher jedoch im Fachblatt »eLife«, dass es mehreren Laboren nicht gelungen sei, die Studie aus Kutas Labor zu replizieren. Warum, wird unter Fachleuten noch intensiv diskutiert. Einige Wissenschaftler sind dabei sogar der Ansicht, dass die neuen Ergebnisse bei genauerer Betrachtung Kutas' Interpretation stützen könnten.

Dieses Hin und Her kennzeichnet die aktuelle Debatte um das Predictive Coding. Wer will, kann Resultate wie die von Kutas auch mit anderen Modellen erklären. Zumal noch keine Studie einen definitiven Nachweis für die Hypothese des Predictive Coding erbracht hat, denn bisher hat sich noch niemand umfassend mit den dahinterstehenden Mechanismen befasst. An der Grundannahme – das Gehirn bildet laufend Schlussfolgerungen aus seinen Sinnesdaten und gleicht sie mit der Realität ab – zweifeln heute nur noch wenige Fachleute. Was die Befürworter des Predictive Coding noch schuldig sind, ist der eindeutige Beleg dafür, dass ihre spezielle Sicht auf diese Vorgänge die richtige ist und dass sie sich auf alle Bereiche der Wahrnehmung übertragen lässt.

Bayessche Gehirne und effizientes Rechnen

Es wurde nicht immer als selbstverständlich angesehen, dass das Gehirn Vorhersagen über seine Erfahrungen macht und auswertet. Bis ins späte 20. Jahrhundert nahmen Hirnforscher an, dass das Gehirn eine Art Detektor für Muster in Sinnesdaten sei: Es registriere Sinnesreize, verarbeite sie und erzeuge ein Verhalten als Reaktion. Dabei repräsentiert die Aktivität einzelner Hirnzellen die An- oder Abwesenheit bestimmter Reize. Einige Neurone im visuellen Kortex reagieren zum Beispiel nur auf die Kanten sichtbarer Objekte, andere auf deren Orientierung, Färbung oder Schattierung.

Doch dieser Prozess erwies sich als weit komplizierter als zunächst angenommen. So ergaben spätere Experimente, dass die Neurone, die auf Linien reagieren, aufhören zu feuern, wenn das Gehirn eine immer länger werdende Linie wahrnimmt – obwohl die Linie nicht verschwindet. Außerdem kann die Detektortheorie nicht erklären, warum im Gehirn ein beträchtlicher Teil des Informationsflusses »top-down« zu verlaufen scheint, also von Arealen für komplexere Inhalte in Richtung jener, die einfachere Sinnesdaten verarbeiten.

Hier kommt das »bayessche Gehirn« ins Spiel, eine Theorie, die bis in die 1860er Jahre zurückreicht und das traditionelle Modell auf den Kopf stellt. Ihr zufolge erkennt das Gehirn nicht einfach Sinnesmuster, sondern zieht aus ihnen fortlaufend Schlüsse darüber, was in der Welt mutmaßlich zu passieren scheint. Dabei folgt es den Regeln der bayesschen Wahrscheinlichkeitsrechnung, die die Wahrscheinlichkeit eines kommenden Ereignisses auf Basis vorheriger Erfahrungen ermittelt. Statt auf Sinneseindrücke zu warten, konstruiert das Gehirn also ständig aktiv Hypothesen darüber, wie die Welt funktioniert. Es erklärt so außerdem neue Erfahrungen und füllt Lücken, wenn die Sinnesdaten unvollständig sind. Nach Meinung einiger Experten könnte man Wahrnehmung also auch als »kontrollierte Halluzination« auffassen.

So erklärt die Theorie vom bayesschen Gehirn auch, wie optische Täuschungen zu Stande kommen: Zwei Punkte, die im schnellen Wechsel auf einem Bildschirm blinken, erscheinen beispielsweise wie ein einzelner Punkt, der hin- und herspringt. Unser Gehirn beginnt unbewusst, die beiden Punkte als ein Objekt zu betrachten. Unser abstraktes Verständnis darüber, wie sich Objekte in der Welt bewegen, beeinflusst also grundlegend, wie wir Objekte wahrnehmen. Das Gehirn füllt einfach Informationslücken – in diesem Fall über die Bewegung –, auch wenn es dabei mitunter danebenliegt.

Wie das allerdings auf Ebene der neuronalen Schaltkreise funktioniert, ist weiterhin unklar. »Die Idee vom bayesschen Hirn macht eigentlich kaum Aussagen über die zu Grunde liegenden Mechanismen«, sagt Mark Sprevak, Professor für die Philosophie des Geistes an der University of Edinburgh in Schottland. Und genau hier kommt die Theorie des Predictive Coding ins Spiel. Sie liefert ein konkretes Rezept für den Bau eines bayesschen Hirns. Ein Hinweis darauf steckt im Namen: »Predictive Coding« ist von einer Technologie zur effizienten Übertragung von Telekommunikationssignalen abgeleitet. Bei Videos beispielsweise ähneln sich die Daten der aufeinanderfolgenden Einzelbilder sehr stark. Da wäre es ineffizient, die Pixel in jedem Bild einzeln zu codieren, wenn die Datei zum Verschicken komprimiert wird. Es ist sinnvoller, nur die Veränderungen der aufeinanderfolgenden Einzelbilder zu codieren und so das gesamte Video beim Empfänger wiederaufzubauen.

Gehirne mit VorhersagekraftLaden...

Im Jahr 1982 erkannten Forscher, dass sich dieses Prinzip wunderbar in der Hirnforschung nutzen lassen könnte. Es liefert nämlich eine Erklärung dafür, wie Neurone in der Netzhaut Informationen über visuelle Reize codieren und durch den Sehnerv schicken. Außerdem wusste man bereits, dass das Belohnungssystem des Gehirns auf ähnliche Weise arbeitet: Dopaminneurone codieren hier die Diskrepanz zwischen einer erwarteten und der tatsächlichen Belohnung. Solche Prognosefehler helfen Tieren, ihre Erwartungen an künftige Ereignisse anzupassen und so bessere Entscheidungen zu treffen.

Die Idee hinter dem »Predictive Coding« stammt aus der Telekommunikation

Dennoch glaubten die meisten Forscher, dass Predictive Coding nur in bestimmten Netzwerken des Gehirns implementiert ist. Ein Bild, an dem neue Methoden wie die funktionelle Magnetresonanztomografie (fMRT) zu rütteln begonnen haben.

Eine universelle Theorie

Was die Hypothese des Predictive Coding so attraktiv macht, ist ihre ungewöhnliche Erklärungskraft. »Was ich überzeugend finde, ist, wie viele Phänomene man damit unter einen Hut bringt«, sagt Andy Clark, der ebenfalls an der University of Edinburgh forscht. Der Professor für Logik und Metaphysik gilt als Experte der Theorie.

Predictive Coding begreift zum Beispiel Wahrnehmung und motorische Steuerung als zwei Seiten derselben Informationsverarbeitung. In beiden Fällen minimiert das Gehirn Vorhersagefehler, bloß auf unterschiedliche Weise. Bei der Wahrnehmung wird das interne Modell angepasst, bei der motorischen Steuerung die Außenwelt selbst. Stellen Sie sich etwa vor, dass Sie Ihre Hand heben wollen. Wenn Ihre Hand nicht bereits gehoben ist, erzeugt die wahrgenommene Diskrepanz einen großen Vorhersagefehler. Der kann leicht minimiert werden, indem Sie Ihre Hand heben.

Die bisher überzeugendsten Belege für die Predictive-Coding-Theorie haben denn auch Experimente zur Wahrnehmung und motorischen Steuerung geliefert. In einem Artikel, der im Juni 2018 im Fachmagazin »Journal of Neuroscience« veröffentlicht wurde, beschreiben die Autoren ein Experiment, bei dem sie Probanden das englische Wort »kick« auf einem Bildschirm lesen ließen. Anschließend spielten sie ihnen eine verzerrte Aufnahme des Wortes »pick« vor, die wie ein lautes Flüstern klang. Viele der Probanden hörten jedoch statt »pick« das Wort »kick«. fMRT-Scans zeigten, dass im Gehirn dabei der einleitende »k«- oder »p«-Laut am stärksten repräsentiert war – jener Laut also, der mit dem Vorhersagefehler korreliert. Hätte die Hirnaktivität nur die Wahrnehmungserfahrung wiedergegeben, hätte das stärkste Signal stattdessen auf das Wortende »ick« fallen müssen, das sowohl auf dem Bildschirm als auch in der Aufnahme vorkam.

Einige Forscher versuchen nun zu zeigen, dass Predictive Coding auch in Bereichen außerhalb der Wahrnehmung und Motorik relevant ist. Sie wollen den Vorhersagemechanismus als Grundlage aller Vorgänge im Gehirn etablieren. »Er gibt uns eine Art Baukasten, mit dem ganz unterschiedliche Verarbeitungsstrategien zusammengesetzt werden können«, erklärt Clark. Jede Hirnregion könnte so ihre jeweils eigene Art von Vorhersage produzieren.

Karl Friston und andere Forscher denken, dass dies auch für höhere kognitive Prozesse einschließlich der Aufmerksamkeit und Entscheidungsfindung gelte. Jüngste Simulationen des präfrontalen Kortex legen etwa nahe, dass das Predictive Coding eine Rolle beim Arbeitsgedächtnis und zielorientierten Verhalten spielt. Einige Wissenschaftler vermuten sogar, dass auch Emotionen auf dem Predictive Coding beruhen: Sie könnten Zustände sein, die Gehirne erzeugen, um Vorhersagefehler über interne Signale wie Körpertemperatur, Herzfrequenz oder Blutdruck zu minimieren. Bei emotionaler Aufregung etwa weiß das Gehirn sofort, dass sich all diese physiologischen Faktoren ändern. So entsteht womöglich auch das Konzept des Selbst.

Die meisten aktuellen Arbeiten zum Predictive Coding konzentrieren sich heute auf den Bereich Neuropsychiatrie und Entwicklungsstörungen. »Wenn das Gehirn eine Schlussfolgerungsmaschine ist, ein Organ der Statistik, dann wird es auch die gleichen Fehler machen wie ein Statistiker«, sagt Friston. Das bedeutet, es wird gelegentlich falsche Schlüsse ziehen, also zu viel oder zu wenig Gewicht auf Vorhersagen oder Vorhersagefehler legen.

»Was ich überzeugend finde, ist, wie viele Phänomene man damit unter einen Hut bringt«
(Andy Clark)

Auf diese Weise könnte man einige Merkmale des Autismus als die Unfähigkeit des Gehirns verstehen, Fehler in der Vorhersage sensorischer Signale auf der untersten Ebene der Verarbeitungshierarchie zu ignorieren. Die Betroffenen würden viel zu viel Gewicht auf Sinneserfahrungen legen, ein Bedürfnis nach Wiederholung und Vorhersehbarkeit erzeugen und eine besondere Empfänglichkeit für bestimmte Illusionen mit sich bringen. Bei der Schizophrenie könnte das Gegenteil der Fall sein: Legt das Gehirn den Fokus zu stark auf die eigenen Vorhersagen und nicht ausreichend auf die Sinnesdaten, kommt es zu Halluzinationen. Experten mahnen jedoch zur Vorsicht: Autismus und Schizophrenie seien viel zu kompliziert, um auf eine einzige Erklärung oder einen einzigen Mechanismus reduziert zu werden.

»Die größte Tragweite hat dabei die Erkenntnis, wie anfällig unsere mentale Funktion für Fehler ist«, sagt Philip Corlett, ein klinischer Neurowissenschaftler an der Yale School of Medicine. Zur Demonstration pflanzte sein Team gesunden Probanden falsche Überzeugungen ein und ließ sie Dinge »halluzinieren«, die sie zuvor wahrgenommen hatten. Konkret konditionierte Corletts Team die Freiwilligen darauf, einen Ton mit einem visuellen Muster zu assoziieren. Nach der Konditionierung hörten sie dann auch den Ton, selbst wenn nur das visuelle Muster präsentiert wurde: eine Illusion, die durch eine erlernte Überzeugung ausgelöst wird. Nun versuchen Corlett und seine Mitarbeiter herauszufinden, wie es funktioniert, dass sich solche Überzeugungen in der Wahrnehmung niederschlagen. »Mit den Studien haben wir einen ersten Beweis dafür geliefert, dass Wahrnehmung und Kognition nicht getrennt arbeiten«, sagt Corlett. »Neue Überzeugungen können antrainiert werden, und dann verändern sie, was man wahrnimmt.«

Ein tieferer Blick ist nötig

In den Kognitionswissenschaften ist die Theorie auch auf Grund solcher Erkenntnisse schon recht weit verbreitet. Ein echter Beweis für das Predictive Coding sind aber auch diese experimentellen Resultate nicht. »Solche Ergebnisse sind mit dem Predictive Coding zwar kompatibel«, sagt Sprevak, »sie können jedoch nicht zeigen, dass das Modell die bestmögliche Erklärung für die Daten liefert.« Dafür müsste man tiefer in die Netzwerke des Gehirns schauen.

»In der System-Neurowissenschaft ist Predictive Coding noch immer ein Nebenschauplatz«, sagt Georg Keller, Neurowissenschaftler am Friedrich-Miescher-Institut für Biomedizinische Forschung in Basel. Sein Labor versucht das zu ändern. In einer im Jahr 2017 im Fachmagazin »Neuron« veröffentlichten Studie berichten Keller und seine Kollegen, wie sie beobachteten, dass sich im Sehsystem von Mäusen Neurone entwickelten, die auf Basis neuer Erfahrungen Vorhersagen machten. Die Entdeckung ist einem technischen Missgeschick zu verdanken. Das Ziel der Forscher war, ihre Mäuse in einer Art virtueller Welt zu trainieren. Bei der 3-D-Programmierung war ihnen allerdings ein Fehler unterlaufen: Wenn sich die Tiere nach links drehten, wanderte ihr Blickfeld nach links statt nach rechts wie in der Realität.

Die Forscher machten sich dies zu Nutze. Sie nahmen die Signale der Hirnaktivität der Tiere auf, die den visuellen Fluss repräsentieren. Dabei stellten sie fest, dass sich die Signale langsam an die Regeln der verkehrten Trainingswelt anpassten, als die Tiere die neuen Regeln lernten. »Die Signale sahen aus wie Vorhersagen visueller Bewegungen nach links«, sagt Keller.

Das Argument der Forscher: Würden die Signale reine Sinnesdaten darstellen, hätten sie sich in der virtuellen Welt sofort umdrehen müssen. Würden sie motorischen Signalen entsprechen, würden sich die Tiere nie umdrehen. Beides war nicht der Fall. Stattdessen seien es Prognosen, die die Veränderungen im Sichtfeld bei einer Bewegung vorhersagen, sagt Keller. Diese Ergebnisse von Keller seien eine völlig neue Art des Nachweises, meint Clark. »Sie demonstrieren Zelle für Zelle und Schicht für Schicht, dass Predictive Coding die beste Erklärung dafür liefert, was in dem Experiment vor sich ging.«

Etwa zur gleichen Zeit berichteten Forscher um Caspar Schwiedrzik vom European Neuroscience Institute Göttingen von ähnlichen Ergebnissen in einem Teil des Makakenhirns, das mit der Gesichtserkennung im Zusammenhang steht. Frühere Studien hatten bereits gezeigt, dass Neurone in den unteren Schichten des so genannten Gesichtsnetzwerks orientierungsrelevante Merkmale von Gesichtern codieren – einige werden zum Beispiel nur bei Gesichtern im Profil aktiv, andere bei Frontalansichten. In höheren Schichten des Netzwerks repräsentieren die Neurone dagegen Gesichter auf abstraktere Weise, sie reagieren dort eher auf die Identität als auf die Ausrichtung im Raum.

In der Makakenstudie trainierten die Forscher die Affen mit Paaren von Gesichtern. Das Gesicht, das den Affen zuerst gezeigt wurde, verriet immer auch etwas über das darauf folgende. Später manipulierten sie die dabei entstandenen Erwartungen der Affen, indem sie das erwartete Gesicht entweder aus einem anderen Blickwinkel zeigten oder ein ganz anderes Gesicht verwendeten. Dabei beobachteten die Wissenschaftler Vorhersagefehler in den niedrigeren Ebenen des Netzwerks. Ihren Ursprung hatten diese Fehlersignale aber in den höheren Schichten des Netzwerks, wo die Vorhersagen über die Identität getroffen werden. Das weist darauf hin, dass die niedrigeren Ebenen Fehlersignale erzeugen, indem sie die Sinnessignale mit den Vorhersagen vergleichen, die aus höheren Schichten stammen.

»Es war spannend, dass wir nicht nur Vorhersagefehler selbst, sondern auch den spezifischen Inhalt dieser Vorhersagefehler in diesem System gefunden haben«, sagt Studienautor Schwiedrzik. Bei Versuchen an Menschen scheint sich die Hypothese des Vorhersagefehlers ebenfalls zu bestätigen. Zumindest deuten darauf noch vorläufige Ergebnisse einer Studie von Forschern um Lucia Melloni vom Max-Planck-Institut für empirische Ästhetik in Frankfurt hin.

Eine Vorhersage bitte – codiert oder verarbeitet?

Doch längst nicht alle Forscher sind der Auffassung, dass sich Predictive Coding als grundlegender Hirnmechanismus herauskristallisiert. Bei anderen sind die Zweifel noch prinzipieller. David Heeger, Professor für Psychologie an der New York University, findet es wichtig, zwischen »Predictive Coding«, einer effizienten Form von Informationsübertragung, und »Predictive Processing« zu unterscheiden. Wobei er Letzteres als das beständige Treffen von Vorhersagen über Zukünftiges auffasst. »In der Literatur herrscht darüber große Verwirrung, weil diese unterschiedlichen Konzepte oft in einen Topf geworfen werden«, sagte er. Andere bayessche Modelle könnten unter bestimmten Umständen eine genauere Beschreibung der Gehirnfunktion liefern.

Einig dagegen sind sich die meisten Experten darüber, dass die Forschung am Predictive Coding viel Potenzial für maschinelles Lernen bietet. Zwar beschäftigt sich die künstliche Intelligenz derzeit nicht sonderlich intensiv mit dem Modell. Friston aber denkt, dass eine »Deep-Learning«-Architektur, die auf Predictive Coding beruht, die Intelligenz der Maschinen noch näher an die des Menschen bringen könnte. Das eingangs erwähnte GQN von Deep Mind ist ein gutes Beispiel dafür. Ein anderes stammt von Forschern von der University of Sussex. 2018 implementierten sie das Predictive Coding in einer Kombination aus künstlicher Intelligenz und virtueller Realität. Heraus kam dabei eine »Halluzinationsmaschine«, die in der Lage war, halluzinatorische Zustände nachzuahmen, wie sie typischerweise durch psychedelische Drogen verursacht werden.

Derartige Fortschritte beim Maschinenlernen könnten auch dazu genutzt werden, neue Erkenntnisse über die Hirnfunktion zu gewinnen. Bevor es jedoch so weit ist, haben Hirnforscher noch viel zu tun. Sie müssen Methoden wie die von Keller, Schwiedrzik und anderen optimieren, wenn sie herauszufinden wollen, wo genau im Gehirn die internen Modelle sitzen. Es bleibt abzuwarten, ob weitere Experimente die Existenz des Predictive Coding auch in höheren kognitiven Prozessen belegen.

Predictive Coding »ist für die Neurowissenschaft so wichtig wie Evolution für die Biologie«, sagt Lars Muckli von der University of Glasgow, der sich intensiv mit der Theorie auseinandergesetzt hat. Bislang aber, findet Sprevak, »ist das letzte Wort noch nicht gesprochen«.

Logo Quanta MagazineLaden...

Von »Spektrum der Wissenschaft« übersetzte und redigierte Fassung des Artikels »To Make Sense of the Present, Brains May Predict the Future« aus dem »Quanta Magazine«, einem inhaltlich unabhängigen Magazin der Simons Foundation, die sich die Verbreitung von Forschungsergebnissen aus Mathematik und den Naturwissenschaften zum Ziel gesetzt hat.

17/2019

Dieser Artikel ist enthalten in Spektrum - Die Woche, 17/2019

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnervideos