Direkt zum Inhalt

Hirnforschung: Wie Forscher den Gefühlskode knacken

Ich sehe, was du fühlst – dieser Utopie nähern sich Forscher langsam an. An den Mustern der Hirnaktivität können sie jetzt universelle menschliche Emotionen ablesen.
Hirnaktivität vor einer Matrix

Auf dieses Treffen haben Sie sich lange vorbereitet. Sie möchten einen guten Eindruck hinterlassen, Sie lächeln leicht, Ihre Miene ist unbeweglich, Ihr Auftreten sicher. Aufrecht sitzen Sie auf Ihrem Stuhl, sprechen mit ruhiger Stimme. Kurz: Nach außen machen Sie einen völlig gelassenen Eindruck. Aber wenn die anderen wüssten, wie aufgeregt Sie sind! Sie freuen sich über die Gelegenheit, Ihre Arbeitsergebnisse zu präsentieren. Die Verspätung eines Kollegen kostet Sie Nerven, Ihr Chef verhält sich gerade überraschend anders als erwartet. Aber das alles spielt sich für andere unbemerkt in Ihrem Inneren ab.

Doch bald könnten Neurowissenschaftler in der Lage sein, diese Vorgänge zu entschlüsseln. Denn was Sie auch unternehmen, um Ihre Emotionen zu verbergen – Ihr Gehirn wird dabei auf eine ganz spezifische Art aktiv, und mit den Methoden der Bildgebung lässt sich die Hirnaktivität analysieren.

Die Suche nach den neuronalen Korrelaten von Emotionen ist nicht neu. Vor allem die funktionelle Magnetresonanztomografie (fMRT) und die Positronenemissionstomografie (PET) kommen dabei zum Einsatz. Mit ihrer Hilfe haben Forscher jene Hirnareale identifiziert, die für unser Gefühlsleben eine Schlüsselrolle spielen, wie etwa die Mandelkerne (Amygdalae), die rechts und links tief im Gehirn liegen. Lange war es jedoch schwierig, Emotionen trennscharf voneinander zu unterscheiden. Die Mandelkerne wurden zunächst als Angstzentrum betrachtet, bevor man bemerkte, dass sie auch bei einer ganzen Reihe anderer Gefühle aktiv werden. Es genügt deshalb nicht, nur die Aktivität eines einzigen Hirnareals zu berücksichtigen.

Der Algorithmus, der Emotionen errät

Der Durchbruch kam, als die Forscher ein neues Analyseverfahren für die Daten der funktionellen Bildgebung entwickelten: die "multi-voxel pattern analysis" (MVPA). Bei Standardbildgebungsverfahren konzentriert man sich auf bestimmte Voxel (dreidimensionale Pixel), deren Aktivierung und Deaktivierung gesondert analysiert wird. Das Prinzip der MVPA besteht dagegen darin, die Reaktion des Gehirns in seiner Gesamtheit zu betrachten. Typischerweise verwenden die Forscher einen Teil der Daten, um in einer Lernphase einen Algorithmus zu "kalibrieren", also für den betreffenden Zweck zu eichen. Der Algorithmus geht sämtliche Voxel durch, sucht nach übergreifenden Mustern von Hirnaktivierungen und verfeinert dann seine Parameter, um ebendiese Muster in Zukunft besser zu erkennen. Dieser "kalibrierte" Algorithmus erlaubt dann eine detailliertere Analyse.

Aber reicht das schon aus, um unter den Milliarden von neuronalen Aktivierungen jene zu identifizieren, die ein emotionales Erlebnis erzeugen? Anscheinend schon. 2016 haben Heini Saarimäki und sein Team von der Universität Aalto in Finnland nach solchen typischen Mustern für die sechs grundlegenden Emotionen gesucht: Ekel, Angst, Freude, Traurigkeit, Wut, Überraschung. Dafür entwarfen sie drei Experimente, während derer sie die Hirntätigkeit der Versuchspersonen per fMRT erfassten. Im ersten Experiment spielten sie den Teilnehmern kurze Filme vor, darunter einige neutralen Inhalts; andere waren darauf angelegt, verschiedene Emotionen zu wecken. Anschließend fragten sie die Versuchspersonen, was sie dabei empfanden. Im zweiten Experiment bekamen die Probanden 36 emotional aufgeladene Begriffe vorgelegt, sollten sich die entsprechenden emotionalen Zustände vorstellen und so weit wie möglich nachempfinden. Die Emotion "Angst" wurde dazu übersetzt in Begriffe wie "nervös", "ängstlich" oder "erschrocken". Die Versuchspersonen gaben außerdem an, wie gut sie die damit verbundenen Emotionen aus eigener Erfahrung kannten. Das dritte Experiment kombinierte beide Methoden: Zunächst wurden erneut per Film Gefühle ausgelöst, anschließend durch die eigene Vorstellungskraft.

Die Aktivierungsmuster ließen sich vor allem in den medialen kortikalen Strukturen beobachten, die auf der Innenseite der beiden Hemisphären liegen, aber auch in Hirnregionen wie der Inselrinde und der Amygdala

Die Resultate bestätigten, dass jede primäre Emotion eine eigene neuronale Signatur besitzt: Bei allen drei Experimenten lag der Algorithmus oft richtig mit seinem Tipp, was die Versuchspersonen jeweils gerade empfanden. Das bedeutet nicht, dass er in allen Fällen richtiglag, aber die Trefferquote bewegte sich deutlich über den Zufallswerten. Nehmen wir als Beispiel das Experiment, bei dem sich die Teilnehmer Emotionen lediglich vorstellen sollten. Wenn der Algorithmus nach dem Zufallsprinzip arbeiten würde, würde er in ungefähr 17 Prozent der Fälle richtigliegen – er hätte eine Chance von 1 : 6, da er eine aus sechs Emotionen wählen muss. Doch die Prognose traf in 55 Prozent der Fälle zu. Es gelang offenbar, im Gehirn für jede Emotion ein spezifisches Aktivitätsmuster aufzuspüren.

Dabei handelte es sich nicht um jeweils eine Hirnregion, denn es gibt kein spezifisches Hirnareal für Trauer oder Freude. Vielmehr ging mit jeder Emotion eine über mehrere Hirnregionen verteilte Kombination von Aktivierungen einher. Diese Muster ließen sich vor allem in den medialen kortikalen Strukturen beobachten, die auf der Innenseite der beiden Hemisphären liegen, aber auch in Hirnregionen wie der Inselrinde und der Amygdala, die schon lange mit Emotionen verbunden werden.

Die neuronalen Signaturen waren auch nicht davon abhängig, wie die Emotionen ausgelöst wurden. Für diesen Nachweis eichten die Forscher ihren Algorithmus an jenen Aktivitätsmustern, die beim Vorstellen von Emotionen entstanden, und setzten ihn dann ein, um die von Filmen ausgelösten Emotionen zu erraten – und umgekehrt. So erreichten sie eine Trefferquote von 29 Prozent, ebenfalls deutlich über dem Zufallswert.

Universelle neuronale Signaturen?

Eine weitere Erkenntnis: Die Signaturen verschiedener Emotionen waren über die Versuchspersonen hinweg ähnlich. Mit einer Genauigkeit über dem Zufallswert konnten die Forscher die Emotionen eines Teilnehmers also auch ausgehend von Mustern bestimmen, die von anderen Personen stammten. Je mehr sich zwei neuronale Signaturen gleichen, desto ähnlicher waren auch die emotionalen Zustände, von denen die Probanden berichteten. Als sie sich Emotionen vorstellen sollten, stimmten zum Beispiel Hirnaktivierungen zu Begriffen wie "ängstlich" und "erschrocken" relativ gut überein.

Traumbilder entschlüsseln

An der Hirnaktivität lassen sich auch Trauminhalte ablesen. Das berichteten der japanische Neurowissenschaftler Tomoyasu Horikawa und sein Team vom Labor für computergestützte Neurowissenschaften in Kyoto 2013 in der Zeitschrift "Science". Sie errieten auf diese Weise Traumbilder von Versuchspersonen kurz nach dem Einschlafen. Zunächst hatten die Forscher eine spezielle Software eingesetzt, um die Hirnaktivität beim Anblick von Bildern zu messen, etwa dem einer Frau, eines Mannes, eines Autos und so weiter. Dann analysierten die Forscher die fMRT-Daten ihrer schlafenden Versuchspersonen. Sie gingen davon aus, dass ein geträumtes Bild und ein reales Bild im Gehirn ähnlich kodiert werden. Und in der Tat gelang es der Software mit einer Trefferquote deutlich besser als per Zufall, die Traumbilder zu identifizieren, wie die Traumberichte der Probanden zeigten. Zurzeit gilt dieses Ergebnis aber nur für einige wenige Bilder.

Das beeinflusst auch unsere Vorstellung davon, wie Emotionen im Gehirn kodiert werden. Früher herrschte eine einfache Lokalisationstheorie vor: Aktivität in Schlüsselarealen wie etwa den Mandelkernen schuf demnach eine breite Palette affektiver Zustände. Auch nach neueren Auffassungen gibt es lokale Muster, aber sie umfassen eine Vielzahl von Arealen, und das "Schweigen" in bestimmten Regionen ist dabei ebenso bedeutsam. Es gilt jetzt zum Beispiel als nicht mehr so wichtig, welche Aktivität die Mandelkerne selbst zeigen, sondern wie diese dabei mit anderen Hirnregionen zusammenspielen.

Ziehen wir zur Erläuterung das Sprachverstehen von Wörtern und Sätzen heran. Der einfachen Lokalisationstheorie zufolge würde die gesamte Information in einzelnen Wörtern stecken. Das Wort "Meer" etwa stünde für eine große Menge Salzwasser. Doch die entscheidende Information könnte in der Kombination mit anderen Wörtern stecken, zum Beispiel "Ich bin ans Meer gefahren" oder "Ich bin nicht ans Meer gefahren". Je nach Kontext trägt also ein und dasselbe Wort zu unterschiedlichen Aussagen bei. Ebenso kann die Aktivierung der Amygdala auch mit verschiedenen Emotionen verbunden sein, je nachdem, mit welchen anderen Aktivitäten sie verbunden ist.

In den Experimenten von Saarimäki und seinem Team wurden die Emotionen mehr oder weniger künstlich ausgelöst. Aber wie ist es mit spontanen Gefühlszuständen: Kann man auch unvermittelt auftretende Emotionen durch Messung der Hirnaktivität identifizieren?

Um diese Frage zu beantworten, haben Philip Kragel und sein Team von der Duke University in North Carolina 2016 ein Experiment durchgeführt. Schon im Jahr zuvor hatten sie mit Hilfe von Testpersonen, denen sie Filme oder Musikstücke vorspielten, einen Algorithmus entwickelt, der deren neuronale Signaturen von Emotionen erkannte. Diese waren jenen von Saarimäki ziemlich ähnlich – eine Metaanalyse dazu steht allerdings noch aus.

Die Forscher ließen den Algorithmus mit Daten arbeiten, die sie während spontaner Emotionen bei Versuchspersonen gesammelt hatten, während diese ruhig in einem fMRT-Gerät lagen und in regelmäßigen Abständen Auskunft über ihr Befinden gaben. Und auch hier gelang es mit einer überzufälligen Trefferquote, die Emotionen der Versuchspersonen korrekt zu identifizieren.

Das emotionale Befinden veränderte sich überdies mit der Zeit. Im Verlauf des Experiments nahmen Angstgefühle ab, und die Gefühlslage wurde zunehmend neutral – entsprechend früheren Befunden, denen zufolge das Liegen in einem fMRT-Gerät zu Beginn eine gewisse Angst erzeugt, die sich aber nach und nach verliert.

Um das Modell weiter zu prüfen, ließ man des Weiteren die Probanden per Fragebogen Auskunft über ihre übliche Grundstimmung geben. Die Idee dahinter: Menschen, die beispielsweise in einem Depressionstest eine hohe Punktzahl erzielen, sind wirklich öfter traurig, und jene mit hohen Werten in Angsttests fühlen sich häufiger ängstlich. Tatsächlich entsprach die Häufigkeit der emotionsspezifischen Aktivitätsmuster, die der Algorithmus identifizierte, auch den Punktwerten aus Fragebogen.

Die Forscher glauben, die Technik könne auch zu einem besseren Umgang mit emotionalen Problemen verhelfen. Sie könnte zum Beispiel dazu dienen, Depressionen zu diagnostizieren oder die Wirksamkeit von Heilmethoden zu bewerten: Wenn Aktivitätsmuster spontaner Traurigkeit seltener auftreten, wäre das ein Zeichen dafür, dass eine Therapie funktioniert. Emotionen direkt im Gehirn ablesen zu können, wäre außerdem nützlich für Patienten, die an Alexithymie leiden, also ihre Empfindungen nicht gut identifizieren und ausdrücken können. Diese Störung betrifft Schätzungen zufolge etwa 10 bis 15 Prozent der Menschen. Seltener, doch nicht minder bedeutsam sind Zustände eines verminderten Bewusstseins, bei denen Patienten zwar wach sind, aber nicht kommunizieren können. Die Technik könnte ein Fenster zu ihrem inneren Erleben öffnen und ihnen so einen Weg aus der Isolation bieten.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.