Das musikalische Gehirn: Warum Musik uns bewegt

»Eins, zwei, drei und vier und …« So beginnt es, wenn Perkussionist und Musikdozent Alfonso Garrido im Probenraum in einem Kölner Keller seine Gruppe einstimmt. Rund 20 Erwachsene jeden Alters sind heute da. Sie tragen Holztrommeln um den Körper und bunte Shaker in den Händen. Stundenlang trommeln sie hier Maracatu. Das ist ein afrobrasilianischer Musikstil und eine Kulturtradition, die aus Zeremonien und Umzügen zu Kolonialzeiten hervorging. In seinem Ursprungsland ist der Maracatu heute eng mit dem Karneval verbunden – und hat inzwischen auch Einzug in den Kölner Karneval gefunden.
Wer zuhört, den zieht diese Musik unweigerlich in den Bann, sie verdrängt alle Gedanken. »Es ist wie eine Welle, die aus der Trommel in meinen Kopf geht, dann bis in die Zehen und wieder hoch. Und das immer wieder«, sagt eine Teilnehmerin. Plötzlich gibt Garrido ein Zeichen und sofort ändern alle zugleich den Rhythmus. In solchen Momenten der perfekten Synchronität lächeln die Trommelnden selbstvergessen – und dem ein oder anderen Zuhörer laufen Schauer über den Rücken.
Viele kennen die Intensität solcher Erfahrungen und suchen erneut danach. Aber was passiert da eigentlich im Gehirn? Warum sind Rhythmen und Harmonien Teil aller Kulturen und warum können sie bei Menschen so viel bewegen – emotional, aber auch körperlich? In der Neuropsychologie gibt es dazu zwei vorherrschende Theorien.
Das Hirn spielt ständig ein Vorhersagespiel
»Unser Gehirn sagt den nächsten Akkord vorher, nicht wahr?«, sagt Peter Vuust, während er auf dem Klavier eine Abfolge von Akkorden spielt. Dann pausiert er und blickt erwartungsvoll, bevor er die auflösende Harmonie anschlägt. Vuust ist nicht nur professioneller Jazzmusiker, sondern auch Neurowissenschaftler und Leiter des Center for Music in the Brain im dänischen Aarhus. Ihm zufolge erklärt ein simples Grundprinzip, wie das Gehirn arbeitet: Es macht ständig Vorhersagen über die Welt. Beim Musikhören sagt es ebenfalls kontinuierlich voraus, welcher Ton als nächster erklingt oder wann der nächste Schlag folgt.
Grundlage dieser Idee ist die Theorie des Predictive Coding. Die besagt: Erfahrungen formen ein hierarchisch gegliedertes Vorhersagemodell im Gehirn. Erwartungen darüber, was als Nächstes passiert, entstehen auf höheren Ebenen, zum Beispiel im präfrontalen Kortex, und gelangen dann »top-down« zu tieferen Ebenen, etwa in die sensorischen Areale. Dort werden die Erwartungen mit Signalen verglichen, die »bottom-up« von den Sinnesorganen einströmen. Stimmen Erwartung und Signal überein, bleibt alles ruhig. Gibt es jedoch eine Diskrepanz, entsteht ein Vorhersagefehler. Den nutzt das Gehirn, um sein Vorhersagemodell zu verbessern und so zukünftige Fehler zu minimieren.
Deutlich wird das Prinzip an der sogenannten Mismatch-Negativität. Dieses neuronale Signal entsteht im auditiven Kortex, wenn eine Person eine regelmäßige Abfolge von Tönen hört und plötzlich ein Ton abweicht – weil er länger oder kürzer ist, höher oder tiefer, früher oder später als erwartet. Es lässt sich mittels Elektroenzephalografie (EEG) messen und gilt als Marker für auditive Vorhersagefehler.
Manche Musik hat den Effekt, dass Menschen sich – scheinbar ganz automatisch – zu bewegen beginnen, sie dabei etwa mit dem Kopf oder dem Fuß wippen. »Groove« nennt man dieses Phänomen. Es ist ein gutes Beispiel dafür, wie Vorhersagen im Gehirn das Erleben von Musik prägen könnten.
Die Musikpsychologin Maria Witek veröffentlichte 2014 zusammen mit Vuust eine wegweisende Studie für das Verständnis von Groove: Die Teilnehmenden hörten Schlagzeugrhythmen mit Offbeat-Akzenten, auch Synkopen genannt. Das sind Schläge zwischen den regulären Zählzeiten eines Takts, etwa auf »eins und«. Dann bewerteten sie, wie gut die Rhythmen ihnen gefallen haben und wie sehr sie den Drang auslösten, sich zu bewegen. Das Ergebnis: Bewegungsdrang und Hörvergnügen waren am stärksten, wenn der Rhythmus ein gewisses Maß vom regelmäßigen Takt abwich – aber nicht zu stark. Das Gehirn kann dann meist erfolgreiche Vorhersagen treffen, wird aber von Zeit zu Zeit überrascht.
»Wenn wir sehr einfache Rhythmen hören, sind diese für unser Gehirn uninteressant«, erklärt Vuust. »Vernehmen wir wiederum sehr komplexe Rhythmen, kann es den Grundschlag nicht finden. Genau in der Mitte liegt der Sweetspot, an dem unser Gehirn ausreichend interessiert ist und noch den Grundschlag wahrnimmt.«
Grooven macht nicht nur Spaß, sondern hat auch eine Funktion. »Damit gehen wir von der Wahrnehmung zur Handlung über«, sagt Vuust. Er weist auf eine Erweiterung der Predictive-Coding-Theorie hin: die Active Inference. Demnach unternehmen Menschen (unbewusst) Handlungen, um die Vorhersagen des Gehirns zu verbessern. »Wenn wir den Grundschlag durch unseren Körper betonen, lernen wir einen synkopierten Rhythmus mit der Zeit besser kennen«, sagt Vuust.
»Wenn wir sehr einfache Rhythmen hören, sind diese für unser Gehirn uninteressant«Peter Vuust, Neurowissenschaftler und Jazzmusiker
Eine aktuelle Studie der Universität Osaka, in der die Gehirnaktivität von Probandinnen und Probanden mittels EEG gemessen wurde, während sie einem synkopierten Rhythmus lauschten, stützt diese Deutung. Eine Gruppe erhielt die Anweisung, mit dem Zeigefinger den Grundschlag der Tonspur mitzutippen, während die anderen ein Kissen festhielten. Vereinzelt wichen die Töne vom gewohnten Rhythmus ab und erklangen zu früh. In Reaktion darauf zeigten beide Gruppen eine Mismatch-Negativität. Allerdings war das Signal bei den tippenden Teilnehmern stärker ausgeprägt. Weil sie den Rhythmus besser kannten, war ihre Überraschung über eine Abweichung größer, so die Interpretation der Autoren.
Auch im Kölner Probenraum rät Alfonso Garrido seinen Schülerinnen und Schülern dazu, jeden Grundschlag der Musik mit dem Körper zu betonen, indem sie ein wenig in die Knie gehen. »Die Bewegung hilft, den Rhythmus zu verstehen«, erläutert der Musiker. Er selbst ist mit vollem Körpereinsatz dabei, bewegt sich gestikulierend, fast tanzend durch den Raum, während er die Gruppe anleitet. »Bewegung bindet alles zusammen«, so Garrido.
Das Hirn verkörpert die Musik
Predictive Coding lässt sich auf alles Mögliche anwenden – vom Verhalten von Bakterien bis hin zu Schwankungen am Finanzmarkt. Entsprechend ignoriere die Theorie manche Eigenschaften des biologischen Hirns, sagen Kritiker. »Das Verhalten von Neuronen wird durch die Physik dynamischer Systeme bestimmt«, betont Eleanor Harding. Sie ist ausgebildete Opernsängerin sowie Kognitionswissenschaftlerin und forscht an der Universität Groningen in den Niederlanden. »Wir sehen neuronale Prozesse nicht als bottom-up oder top-down, sondern als zirkulär. Es gibt keine imaginäre Hand, die von einem Hirnareal in ein anderes hinuntergreift«, erläutert sie.
Harding denkt, dass die neuronale Resonanztheorie am besten erklärt, wie das Gehirn Musik verarbeitet. Diese alternative Theorie basiert auf einer simplen Beobachtung: Nervenzellen synchronisieren ihre Aktivität mit Musik – sie »resonieren« mit ihr. Das Konzept der Resonanz stammt aus der Physik. Wer mit dem Finger am Rand eines Weinglases entlangstreicht, kann es in Schwingung versetzen und so einen Klang erzeugen. Auch mit der Stimme lässt sich ein Weinglas zum Mitschwingen bringen. Das gelingt aber nur, wenn der anregende Ton der Eigenfrequenz des Glases entspricht, also jenem Ton, der erklingt, wenn man an seinem Rand entlangstreicht.
»Die Bewegung hilft, den Rhythmus zu verstehen«Alfonso Garrido, Perkussionist
Etwas Ähnliches passiert im Hirn. Hört jemand ein Musikstück, feuern Neurone in seinem auditiven Kortex im Rhythmus der gespielten Musik. Diese setzt sich aus verschiedenen Frequenzen zusammen. Die langsamste ist der Grundschlag, der üblicherweise zwischen 60 und 150 Schlägen pro Minute liegt. Darüber liegen schnellere und unregelmäßigere Rhythmen. Im Jazz sind sie oft stark synkopiert, bei Popmusik eher simpel. Auch die einzelnen Noten der Melodie entsprechen Frequenzen, allerdings viel höheren: jenen der Schwingungen der Schallwellen. Gruppen von Neuronen können ihre Feuerraten mit all diesen Elementen synchronisieren. Am besten funktioniert das, ähnlich wie beim Weinglas, wenn ein musikalisches Element der Eigenfrequenz eines Neurons entspricht. Das ist die Frequenz, mit der die Zelle spontan Impulse abgibt, wenn sie erregt wird.
In einer EEG-Studie aus dem Jahr 2019 spielte Harding 23 Freiwilligen Melodien und rhythmisch gesprochene Sätze vor. Tatsächlich synchronisierte sich die Hirnaktivität mit dem Rhythmus. Bei musikalisch erfahreneren Probanden war der Effekt stärker – allerdings nur für Musik, nicht für Sprache. Dabei synchronisierten sich nicht nur neuronale Schwingungen in der Hörrinde mit der Musik, sondern auch im Motorkortex, der Bewegungen kontrolliert. Das liefert eine alternative Erklärung für Groove: Weil der Motorkortex mit der Musik resoniert, wippen Menschen unweigerlich im Takt – oder möchten aufstehen und tanzen.
Hardings Studie zeigt zudem: Das Gehirn lernt durch Training, seine Aktivität besser mit Musik zu synchronisieren. Die Forscherin nennt das »attunement«, also etwa »Einstimmung«. Ähnlich wie sich eine Gitarre stimmen lässt, um Töne in bestimmten Frequenzen zu erzeugen, lassen sich neuronale Netze stimmen, sodass sie musikalische Elemente besser abbilden können. Das geschieht zum Beispiel, indem sich die Eigenfrequenz der Neurone oder die Verbindungen zwischen ihnen verändern. Dieser Prozess läuft während der kindlichen Entwicklung ab, durch kulturelle Prägung und durch Musiktraining. Erst dadurch kann ein Gehirn die Struktur von komplexer Musik wahrnehmen.
Wer schon einmal bei einem Modern-Jazz-Konzert war, hat das vielleicht hautnah erfahren. Hier sind die Rhythmen, Harmonien und Melodien oft hochkomplex. Erfahrene Jazzkonzertgänger oder Musikerinnen »viben« mit der Musik und können sich mühelos dazu bewegen. Aber wem diese Erfahrung fehlt, der kann nicht einmal im Takt wippen.
Das Gehirn verkörpert also durch ein Netzwerk resonierender Schwingungen die Musik, die es hört – und prägt so die Wahrnehmung. Deutlich zeigt sich das beim brasilianischen Samba. Hier fallen die Schläge häufig offbeat, der Grundschlag ist teils gar nicht zu hören. Und trotzdem nehmen Menschen ihn wahr und können dazu tanzen.
Ein Team um den US-amerikanischen Musikpsychologen Edward Large untersuchte das Phänomen 2017. Die Forscher spielten einer Gruppe Trommelrhythmen vor, bei denen alle Schläge offbeat waren. Obwohl der Grundschlag akustisch in der Musik fehlte, synchronisierten sich die Hirnwellen der Probanden im auditiven Kortex damit. Je stärker der neuronale Gleichtakt, umso besser waren die Teilnehmer außerdem darin, den Puls mitzuklopfen.
Wie Musik Emotionen auslöst
Die meisten Menschen kennen das. Musik kann starke Emotionen, Befindlichkeiten und sogar veränderte Bewusstseinszustände auslösen. Lassen sich diese Effekte auch theoretisch erklären?
In vielen Modellen haben Emotionen zwei Dimensionen: entspannt versus erregt sowie angenehm versus unangenehm. Musik kann sich auf beide Dimensionen auswirken. »Langsamere Rhythmen aktivieren unser parasympathisches Nervensystem und machen uns schläfrig, während schnellere Beats den Sympathikus aktivieren und uns dazu bringen, loslaufen zu wollen«, sagt Vuust. Mehrere Studien weisen nach, dass schnelle Musik den Herzschlag und die Atmung beschleunigt, also den Organismus erregt. Intuitiv leuchtet das ein: Eine groovige Playlist motiviert zum Putzen oder Tanzen, während Klangschalenklänge beim Entspannen helfen.
Aber warum ist das so? Folgt man der neuronalen Resonanztheorie, liegt der Zusammenhang nahe: Hirnaktivität synchronisiert sich mit der Musik, und das wirkt auf andere Körperfunktionen, die ja ebenfalls vom Gehirn gesteuert werden. Man könnte vermuten, dass auch der Herzschlag mit den Rhythmen resoniert; das scheint aber nicht so zu sein.
Die Valenz von Musik, also ob Menschen sie als angenehm oder unangenehm empfinden, erklärt Predictive Coding mit dem jeweiligen Maß an Überraschung – und mit dem Belohnungssystem. Anders als Essen oder Sex bietet Musik zwar keine primäre Belohnung. Dennoch kann sie Dopaminschübe im Belohnungszentrum tief im Gehirn auslösen. Laut Studien passiert das zum Beispiel, wenn sich die Struktur der Musik plötzlich verändert – und in diesen Momenten den Zuhörenden oft wohlige Schauer über den Rücken laufen.
»Die Belohnung, die in Musik steckt, ist abstrakt«, sagt Vuust. »Musik bringt unserem Gehirn ständig etwas bei.« Musikalische Elemente, die mäßig überraschend sind – aber eben nicht zu – sehr, besitzen den höchsten Informationsgehalt für das Vorhersagemodell und sind damit am angenehmsten, so die Theorie.
2019 trainierte ein Team um den Neurowissenschaftler Robert Zatorre ein Computermodell mit einer umfangreichen Sammlung westlicher Musik, sodass es die Musik so verarbeitete, wie es Menschen laut Predictive Coding tun. Das Modell berechnete, wie vorhersehbar einzelne Töne auf Grundlage von zuvor gelernten Mustern sind. Dann spielten die Forscher Testpersonen Melodien vor und ließen sie bewerten, wie sehr sie ihnen gefielen.
Die Autoren nutzten die vom Modell berechnete Vorhersagbarkeit und fanden, dass die Probandinnen und Probanden ein mittleres Maß an Überraschung bevorzugten. Aber auch der musikalische Kontext spielte eine Rolle. Bei komplexer Musik präferieren Menschen demnach Passagen mit weniger Überraschung als bei eher simplen Stücken. Das werden viele bestätigen können: In einer wilden Jazzimprovisation hilft es dem Verständnis, wenn eine Melodie von einem neuen Instrument wiederholt wird. In einem Popsong hingegen löst eine außergewöhnliche Bridge oder ein Tonartwechsel das größte Vergnügen aus.
»Musik bringt unserem Gehirn ständig etwas bei«Peter Vuust, Neurowissenschaftler und Jazzmusiker
Manche Musik spielt explizit mit den Vorhersagen des Gehirns: Techno arbeitet oft mit Build-Ups, in denen der Bass ausbleibt und die Tonhöhe ansteigt. So baut sich mehr und mehr Erwartung auf, die plötzlich mit einem Absturz in tiefe Register aufgelöst wird, der uns in Euphorie versetzt. Auch ein Orchester, das nach einem wilden Finale endlich zum auflösenden Akkord findet, kann ein Gefühl tiefer Befriedigung erzeugen.
Die neuronale Resonanztheorie wiederum erklärt ganz anders, warum manche Musik angenehmer ist als andere – nämlich mit der Stabilität neuronaler Aktivität. Hier hilft es, sich das Gehirn als einen Chor singender Nervenzellen vorzustellen: Konsonante Harmonien, deren Frequenzen in einfachen Beziehungen zueinander stehen, sind für einen Chor leichter zu singen als schräge Akkorde. »Wenn man in einem komplexen Intervall singt und dann irgendetwas das System stört, fällt man leicht wieder ins Einstimmige«, sagt Harding, die das Prinzip aus ihrer Opernausbildung gut kennt. Auch im Gehirn erzeugen konsonante Klänge stabilere neuronale Muster, während dissonante Aktivität instabil bleibt und nach Auflösung strebt. Das könnte erklären, warum Menschen Dissonanzen als unangenehm oder spannungsvoll und Konsonanzen als angenehm empfinden – bewiesen ist das jedoch nicht.
Ist Musikerleben nur kulturell erlernt?
Es gibt eine Frage, auf die beide Theorien scheinbar widersprüchliche Antworten geben: Wie universell ist das menschliche Erleben von Musik? Die neuronale Resonanztheorie erklärt Musikerleben zu großen Teilen biologisch. Konsonante Harmonien und simple Rhythmen sind demnach für Menschen aller Kulturen einfacher zugänglich, weil das Hirn damit besser resonieren kann. »Die Theorie besagt nicht, dass überall dieselben Strukturen auftreten. Aber sie besagt, dass dieselben Prinzipien dynamischer Systeme die Entwicklung der Musik in jeder Kultur leiten«, so Harding.
Predictive Coding liefert eine ganz andere Antwort. »Die Theorie sieht Musik primär als kulturelles Phänomen«, sagt Vuust. Für ihn ist offensichtlich, wie unterschiedlich die Musik verschiedener Kulturen ist. Hingegen gebe es zwischen den Musikstilen einer bestimmten Kultur große Gemeinsamkeiten. Denn Menschen lernen implizit statistische Muster, mit denen sie oft in Berührung kommen. Und wer die Muster einer Musikkultur gut kennt, beschäftigt sich auch gern damit.
Explizit gegeneinander getestet wurden die Vorhersagen der beiden Theorien über kulturelle Unterschiede bisher noch nicht. Erste Hinweise liefert aber eine Pionierstudie aus dem Jahr 2009. Damals untersuchte ein deutsches Forschungsteam um Stefan Kölsch (mittlerweile an der Universität Bergen), ob Angehörige der Mafa, einer nativen ethnischen Gruppe aus Kamerun und Nigeria, beim Musikhören ähnliche Emotionen empfinden wie Menschen aus Nordamerika. Die Probandinnen und Probanden sollten drei Emotionen – fröhlich, traurig, ängstlich – in westlicher Musik erkennen. Wie erwartet waren die Personen aus Nordamerika, die mit den Musikstilen vertraut waren, darin besser. Jedoch konnten die Mafa, die zuvor nicht mit westlicher Musik in Berührung gekommen waren, ebenfalls zu einem gewissen Grad die beabsichtigten Emotionen erkennen.
Das deutet darauf hin, dass sich das emotionale Empfinden beim Musikhören zumindest teilweise aus der Funktionsweise des Hirns ergibt. Die Studie zeigt aber auch: Erlernte Muster spielen dabei eine große Rolle. Predictive Coding und die neuronale Resonanztheorie stehen also nicht im Widerspruch. Vielmehr erklären sie unterschiedliche Elemente des menschlichen Musikerlebens.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.