Direkt zum Inhalt
Neurolinguistik

Was beim Sprechen im Kopf passiert

Damit ein Gespräch wie von selbst läuft, muss das Gehirn blitzschnell reagieren – sonst sind Missverständnisse vorprogrammiert. Wie es diese Herausforderung meistert, zeigen jetzt Hirnscans.
Alltagsplausch, wir verstehen uns

"Hast du mal 'n Zehner?" – "Nimm doch die Karte!"

Dieser Dialog vor einem Fahrkartenautomaten ist für die Beteiligten, nennen wir sie Anne und Peter, problemlos verständlich. Dabei läuft hier ein wahres Panoptikum an Wahrnehmungs- und Analyseprozessen im Gehirn der beiden Gesprächspartner ab: Peter weiß sofort, dass Anne einen Zehneuroschein meint, nicht etwa eine Zehncentmünze oder gar einen Zehnerschlüssel fürs Fahrrad. Und er erkennt auch, dass die Frage eigentlich als Aufforderung gemeint ist. Ein schlichtes "Ja" hätte Anne irritiert – wortlos das Portmonee zu zücken, den Schein herauszuholen und weiterzureichen, dagegen nicht. Auch dass sich hinter der "Karte" in Peters Antwort eine EC-Karte verbirgt, erschließt sich rein sprachlich zunächst keineswegs von allein. Könnte vielleicht auch eine schon vorhandene Fahrkarte, eine Eintrittskarte fürs Kino oder gar eine Landkarte gemeint sein?

Sie halten das Missverständnis "Landkarte" für weit hergeholt? Nicht wenn man ein Computerprogramm ist! Ein Onlineprogramm für Türkisch übersetzt hier "Karte" mit "harita" für Landkarte statt mit "kart" für EC-Karte. Der ganze Dialog aus dem Türkischen zurückübersetzt lautet nach dem Programm: "Haben überhaupt eine Zehnheit?" – "Bloß Landkarte nehmen!"

Nahezu jede sprachliche Äußerung enthält Mehrdeutigkeiten, die auch die besten maschinellen Sprachverarbeitungssysteme überfordern. Dank neurowissenschaftlicher Methoden wissen wir inzwischen einiges darüber, was im Gehirn abläuft, wenn wir uns unterhalten und uns dabei trotz Ambiguitäten nur selten missverstehen.

Wenn sie nicht gerade in politischen Talkshows sitzen, wechseln sich Leute im Gespräch meist ab, mit seltenen, winzigen Überschneidungen. Auch wenn es keine Universalgrammatik gibt, wie einst der amerikanische Linguist Noam Chomsky postulierte, scheint der Wechsel zwischen den Gesprächspartnern tatsächlich eine Universalie zu sein, die in allen Sprachen gleich funktioniert. Bereits Säuglinge, die nur inhaltslose Spielereien wie "nananana" oder "dädä" produzieren, wechseln sich beim "Sprechen" mit ihrer Bezugsperson ab. Und auch bei nichtmenschlichen Primaten kennt man solche Pseudodialoge.

Dialoge unter erwachsenen menschlichen Sprechern variieren zeitlich zwar beträchtlich, aber meistens dauern Äußerungen in allen Sprachen nur ein bis zwei Sekunden. Der Anthropologe Stephen Levinson, Direktor am Max-Planck-Institut für Psycholinguistik in Nimwegen (Niederlande), hält den Dialog für ein evolutionär altes Erbe, das sogar die Struktur aller Sprachen beeinflusse: Da jeder Partner nur kurz dran ist, bis der andere übernimmt, gibt es überhaupt Sätze, also Äußerungen beschränkter Länge, die als vollständig empfunden werden.

Schneller Schlagabtausch

Typischerweise dauert die Pause, bis Sprecher B einsetzt, nachdem A zu Ende geredet hat, eine Fünftelsekunde. Aber das ist eigentlich viel zu kurz! So lange brauchen Sprinter, um nach dem Startschuss loszurennen. Sprechen ist jedoch neurobiologisch deutlich komplizierter. Allein für die motorische Feinabstimmung an Zunge und Stimmbändern benötigt das Gehirn mehr Planungszeit. Hinzu kommen die inhaltlichen Überlegungen: Im Experiment beträgt die Reaktionszeit, bis ein einziges Wort so weit neuronal vorbereitet ist, dass die Versuchsperson es aussprechen kann, mindestens 600 Millisekunden – dreimal so lang wie eine normale Gesprächspause.

Als Peter in unserem einleitenden Beispiel Annes Frage mit "Nimm doch die Karte!" beantwortet, weiß er natürlich bereits am Anfang des Satzes, was er Anne vorschlagen will. Die ganze Äußerung ist schon vorgeplant, wenn Peter die Zunge zum "N" formt. Für einen kurzen Satz dauert die Planung im Schnitt anderthalb Sekunden. Das bedeutet: Peter fängt an, seine Antwort vorzubereiten, wenn Anne noch nicht einmal halb zu Ende gesprochen hat.

Aber wie können zwei sprachliche Prozesse, Zuhören und Planen, gleichzeitig ablaufen? Klassische Modelle des neuronalen Arbeitsspeichers gehen davon aus, dass unser Gehirn nur einen einzigen gleichartigen Prozess auf einmal bearbeiten kann. Und woher weiß man schon so früh, was das Gegenüber sagen will?

Einen Einblick in die Arbeitsweise des Gehirns liefert die funktionelle Magnetresonanztomografie (fMRT). Hierbei misst man, welche Teile des Gehirns in einer bestimmten Situation mehr Sauerstoff verbrauchen als unter Standardbedingungen. Die Methode liefert allerdings nur eine geringe zeitliche Auflösung. Außerdem beschränken hohe Kosten die Zahl der Versuchspersonen, die Datenanalyse weist Fallstricke auf, und Alltagsdialoge lassen sich in der Kernspinröhre nur schwer durchführen: Lediglich eine Versuchsperson passt hinein, es ist laut, und ein Handy am Ohr verträgt sich nicht gut mit den starken Magnetfeldern. Lange hatte man daher im Scanner nur isolierte Teilprozesse des Verstehens nachgestellt, wie das Hören oder Lesen einzelner Wörter oder Sätze. Mit den komplexen Anforderungen der Alltagssprache hat das aber wenig zu tun.

Einen Durchbruch in Richtung Analyse lebensnaher Sprachverarbeitung stellte eine 2010 veröffentlichte Studie aus dem Labor des Psycholinguisten Uri Hasson von der Princeton University (USA) dar. Die in der MRT-Röhre liegende Doktorandin Lauren Silbert wurde aufgefordert, ein dramatisches oder peinliches Erlebnis zum Besten zu geben. Sie erzählte eine chaotische Begebenheit von einem Schulball. Die 15 Minuten lange Geschichte wurde per Tonband aufgezeichnet; gleichzeitig maß der Scanner Silberts Hirnaktivität.

Anschließend wurde die Erzählung elf Personen im Tomografen vorgespielt. Um Verstehen vom bloßen Hören abzugrenzen, bekamen in einem zusätzlichen Kontrollexperiment Probanden, die nur Englisch sprachen, eine Geschichte auf Russisch erzählt. Sie hörten also jemanden reden, verstanden aber nichts. Hirnareale, die sich bei allen Versuchspersonen während des Hörens der englischen Geschichte regten, bei der russischen Variante aber nicht, sollten entsprechend mit Verstehen befasst sein und nicht bloß mit akustischer Wahrnehmung oder Beklemmungsgefühlen im Scanner.

Es ging den Forschern dabei weniger um die Gesamtaktivität von Hirnarealen als um Gemeinsamkeiten bei Aktivitätsveränderungen über die Zeit des Zuhörens. Hierzu unterteilten die Forscher ihre Messungen in Blöcke von 1,5 Sekunden. Die Ergebnisse, in späteren ergänzenden Tests sowie durch Studien aus anderen Laboren bestätigt, fielen deutlich aus. Bei Hörern der russischen Geschichte traten kaum Gemeinsamkeiten in den Hirnaktivitätsmustern auf. Vermutlich konzentrierten sich die Versuchspersonen nicht aufs Zuhören, da sie eh nichts verstanden. Ganz anders bei der englischen Geschichte. Hier gab es einen engen Gleichschritt in der Hirnaktivität der Hörer – aber auch zwischen allen Hörern und der Sprecherin. Die Schlussfolgerung der Forscher: Die Hirnaktivität der Zuhörer war an die der Sprecherin gekoppelt.

Diese Kopplung trat nicht nur bei den in der linken Hirnhälfte liegenden Sprachzentren auf, sondern auch in den rechtsseitigen anatomischen Gegenstücken, denen man für die Sprachverarbeitung eigentlich keine besondere Rolle zuschrieb. Bekannt war bereits, dass Menschen mit rechtsseitigen Hirnschäden zwar glatte, fehlerfreie Sätze produzieren, aber die Absichten hinter Äußerungen anderer nur schwer deuten können. Ein Betroffener hätte zum Beispiel Schwierigkeiten, die Frage "Hast du mal 'n Zehner?" als Aufforderung zu interpretieren. Die Experimente aus Hassons Labor bewiesen nun, dass die rechte Hirnhälfte beim Verstehen alltagsnaher Sprache tatsächlich stark eingebunden ist.

Mitdenken beim Zuhören

In vielen Arealen folgte die Hirnaktivität der Hörer jener der Sprecherin in zeitlichem Abstand. Die Zuhörer reagierten, nachdem die Sprecherin agiert hatte. Aber es gab auch Bereiche, bei denen die Hirnaktivität der Zuhörer jener der Sprecherin zeitlich vorauslief! Wie ist das möglich?

Wenn Anne ein Ticket für 9,80 Euro kaufen will, ihr Fünfziger vom Fahrkartenautomaten wieder ausgespuckt wird und sie jetzt mit "Hast du …" ansetzt, dann weiß Peter noch nicht, dass sie gleich "Zehner" sagen wird. Aber dass sie kleineres Geld will, weiß er – jedenfalls, wenn er mitgedacht hat. Was immer Anne nun sagt, deuten wir im Sinn unserer Erwartung. Beim Wort "Zehner" muss es sich um Geld handeln, und zwar um einen Schein, weil ihr zehn Cent beim Bezahlen der 9,80 Euro wenig helfen. Wenn wir, anders als ein Computer, "Zehner" hier sofort als Geldschein und "Karte" als EC-Karte interpretieren, analysieren wir das Gesprochene von einer oberen Ebene ausgehend ("top-down"). Wir weisen den sprachlichen Zeichen aus dem inhaltlichen Zusammenhang die Bedeutung zu, die sinnvoll erscheint, statt uns nur an den Zeichen selbst zu orientieren. Kinder, die erst wenige Wörter kennen, lernen so neues Vokabular. Hasson hat in seinem Experiment vermutlich live im Hirngewebe etwas von diesem vorausschauenden Mitdenken beobachtet, das essenziell ist, um Mehrdeutiges richtig zu verstehen und um Sprache lernen zu können.

Wie gut die Versuchspersonen die präsentierte Geschichte verstanden hatten, hing tatsächlich vom Grad der im Scanner offenbarten Vorhersagefähigkeit des Gehirns ab, wie hinterher gestellte Verständnisfragen offenbarten. Zunächst einmal war eine bessere Verständnisleistung grundsätzlich mit einer stärkeren Kopplung der Hirnaktivität des Hörers an die der Sprecherin verbunden. Aber die vorauseilende Hirnaktivität erwies sich für das Verständnis als noch wichtiger als die Kopplung insgesamt. Das Experiment bestätigte somit: Menschen können Kommunikationsabsichten ihres Gegenübers um Sekunden versetzt vorhersagen.

Der schnelle Schlagabtausch im Dialog setzt aber nicht nur Vorhersagefähigkeit voraus. Es laufen auch zwei sprachliche Prozesse zugleich ab. Ein Hörer hört weiter zu, wenn er seine eigene Sprachplanung beginnt – und zwar ebenso aufmerksam wie zuvor, wie sich im Enzephalogramm zeigt: Das Gehirn von Zuhörern, die im Geist eine Antwort vorbereiten, reagiert auf Fehler des Sprechers genauso wie jemand, der einfach nur dem Gesagtem folgt.

Wie es dem Gehirn gelingt, gleichzeitig Sprache zu verstehen und zu planen, haben Lauren Silbert und ihre Kollegen 2014 untersucht, indem sie die Hirnaktivitäten von mehreren Sprechern miteinander verglichen und dann den Messungen beim Zuhören gegenüberstellten. Dadurch ließen sich die Unterschiede zwischen Sprechen und Zuhören besser herausfiltern. Manche Hirnareale erwiesen sich dabei beim Lauschen als wichtiger als beim Reden. Andere Gebiete wurden dagegen nur beim Sprechen und nicht beim Verstehen aktiv.

Gekoppelte Gehirne
Gekoppelte Gehirne |

Bestimmte Hirnareale wie der Motorkortex und das Broca-Areal im Stirnlappen sind für die Sprachproduktion zuständig (rot). Andere wie der intraparietale Sulcus im Scheitellappen werden dagegen beim Sprachverständnis angeregt (gelb). Weitere Bereiche der Großhirnrinde sind sowohl beim Sprechen als auch beim Zuhören aktiv (orange und blau). Bei den meisten Gebieten – vor allem auf der rechten Seite – tritt zusätzlich eine zeitliche Kopplung der Aktivitäten im Gehirn von Sprecher und Hörer auf (blau). Dies schließt auch Hirnareale ein, die sonst nicht mit Sprache verbunden werden, wie den Praecuneus und den medialen Präfrontalkortex.

PNAS 111, S. E4687–E4696, 2014

Die motorische Rinde zum Beispiel brauchten die Hörer nicht, während sie bei den Sprechern dauernd im Gleichklang mitschwang. So war auch das Broca-Areal in der linken unteren Stirnhirnwindung beim Reden stark gefordert, beim Zuhören nur in geringem Maß.

Dabei sammeln die Hirnareale Informationen auf verschiedenen Zeitskalen, wie Yulia Lerner, Postdoc in Hassons Team, 2011 herausfand: Während in der Hörrinde die Aktivität im Millisekundenbereich wechselt, zeigen andere Areale Aktivierungsdauern, die der Länge von Wörtern oder Sätzen entsprechen. Weitere Hirngebiete arbeiten noch viel langsamer. Ihr Rhythmus spiegelt inhaltliche Abschnitte einer gehörten Geschichte wider. Die langsamsten Rhythmen weisen übergeordnete, interpretierende Hirnareale außerhalb der eigentlichen Sprachzentren auf. Hier wird wohl eine umfassende inhaltliche Vorstellung länger festgehalten, unabhängig von der sprachlichen Form, welche die Information ursprünglich besaß.

Das bestätigte sich auch bei weiteren Experimenten in Hassons Labor: Wenn Amerikaner eine Geschichte auf Englisch hörten und Russen die gleiche auf Russisch, war die Hirnaktivität aller Hörer in übergeordneten Arealen zeitlich gekoppelt, obwohl das ursprüngliche akustische Signal auf Grund der unterschiedlichen Sprachen in jeder Gruppe völlig anders aussah.

Wir benutzen Sprache, um Gedanken zu vermitteln. Aber auf höchster Verstehensebene arbeitet unser Gehirn sprachfrei. Unser Arbeitsgedächtnis überfordert es daher nicht, gleichzeitig eine Repräsentation der aktuellen Situation aktiv zu halten (Fahrkartenkauf), im Verlauf sich ergebende Informationen (Automat akzeptiert keinen 50-Euro-Schein) sowie Ideen einzubinden (mit EC-Karte zahlen) und in diesem Kontext passende Äußerungen zu verarbeiten und vorzubereiten. Schwierig wird es bloß, wenn wir gleichzeitig zum Fahrkartenkauf ein Gespräch über Politik führen wollten. Dann dürfte die Konzentration auf das eine oder das andere leiden.

Was passiert, falls die Äußerung von Sprecher A anders endet als von B erwartet? Wenn etwa Anne fragt: "Hast du eine Ahnung, wo meine EC-Karte ist?", muss Peter seine Antwort neu konzipieren. Braucht er jetzt die komplette Planungszeit von ein, zwei Sekunden, bis er zu sprechen beginnt? Eher nein. Die meisten Menschen vermeiden eine Pause. Sie machen lieber schon den Mund auf und geben automatisierte Füllwörter oder Stimmlaute von sich wie "Gut, also, öh …", während sie überlegen, was sie sagen wollen. Wird es inhaltlich oder sprachlich anspruchsvoller, häufen sich Füllwörter sowie Verzögerungen sogar im Monolog. Dann kommen auch Fehler vor, wie in der Aussprache (Silbenverdrehungen, Stottern), in der Grammatik (falsche Fälle) oder im Inhalt (wirre Äußerungen). Wenn wir länger am Stück reden, müssen wir dauernd gleichzeitig sprechen und planen. Zuhören und planen ist offenbar nicht schwerer als sprechen und planen. Für beide Varianten natürlicher Sprachanwendung ist unser Gehirn ausgerüstet. Aber es arbeitet dafür auf vollen Touren und kann an seine Grenzen geraten.

Denksport im Labor

Während man sich am Labor von Uri Hasson in Princeton mühte, die Neurolinguistik mit lebensnaher Sprache voranzubringen, ging eine Gruppe von Neurowissenschaftlern im Bildgebungslabor von Ivan Toni im niederländischen Nimwegen den umgekehrten Weg. Sie versuchten, die neurobiologischen Grundlagen der menschlichen Kommunikationsfähigkeit mit einer sprachfreien Experimentanordnung aufzuspüren. Bei einem Denksportspiel sollten zwei Versuchspersonen – nennen wir sie wieder Anne und Peter – auf einem Computerbildschirm einen Spielstein in einem Zug von einer Ausgangsposition auf eine Zielposition bringen. Der Kniff: Nur Anne kann auf ihrem Bildschirm erkennen, wohin Peters Stein geschoben werden soll. Da die Spieler sich weder sehen noch miteinander reden können, muss Anne ihrem Mitspieler allein mit Hilfe ihres eigenen Spielsteins signalisieren, wo Peter seinen Stein hinsetzen soll. Dabei darf sie ihren Stein aber nur an ihrer eigenen Zielposition absetzen. Sie kann jedoch mittels des Wegs, über den sie ihren Stein führt, Peter Hinweise geben.

Verständnis ohne Worte
Verständnis ohne Worte |

Um die Hirnaktivitäten bei nonverbaler Kommunikation zu testen, haben Forscher aus Nimwegen ein Denkspiel für Probandenpaare entwickelt. Beide Spieler sehen jeweils auf einem Bildschirm ein Spielbrett aus neun Feldern. Aufgabe ist es, innerhalb von fünf Sekunden den eigenen Spielstein mittels eines Spielecontrollers von der Mitte in die jeweils vorgegebene Position zu manövrieren. Nur der Sender sieht die beiden Zielpositionen, nicht der Empfänger. Der Sender soll nun durch die Wanderung seines Spielsteins (gelber Kreis) dem Empfänger deutlich machen, wo dessen Stein (blaues Rechteck) hingehört. Dies kann er beispielsweise durch Hin-und-her-Bewegen an der Zielposition des Empfängers erreichen.

Die Kommunikationsaufgabe des Teams aus Nimwegen sieht somit ganz anders aus als bei den Forschern aus Princeton. Anne muss sich überlegen: Mit welchen Bewegungen kann ich Peter seine Zielposition begreiflich machen? Und Peter muss darüber nachdenken: Was meint Anne wohl damit?

Aber gerade darin sehen die niederländischen Wissenschaftler eine Parallele zur Sprache: Mitunter stehen ja auch mehrere Wörter für die gleiche Sache ("Bank" oder "Geldinstitut"), und ein Wort kann unterschiedliche Bedeutungen haben ("Bank" zum Sitzen oder fürs Geld). Diese Quelle kommunikativer Unsicherheit hat das Spielbrettexperiment stark überzeichnet.

Im Gegensatz zu den Ergebnissen der Sprachexperimente aus Hassons Labor war bei dieser nonverbalen Kommunikationsaufgabe lediglich die rechte Hirnhälfte gefragt. Vor allem Bereiche des rechten Schläfenlappens sowie des vorderen Stirnhirns verbrauchten dabei mehr Energie als unter kommunikationsfreien Kontrollbedingungen.

Der Sitz des Verstehens

Die These, wonach die rechte Hirnhälfte die Absicht hinter den Signalen des Gegenübers analysiert, kennen wir schon. Allerdings regte sich die rechte Hirnhälfte nicht nur bei den Empfängern, sondern auch bei den Sendern der Kommunikation. Außerdem beobachtete der Doktorand Arjen Stolk aus dem Team von Nimwegen, heute an der University of California in Berkeley, per Magnetoenzephalografie 2013, dass die Hirnaktivität schon anstieg, kurz bevor eine neue Aufgabe überhaupt gestellt wurde.

Daraufhin verglichen Stolk und seine Kollegen zwei verschiedene Kommunikationsaufgaben: Die Versuchspersonen mussten sich entweder ein neues Signal ausdenken, etwa eine bestimmte Bewegung des Spielsteins, oder sie konnten auf ein schon eingeübtes zurückgreifen.

Als Sitz des Verstehens erwies sich die rechte obere Schläfenwindung. Hier war die Aktivität hoch, wenn die Versuchsteilnehmer bekannte Aufgaben präsentiert bekamen und sie fehlerfrei miteinander kommunizieren konnten. Mussten die Probanden dagegen neue Signale erfinden, blieb die Aktivität des Hirnareals zunächst noch gering – die Spielerpaare hatten Probleme, sich untereinander zu verständigen. Doch im Lauf der Durchgänge klappte das immer besser. Anne konnte ja sehen, wie Peter ihre Signale deutete, und passte sie beim nächsten Mal entsprechend an. Und mit dem zunehmenden Verständnis stieg auch von Testrunde zu Testrunde die Aktivität in der rechten oberen Schläfenwindung.

Wie eine genaue zeitliche Analyse ergab, schwankte die Hirnaktivität zweier miteinander spielender Versuchspersonen synchron. Diese gemeinsamen Schwankungen setzten bereits ein, bevor in einem Versuchsdurchgang irgendein Zeichen ausgetauscht worden war.

Die Wissenschaftler um Stolk deuten diese gemeinsame Hirnaktivität als Mechanismus, mit dem das Gehirn Verstehen zu Stande bringt. Sie repräsentiere das Wissen über die Situation und den vorangegangenen Austausch zwischen den Partnern, aber weniger über die Kommunikationssignale selbst. Erst durch den neuronalen Gleichklang, der schon vor dem Zeichenaustausch stattfindet, könnten die Signale richtig interpretiert werden.

Der Fokus der Forscher aus Nimwegen lag vor allem auf Kommunikation ohne bekannte Signale. Allerdings verfügen wir im sprachlichen Alltag darüber. Gerade das ist das Besondere menschlicher Sprache: allein mit Zeichen im Gehirn anderer Mitmenschen Vorstellungen jenseits des Hier und Jetzt hervorrufen zu können, über Vergangenes, Zukünftiges oder Fiktives zu reden. Wenn Peter vor dem Fahrkartenautomaten zu Anne sagt: "Ich bin übrigens im Moment voll im Arbeitsstress", versteht sie diesen Satz, obwohl er mit der aktuellen Situation nichts zu tun hat und Annes Gehirn darauf nicht vorbereitet war.

Eine gemeinsame Interpretation der Situation und ein geteiltes Wissen über das, was vorausging, sind sicherlich wichtig für das Verstehen, für den schnellen Schlagabtausch im Dialog und für das Auflösen sprachlicher Mehrdeutigkeiten. Auch bildet das Gehirn Inhalte unabhängig von der sprachlichen Form ab. Aber die These von Arjen Stolk und seinen Kollegen, die Kommunikation laufe vor allem über neuronale Mechanismen, die von konkreten Zeichen losgelöst seien, schießt wohl etwas über das Ziel hinaus. Sprache und Vorstellungen ergänzen und bedingen sich gegenseitig. Zweideutigkeiten wie in der Frage "Wo ist eine Bank?" können sich aus dem Kontext klären (sind wir in einer Geschäftsstraße oder im Park?), aber auch sprachlich. Wenn der Frager weiß, dass die Situation unklar ist, wird er sich nach einer "Bank zum Geldabheben" oder "zum Sitzen" erkundigen, und es bedarf keiner außersprachlichen Informationen, um zu wissen, was gemeint ist.

Die hier vorgestellten Experimente lieferten Informationen darüber, wie Verstehen im Gehirn abläuft. Doch keines beobachtete menschliche Kommunikation in ihrer typischsten Form. Bei den Experimenten aus Princeton fehlte vor allem die Interaktion, bei denen aus Nimwegen waren alle üblichen Kommunikationskanäle wie Sprache, Stimmton, Gesichtsausdruck oder Körperhaltung komplett ausgeschaltet. Auf bildgebende Hirnforschung, die realitätsnahe Alltagsgespräche analysiert, warten wir noch immer.

4/2018

Dieser Artikel ist enthalten in Gehirn&Geist 4/2018

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Vielen Dank!

  • Quellen

Brennan, S. E., Clark, H. H.: Conceptual Pacts and Lexical Choice in Conversation. In: Journal of Experimental Psychology: Learning, Memory and Cognition 22, S. 1482–1493, 1996

Honey, C. J. et al.: Not Lost in Translation: Neural Responses Shared Across Languages. In: Journal of Neuroscience 32, S. 15277–15283, 2012

Lerner, Y. et al.: Topographic Mapping of a Hierarchy of Temporal Receptive Windows Using a Narrated Story. In: Journal of Neuroscience 31, S. 2906–2915, 2011

Levinson, S. C.: Turn-taking in Human Communication – Origins and Implications for Language Processing. In: Trends in Cognitive Sciences 20, S. 6–16, 2016

Menenti, L. et al.: Shared Language: Overlap and Segregation of the Neuronal Infrastructure for Speaking and Listening Revealed by Functional MRI. In: Psychological Science 22, S. 1173–1182, 2011

Noordzij, M. L. et al.: Brain Mechanisms Underlying Human Communication. In: Frontiers in Human Neuroscience 10.3389/neuro.09.014.2009, 2009

Schoot, L. et al.: What Can We Learn from a Two-Brain Approach to Verbal Interaction? In: Neuroscience and Biobehavioral Reviews 68, S. 454–459, 2016

Silbert, L. J. et al.: Coupled Neural Systems Underlie the Production and Comprehension of Naturalistic Narrative Speech. In: PNAS 111, S. E4687-E4696, 2014

Stephens, G. J. et al.: Speaker-Listener Neural Coupling Underlies Successful Communication. In: PNAS 107, S. 14425–14430, 2010

Stolk, A. et al.: Neural Mechanisms of Communicative Innovation. In: PNAS 110, S. 14574–14579, 2013

Stolk, A. et al.: Cerebral Coherence between Communicators Marks the Emergence of Meaning. In: PNAS 111, S. 18183–18188, 2014

Stolk, A. et al.: Conceptual Alignment: How Brains Achieve Mutual Understanding. In: Trends in Cognitive Sciences 20, S. 180–191, 2016

Partnervideos