Direkt zum Inhalt

Sprachwissenschaft: Artikulatorische Mundwinkelzüge

Zupft man jemandem beim Reden an den Mundwinkeln, klingt das Ergebnis irgendwie seltsam. Noch seltsamer ist allerdings, dass auch der Umkehrschluss gilt: Zieht man uns an der Wange, hören wir anders - zumindest ein bisschen.
Versuchsaufbau zum Verschieben der Wangen
Das Geräusch, das wir Reden nennen, als solches zu erkennen, zu analysieren und die vielen halb verschluckten oder mit anderen verschmolzenen Einheiten aus dem ununterbrochenen Lautstrom zu filtern, stellt eine Aufgabe dar, deren Nachbildung Techniker regelmäßig zur Verzweiflung bringt. Ganz im Gegensatz zu unserem Gehirn, das den gleichen Prozess mühelos besorgt. Allerdings kann es dazu auf einen umfangreichen Apparat an Hilfssystemen zurückgreifen – doch der lässt sich mit cleveren Experimenten aus dem Tritt bringen.

Eine solche Stütze ist das Lippenlesen: Sieht man einen Sprecher, der die Silben "ga ga ga" artikuliert, und hört gleichzeitig einen anderen "ba ba ba" sagen, liegt der Sinneseindruck irgendwo in der Mitte: Es klingt nach "da da da". Diesen so genannten McGurk-Effekt kann man sich unter dem unten angegebenen Link anschauen.

Richtig raffiniert ging es nun bei David Ostry und seinen Kollegen von der McGill University in Montreal zu. Die Forscher hatten aus Aufnahmen der englischen Wörter "head" (Kopf) und "had" (hatte) Zwischenstufen gebastelt, bei denen aus einem klar erkennbaren "head" schrittweise ein "had" wurde (siehe Audio-Datei).
Versuchsaufbau zum Verschieben der Wangen | Mit diesem Apparat verschoben die Wissenschaftler die Wangen ihrer Probanden. Zupften sie im richtigen Moment, änderte sich die Lautwahrnehmung ihrer Teilnehmer.
Dann bestimmten sie, ab welcher Stufe die Wahrnehmung vom einen zum anderen Wort umsprang. Somit hatten sie eine Vergleichsbasis für den eigentlichen Versuch.

Denn nun zogen sie den Teilnehmern jedes Mal an den Wangen, wenn der Vokal erklang. Wurden die Mundwinkel nach unten gedrückt, verschob sich die Grenze so, dass die Probanden öfter "had" hörten. Zogen sie diese nach oben, klangen die Aufnahmen stärker nach "head". Zupften sie unrhythmisch an der Wange oder zogen sie nach hinten, blieb der Effekt aus.

Die Unterschiede in der Wahrnehmung sind zwar nicht sonderlich stark ausgeprägt – sie erschließen sich eher aus der statistischen Auswertung der Versuchsprotokolle –, aber ihre bloße Existenz deutet auf ein weiteres dieser Hilfssysteme hin, dessen Wirken bislang vor allem im Reich der Spekulation beheimatet war.

Es steht im Zentrum einer Theorie aus den 1960er Jahren. Damals vermutete der US-amerikanische Psychologe Alvin Liberman, dass Zuhörer unbewusst mitartikulieren, wenn sie Sprache hören. Es sei, als ob sie die Mundbewegungen ihres Gegenübers simulierten. In der Tat haben Hirnscans mittlerweile aufgezeigt, dass während der Sprachverarbeitung auch Zentren für die Mund- und Zungenbewegung in Anspruch genommen werden. Es ließen sich auch schwache Nervenimpulse an der Muskulatur im Mund ableiten.

Für Phonetiker unterscheiden sich die beiden englischen Ausdrücke "head" und "had" durch einen verschieden weit geöffneten Mund und damit auch einer jeweils anderen Spannung der Gesichtshaut. Das künstliche Ziehen beeinflusst nun die interne Simulation, die daraufhin falsche Daten liefert: Der mit dem Ohr aufgenommene Laut wird falsch interpretiert. Ostry sieht darin einen Beleg für die Theorie Libermans: Stumm mitzuartikulieren hilft, Sprache zu verstehen.

Manche Forscher spekulieren sogar noch ein Stückchen weiter: Ihnen zufolge ist die Simulation des Gegenübers gar kein Hilfssystem, sondern vielmehr das Kernstück jeder Sprachverarbeitung. Als unsere urmenschlichen Vorfahren zu kommunizieren lernten, konnten sie mit ihr die Handgesten anderer deuten, indem sie es "am eigenen Leib" nachvollzogen. Aus der Geste wurde irgendwann die Bewegung von Zunge, Lippe und Mund – und damit schließlich unsere Sprache.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen
Ito, T. et al.: Somatosensory funtion in speech perception. In: Proceedings of the National Academy of Sciences 10.1073/pnas.0810063106, 2009.

Partnerinhalte