Wenn der Bürokollege mit seiner Mutter telefoniert, schwäbelt er. Ruft er hingegen die Berliner Zentrale an, spricht er astreines Hochdeutsch. Viele Menschen beobachten diesen Effekt verblüfft an ihren Mitmenschen – und merken nicht, dass er sie selbst ebenso betrifft: Wir passen uns sprachlich unwillkürlich an unsere Mitmenschen an. Während manche Menschen den Wechsel zwischen Dialekt und Hochdeutsch teilweise bewusst steuern können, geschehen viele andere Anpassungen unterbewusst: Wenn sich zwei Menschen unterhalten, benutzen sie zunehmend die gleichen Wörter, zugleich werden ihre Aussprache und ihre Betonung im Verlauf des Gesprächs immer ähnlicher. Mit diesem Effekt, der sprachlichen Konvergenz, beschäftigt sich die Sprachwissenschaft seit den 1960er Jahren, aber noch ist nicht erforscht, was genau dabei passiert und aus welchen Gründen sich manche Menschen mehr und manche weniger aneinander anpassen.

Die Wissenschaftlerin Natalie Lewandowski vom Institut für Maschinelle Sprachverarbeitung der Universität Stuttgart hat jetzt einen unerforschten Faktor entdeckt, der Widersprüche der bisherigen Forschung auflöst: das sprachliche Talent. Sie ließ sprachbegabte und weniger eloquente Deutsche mit englischsprachigen Muttersprachlern im Labor kommunizieren, nahm die Gespräche auf und wertete sie mit modernen computerlinguistischen Methoden aus. Das Ergebnis ist eindeutig: Wer ein größeres Talent für Fremdsprachen hat, also die Feinheiten von Sprache besser aufnimmt, passt sich auch mehr an seinen Gesprächspartner an. Sprachbegabte Menschen können fremde Laute besser nachahmen – und tun dies auch unterbewusst.

Wer den Gesprächspartner sympathisch findet, passt sich an

"Bisherige Studien zu Konvergenz fanden eine enorme Varianz", erklärt sie: Während sich manche Probanden stark anpassten, schienen andere dem nahezu komplett zu widerstehen. Mit den bestehenden Ansätzen ließ sich das nicht schlüssig erklären. Sie widersprechen sich vielmehr: Anhänger der so genannten Kommunikations-Akkommodationstheorie wie der US-amerikanische Kommunikationswissenschaftler Howard Giles von der University of California in Santa Barbara gehen davon aus, dass die sprachliche Anpassung "den Wunsch nach sozialer Anerkennung widerspiegelt": Wer den Gesprächspartner sympathisch findet oder ihn beeindrucken will, passt sich sprachlich an.

Flüsternde Kinder
© fotolia / Markus Bormann
 Bild vergrößernFlüsternde Kinder
Wenn sich zwei Menschen unterhalten, benutzen sie zunehmend die gleichen Wörter, zugleich werden ihre Aussprache und ihre Betonung im Verlauf des Gesprächs immer ähnlicher.

Kritiker dieser Theorie wie der Edinburgher Psychologieprofessor Martin Pickering widersprechen: Konvergenz beruhe auf einem automatischen Mechanismus, der von den Sprechern nicht beeinflusst werden kann. "Für beides gibt es Belege", sagt Natalie Lewandowski, "aber die Lösung liegt dazwischen." Menschen stellen sich aufeinander ein, wenn sie sich sympathisch finden. Sie können das teilweise, aber eben nicht ganz beeinflussen. Denn auch das belegt Lewandowskis Forschung: Bewusst können wir die Anpassung nicht ganz ausschalten. Lewandowski gab den Muttersprachlern in ihrem Experiment die Aufgabe, sich sprachlich nicht anzupassen. Sie sollten ihre Aussprache beibehalten, ganz egal, wie ihr Gegenüber spreche. "Sie konnten ihre Ausspracheanpassung nicht verhindern", so ihr Ergebnis: "Sie kamen ihren deutschen Gesprächspartnern trotzdem entgegen."

Eine solche Anpassung in der Aussprache führt letztlich auch dazu, dass sich Sprache verändert. Über viele Jahre hinweg ergibt sich dadurch ein Lautwandel, der sich in Deutschland beispielsweise im Vergleich der Dialekte gut beobachten lässt: So ist im Schwäbischen das stimmhafte "s" verloren gegangen. Worte wie reisen und reißen klingen dort gleich. Im Norden hingegen klingt ein "r" nach Vokalen eher wie ein "a". Auch der englische Laut "a" änderte sich im Lauf der Zeit: Während er noch vor 50 Jahren ähnlich wie "ä" ausgesprochen wurde, nähert er sich heute unserem "a".

Lautwandel in den Weihnachtsreden der Queen

Dass solche Veränderungen tatsächlich bis hinab in die Sprache einer einzigen Person vorkommen, konnte der australische Phonetiker Jonathan Harrington schon im Jahr 2000 nachweisen. Er verglich dafür die Weihnachtsreden von Königin Elizabeth II über einen Zeitraum von 30 Jahren. Eine genialer Schachzug, denn es ist nicht einfach, geeignetes Forschungsmaterial für eine solche Theorie zu finden. "Der Lautwandel ist von Jahr zu Jahr sehr gering", sagt Harrington, "wir brauchten jemanden, der über viele Jahre ein sehr ähnliches Material geliefert hat: Es blieb fast niemand anderes als die Queen und ihre Weihnachtsreden."

"Es blieb fast niemand anderes als die Queen und ihre Weihnachtsreden."
(Jonathan Harrington)

Harrington und seine Mitarbeiter an der Macquarie Universität Sydney digitalisierten die Reden, analysierten die Frequenzen der Vokale aus den 1950er und aus den 1980er Jahren und verglichen diese mit denen von fünf Nachrichtensprecherinnen aus den 1980er Jahren. "Wenn der Lautwandel einen Einfluss auf den Vokalraum der Königin hatte, müssten ihre Vokale aus den späteren zwischen ihren aus den früheren Jahren und denen des Nachrichtensprechers sein", so Harrington. Das war in der Tat so.

Die Queen hatte sich angepasst und klang dadurch in den Ohren ihres Volks "nicht mehr so aristokratisch". Macht die Queen das absichtlich, weil sie sich volksnäher geben wollte? Harrington glaubt nicht: "Die Änderungen sind von Jahr zu Jahr zu klein, als dass man das bewusst machen könnte."

Moderne technische Möglichkeiten für große Datenmengen

Die Forschung zur sprachlichen Anpassung unterliegt aktuell einem Wandel: Noch bis in die 1970er Jahre wurde der Effekt, den der Gegenüber auf den Sprecher ausübt, vernachlässigt. Erst die Soziolinguistik stellte damals die These auf, dass sich Menschen aneinander anpassen. "Damals wurden ganz andere Methoden genutzt", sagt Antje Schweitzer vom Institut für Maschinelle Sprachverarbeitung der Universität Stuttgart. Weil zur Sprachauswertung keine computergestützten Modelle genutzt werden konnten, spielten gröbere Faktoren eine Rolle. Beispielsweise die Dauer der Äußerungen oder die Lautstärke des Gesprächs. "Damals entstand eine breiter gefasste Kommunikationstheorie", sagt Antje Schweitzer: Auch die Gestik und die Kleidung waren im Fokus der Forscher – Faktoren, die unumstritten auch bewusst gesteuert werden können.

Reden im Gleichtakt
© fotolia / Dmytro Konstantynov
 Bild vergrößernReden im Gleichtakt
Wer aufmerksam den Erzählungen eines anderen folgt, zeigt die gleiche Hirnaktivität wie dieser: Die Gehirne scheinen förmlich im Gleichtakt zu schwingen – je stärker, desto besser die Kommunikation.

Angesichts moderner technischer Möglichkeiten erforscht die Linguistik heute Feinheiten wie die phonetische Annäherung auf Lautebene, die im Alltag weniger offensichtlich ist und damit auch weniger bewusst gesteuert werden kann. "Erst jetzt kann man natürliche Sprache und damit große Datenmengen auswerten", sagt Schweitzer. Dennoch geschieht dies hauptsächlich in den USA. Für die deutsche Sprache gibt es kaum aktuelle Forschung zur phonetischen Konvergenz. Eines der größten Projekte seiner Art findet derzeit in Stuttgart statt. Unter dem Arbeitstitel "Wie klingt Sympathie?" ergründen die Stuttgarter Wissenschaftler um Antje Schweitzer und Natalie Lewandowski, wieso sich Menschen sprachlich aneinander anpassen und wie genau sich das auf die Sprache auswirkt. Eine Grundlage ist Lewandowskis neuer Ansatz eines hybriden Modells, das sowohl psychologische Faktoren und Unterschiede im Sprachtalent als Ursache der Anpassung annimmt als auch automatische Komponenten.

Um möglichst natürliches Material zu erhalten, baten sie Probanden zu insgesamt 46 Dialogen ins Labor. Sie sollten sich eine halbe Stunde lang über ein beliebiges Thema unterhalten. Im Anschluss wurden die Probanden einem Persönlichkeitstest unterzogen und mussten Fragen beantworten wie die, ob sie ihren Gesprächspartner sympathisch fanden und wie kompetent sie ihn einschätzen. "Wir wollen möglichst viele Parameter erforschen", so Schweitzer. Die Daten werden derzeit mit computergestützten Methoden ausgewertet, um verschiedene Faktoren zu erkennen: Dabei zählt der Klang ebenso wie die Länge der Sprachbeiträge, die Pausen und bestätigende Kommentare wie "hmm" oder "ja", die ein Sprecher einfließen lässt, während er seinem Gegenüber zuhört.

Solche so genannten Backchannels, so die erste Erkenntnis des Projekts, produzieren Menschen umso gehäufter, je kompetenter sie ihren Gesprächspartner einschätzen. Und sie haben vermutlich einen Einfluss darauf, wie natürlich ein Gespräch empfunden wird, so die Bielefelder Linguistin Petra Wagner. "Sie vermitteln: Ich höre dir zu, ich bin noch am Ball."

Auch Lachen färbt aufs Gegenüber ab

Auch Lachen während eines Gesprächs dient ähnlichen Zwecken, wie Jürgen Trouvain von der Universität des Saarlandes in Saarbrücken nachweisen konnte. Während üblicherweise in einem Gespräch immer nur einer spricht, überschneiden sich Lacher häufig: "Die Menschen lachen, während sie Silben artikulieren oder während der Gesprächspartner spricht." Diese so genannten Sprechlacher, wie Trouvain sie nennt, spielten in der Linguistik bis dato keine Rolle.

"Diese Konvergenz spiegelt wider, wofür Lachen da ist. Man festigt das soziale Band zum anderen"
(Jürgen Trouvain)

Trouvain untersuchte die akustische Struktur, die Phonetik des Lachens und kann heute viele verschiedene Formen vom Grunzen über das Schnauben bis zum lauten, stimmhaften Lachen beschreiben. Aktuell beschäftigt ihn die Frage, was Lachen natürlich klingen lässt. "Solche Erkenntnisse könnten Autisten helfen, Lachen einzuordnen, oder auch Sozialphobikern, die Angst davor haben, ausgelacht zu werden." Denn Gesprächslacher sind selten Auslacher. Meistens erfüllen sie eine ähnliche Funktion wie die oben genannten Backchannels. Derzeit analysiert der Phonetiker große Corpora von natürlicher Sprache mit Zehntausenden von Lachern. Eines kann er schon sicher sagen: Lachen färbt ab – lacht ein Gesprächspartner mehr, passt sich sein Gegenüber an. Auch wie lange und wie häufig jemand lacht, überträgt sich auf die Mitmenschen. "Diese Konvergenz spiegelt wider, wofür Lachen da ist", sagt Trouvain: "Man festigt das soziale Band zum anderen."

Die Annäherung beim Sprechen und Lachen macht ein Gespräch zudem effektiver, wie die Forschung ergeben hat. "Konvergenzeffekte haben offenbar einen positiven Einfluss auf das Verstehen", sagt Wagner. Denn wenn Menschen sich im Gespräch aneinander angleichen, geschieht das nicht nur auf der Lautebene, sondern auch auf der inhaltlichen Ebene, so Wagners Beobachtung: "Man fängt an, ähnlich zu denken."

Die Bielefelder Forschung zielt unter anderem auf die Interaktion zwischen Mensch und Maschine ab: Wenn Computer im Dialog mit Menschen im richtigen Moment und Rhythmus Feedback produzieren, werden sie vermutlich natürlicher klingen. Es würde das Gespräch mit ihnen vereinfachen. Damit Computer lernen können, sich auf Menschen einzustellen und sich ihnen im Gespräch anzugleichen, müssen Forscher ein Modell der Dynamik der menschlichen Sprache erstellen – und das kommt ohne Konvergenz nicht aus.