Direkt zum Inhalt

Hirnforschung: Wie Nervenzellen mit Sprache umgehen

Was geschieht in unserem Denkorgan, wenn wir sprechen oder gesprochene Worte hören?
Was beim Sprechen im Kopf passiert

Beim Wahrnehmen und Produzieren von menschlicher Lautsprache arbeiten verschiedene Regionen der Großhirnrinde eng miteinander zusammen. Mit Hilfe so genannter Neuropixel-Sonden, welche die elektrische Aktivität von hunderten Neuronen gleichzeitig messen, konnten zwei US-amerikanische Forschungsgruppen exakt nachverfolgen, welche Hirnzellen sich beim Hören und Sprechen regen.

Sprache zeichnet sich durch eine zeitliche Aneinanderreihung von Lauten aus, wobei so genannte Phoneme als kleinste bedeutungstragende Elemente zu Silben und Wörtern kombiniert werden. So unterscheiden sich beispielsweise die aus drei Phonemen bestehenden Wörter »Rat«, »rot« und »Tor« nur durch die ein einziges verändertes Phonem (/a/ oder /o/) oder durch eine Neuanordnung der Phoneme (/rot/ oder /tor/).

Trotz großer Fortschritte in der Hirnforschung ist immer noch nicht klar, wie das Gehirn die Identität und die Abfolge solcher Phoneme analysiert. Erkennen bestimmte Neurone jeweils ein einziges Phonem wie /r/, /a/ oder /t/? Oder reagieren vielmehr individuelle Hirnzellen selektiv auf Gruppen von Phonemen, so wie es im visuellen Kortex etwa beim Erkennen von Gesichtern geschieht? Und wie codieren Neurone Phonemsequenzen wie /rot/ oder /tor/?

Um solche Fragen zu klären, hatten bereits andere Wissenschaftlerinnen und Wissenschaftler mittels eingeführter Elektroden beobachtet, was im menschlichen Gehirn beim Sprechen und Hören geschieht. Bei wachen Patienten, die sich einer Hirnoperation unterziehen mussten, gelang 2022 den Arbeitsgruppen von Ziv Williams von der Harvard Medical School sowie von Edward Chang von der University of California in San Francisco Aktivitätsmessungen einzelner Hirnzellen durch Neuropixel-Sonden – was zuvor nur bei Versuchstieren möglich war. Mit dieser bahnbrechenden Methode zeichneten nun Chang und seine Kollegen die neuronale Aktivität im Gyrus temporalis superior des auditorischen Kortex auf. Die so bezeichnete Region verarbeitet Sprachlaute, bevor die Bedeutungen der Wörter von anderen Hirnarealen erfasst werden. Williams' Gruppe konzentrierte sich dagegen auf die Frage, welche Neurone sich beim Sprechen regen. Das Team analysierte daher mit derselben Technik einen Teil des präfrontalen Kortex, der an der Wortplanung und dem Satzbau beteiligt ist (siehe »Hirnaktivität bei gehörter und gesprochener Sprache«).

Koordinierte Zusammenarbeit

Die Analysen der beiden Teams führte zu zwei wichtigen Erkenntnissen. Erstens reagieren tatsächlich einzelne Neurone auf Gruppen von Phonemen. Das entspricht früheren, mittels Elektrokortikografie gewonnenen Ergebnissen, wobei jedoch statt einzelner Zellen hunderte zusammen gemessen wurden. Zweitens offenbarten die jetzigen Studien, wie Neuronenpopulationen bei der Sprachwahrnehmung und -produktion koordiniert zusammenwirken.

Hirnaktivität bei gehörter und gesprochener Sprache | Mit so genannten Neuropixel-Sonden lässt sich die Aktivität von Hunderten von Neuronen im Gehirn simultan aufzeichnen. Diese Technik wandte ein Forschungsteam der University of California in San Francisco auf den Gyrus temporalis superior des auditorischen Kortex von Probanden an, die gesprochene Sprache hörten (links). Mit der gleichen Methode analysierten Forscherinnen und Forscher von der Harvard Medical School die neuronale Aktivität im präfrontalen Kortex – einer Hirnregion, die an der Wortplanung mitwirkt (rechts). Wie beide Teams dabei herausfanden, reagieren einzelne Hirnzellen auf bestimmte Sprachmerkmale wie die Positionen der Phoneme als kleinste bedeutungstragende sprachliche Einheiten innerhalb eines Worts. So aktivieren die drei Phoneme des gehörten oder gesagten Begriffs »Rat« unterschiedliche Neuronenpopulationen.

Sobald die Versuchsteilnehmer Sprache hörten, reagierten Neurone sowohl im auditorischen als auch im präfrontalen Kortex auf ähnlich artikulierte Phonemklassen und nicht speziell auf einzelne Phoneme. Dabei regten sich jeweils Hirnzellen, die im auditorischen Kortex räumlich nahe beieinanderlagen. Deshalb konnten die Probanden schlecht zwischen Wörtern unterscheiden, die – wie die englischen Begriffe »dog« und »dug« – zwar aus verschiedenen Phonemen bestehen, letztere aber aus derselben Lautgruppe stammen. Im Gegensatz dazu aktivierten Wörter mit Phonemen aus unterschiedlichen Gruppen (wie »dog« und »dig«) auch jeweils andere Neuronenpopulationen.

Darüber hinaus antworteten die Zellen des auditorischen Kortex ebenfalls bei nicht sprachlichen Signalen wie Satzanfängen jeweils unterschiedlich. Die Gruppierung von auf ähnliche Reize spezialisierten Neuronen erinnert an die Organisation in »kortikale Säulen«, die sich über mehrere Schichten der Großhirnrinde erstrecken. Damit scheinen räumlich begrenzte Neuronenpopulationen als Recheneinheiten für die Sprachverarbeitung zu dienen, die sprachspezifische Informationen mit anderen akustischen Reizen zusammenführen. Eine solche Integration könnte erklären, wieso wir dieselben Phoneme von verschiedenen Sprechern oder bei geänderter Tonlage immer noch erkennen.

Räumlich begrenzte Neuronenpopulationen dienen als Recheneinheiten für die Sprachverarbeitung

Wie die Messungen aus Williams' Arbeitsgruppe zeigten, regten sich bestimmte Neurone im präfrontalen Kortex nicht nur dann, wenn die Probanden Begriffe mit ähnlich klingenden Phonemen formulierten, sondern auch bei nur gedachten, noch nicht ausgesprochenen Wörtern. Die zeitlichen Aktivitätsmuster der Neuronenpopulationen spiegelten somit die Wortplanung des Gehirns wider, so dass die für bestimmte Phoneme zuständigen Hirnzellen schon vor dem Aussprechen der Silbe tätig wurden. Eine derartige vorauseilende Hirnaktivität ließ sich gleichfalls im motorischen Kortex von still sitzenden Rhesusaffen (Macaca mulatta) beobachten, unmittelbar bevor sich die Tiere bewegten. Hier scheint sich ein allgemeines Prinzip der motorischen Produktion zu verbergen.

Die sich ergänzenden Ansätze der beiden Teams könnte das Verständnis über Ähnlichkeiten und Unterschiede beim auditorischen und präfrontalen Kortex verbessern. Hier stellt sich immer noch eine Schlüsselfrage. Wie übersetzt das Gehirn den Wortklang in eine Sequenz koordinierter neuronaler Aktivitäten, die nötig sind, um durch Muskelbewegung das Wort richtig auszusprechen? Oder anders formuliert: Wie übermittelt der auditorische Kortex gehörte Informationen an motorische Zentren für eine korrekte Sprachproduktion?

Simultane Aufzeichnungen aus dem auditorischen sowie dem präfrontalen Kortex sollten das Rätsel lösen, wie die Produktion und die Wahrnehmung von Sprache zusammenlaufen und wie Informationen von den jeweiligen Hirnzentren hin- und herfließen. Wenn wir verstehen, wie sich dieser bidirektionale Informationsfluss während der kindlichen Entwicklung herausbildet, kommen wir dem Geheimnis der menschlichen Sprache einen entscheidenden Schritt näher.

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.