Direkt zum Inhalt

Die Schallortung der Schleiereule

Untersuchungen an diesem nächtlichen Mäusejäger geben Aufschluß darüber, wie das Gehirn einen an beiden Ohren versetzt eintreffenden akustischen Reiz zu einer einzigen, räumlich definierten Wahrnehmung verarbeitet. Das Prinzip der Verrechnung, beim Menschen wohl ganz ähnlich, könnte sogar Vorbild für höchstintegrierte Schaltkreise sein.

Mit zwei Ohren hört man besser als mit einem, vor allem, wenn es darum geht, die Richtung einer Schallquelle rasch auszumachen – sei es das warnende Hupen eines Autos oder das alarmierende Wimmern eines Kindes. Das Gehirn vergleicht die Sinnesinformationen beider Ohren und setzt die ermittelten Unterschiede zu einem einheitlichen räumlichen Höreindruck um. Die Unterschiede ergeben sich aus dem Abstand der beiden Ohren. Nur wenn der Schall direkt von vorn, hinten, oben oder unten kommt, trifft er zur gleichen Zeit und mit gleicher Intensität an beiden Trommelfellen ein. Kommt er dagegen aus einem anderen Winkel, also von außerhalb der Scheitelebene, so erreicht er das entferntere Ohr etwas später als das nähere und auch etwas leiser, weil ein Teil vom Kopf absorbiert oder abgelenkt wird.

Daß das Gehirn mit solchen Laufzeit- und Intensitätsdifferenzen arbeitet läßt sich eindrucksvoll bei Versuchen mit Kopfhörern zeigen. Zwei gleiche Töne, die jedem Ohr separat zugespielt werden, nehmen wir – solange sie zeitlich nahe genug beieinander liegen – als einen einzigen wahr, der von irgendwo innerhalb oder außerhalb unseres Schädels zu kommen scheint. Mitten im Kopf entspringt er vermeintlich, wenn beide Reize gleichzeitig und gleich laut erzeugt werden. Reizt der Experimentator aber ein Ohr entweder leiser oder etwas später, dann scheint die Schallquelle sich in Richtung des anderen Ohrs verschoben zu haben.

Das alles ist seit langem bekannt. Weit weniger wissen wir darüber, wie das Gehirn solche Laufzeit- und Intensitätsdifferenzen ermittelt und letztlich zu einem räumlichen Höreindruck vereinigt. Meine Kollegen und ich am California Institute of Technology (Caltech) in Pasadena forschen darüber seit mehr als fünfzehn Jahren, und zwar durch verhaltens- und neurobiologische Studien an der Schleiereule (Tyto alba). Erst vor einiger Zeit konnten wir den Verarbeitungsvorgang fast in allen Schritten aufklären. (Das einzige andere ebenso vollständig erforschte sensorische System ist der Elektrosinn eines elektrischen Fischs, worauf ich noch eingehe).

Wir haben herausgefunden, daß das Eulengehirn die verschiedenen räumlichen Merkmale der Hörreize nicht auf einmal, sondern in einer erstaunlichen Folge von Einzelschritten ermittelt und schließlich kombiniert: Informationen über Laufzeit und Intensität werden unabhängig voneinander in parallelen Nervenbahnen verarbeitet, die erst sehr spät konvergieren. Höchstwahrscheinlich erfolgt eine solche binaurale (beidohrige) Verknüpfung bei Säugern – so auch beim Menschen – auf ganz ähnliche Weise.

Lautsprecher-Experimente

Auf die Idee, das räumliche Hören von Eulen zu untersuchen, kam ich 1963 durch einen Vortrag von Roger S. Payne, der inzwischen am Walschutz-Institut in Lincoln (Massachusetts) tätig ist; er berichtete, daß die Schleiereule auch bei völliger Dunkelheit Mäuse fangen kann und sich dabei ausschließlich an akustischen Reizen orientiert (Bild 1).

Damals, als eben promovierter Zoologe, interessierte ich mich dafür, wie Tiere eine Schallquelle orten können, war aber noch unschlüssig, welche Spezies ich wählen sollte. Drei Jahre später, an der Universität Princeton (New Jersey), konnte ich mich selbst von den unglaublichen Hörleistungen der Schleiereule überzeugen, nachdem ich drei Exemplare von einem Vogelschützer erworben hatte. Als ich einen der Vögel in einem völlig verdunkelten Raum mit einer Infrarot-Videokamera beobachtete, beeindruckte mich die Geschwindigkeit und Präzision, mit der er seinen Kopf in Richtung eines Geräuschs drehte. Mittels dieser Verhaltensreaktion als Indikator, so überlegte ich, ließe sich vielleicht feststellen, ob Schleiereulen zur Lokalisierung von Schallquellen Informationen beider Ohren verknüpfen; und wenn, dann könnte die Untersuchung ihres Gehirns helfen, den neuronalen Mechanismus aufzuklären.

Wie erwartet, erwies sich die Kopfdreh-Reaktion als äußerst nützlich. Nachdem ich 1975 am Caltech ein eigenes Labor erhalten hatte, konnten Eric I. Knudsen – heute an der Universität Stanford (Kalifornien) – und ich als erstes indirekt belegen, daß die Schleiereule ähnlich wie der Mensch die Informationen beider Ohren kombinieren muß, um eine Schallquelle zu orten: War eines schalldicht verstopft, dann drehten die Tiere zwar den Kopf, wenn ihnen über einen Lautsprecher ein Geräusch vorgespielt wurde, doch zentrierten sie ihn nicht in dessen Richtung.

In den frühen achtziger Jahren wiesen Andrew Moiseff und ich dann nach, daß die Schleiereule ihre Richtungsinformation sowohl aus Laufzeit- als auch aus Intensitätsunterschieden ermittelt. Wir bestimmten diese Differenzen, indem wir einen Lautsprecher sukzessive auf einer gedachten Kugeloberfläche um den Kopf der Eule als Mittelpunkt bewegten und über Mikrophone in den Ohren des Tieres die ankommenden Signale an eine Meßapparatur weiterleiteten, mit der sich Ankunftszeit und Intensität bestimmen ließen. Bei der Verschiebung der Schallquelle aus der Mittellinie des Kopfes (Nullinie) bis zu 90 Grad nach links oder rechts vergrößerte sich mit dem Winkel auch die Laufzeitdifferenz zwischen beiden Ohren (Bild 2 oben). Das entsprach weitgehend dem, was man vom Menschen kennt. Anders aber als beim Menschen wurde dabei die Intensitätsdifferenz nicht merklich größer. Das geschah erst, wenn wir den Lautsprecher, bezogen auf die Augenhöhe der Eule, auf oder abwärts bewegten und sofern der Reiz Frequenzanteile von mehr als drei Kilohertz (also von mehr als 3000 Schwingungen pro Sekunde) enthielt.

Payne, der die gleichen Intensitätsveränderungen schon früher beobachtet hatte, schrieb diesen Effekt der asymmetrischen Anordnung der Eulenohren zu: Das linke Ohr liegt etwas oberhalb der Augen und ist leicht abwärts gerichtet, das tiefere rechte dagegen leicht aufwärts. (Vögel haben keine Ohrmuschel, und ihr äußerer Gehörgang ist lediglich ein kurzes Rohr, dessen Öffnung bei der Schleiereule zu den Augen hin mit einer beweglichen Hautfalte bedeckt ist; der typische Gesichtsschleier, ein Kranz kurzer Federn, wirkt als Schalltrichter.) Dadurch spricht das linke Ohr empfindlicher auf Laute von unten an, das rechte auf solche von oben (Bild 2 Mitte).

Ohrhörer-Experimente

Da wir mithin wußten, daß Reizzeit und Intensität zwischen beiden Ohren häufig differieren, konnten wir nun die Frage angehen, ob die Schleiereule tatsächlich Kombinationen solcher interauralen Unterschiede zum Orten von Schallquellen benutzt. Eigentlich hatten wir geplant, zahmen Tieren handelsübliche Kopfhörer aufzusetzen, um ihnen so für jedes Ohr getrennt variierbare akustische Reize zuspielen zu können, und zwar zeitversetzt oder unterschiedlich laut oder beides zugleich. Leider wollten unsere Probanden dies nicht; sie schüttelten die Kopfhörer ab und zogen sich zurück. Es blieb uns nichts anderes übrig, als winzige Geräte zu beschaffen, die sich in den Gehörgang einführen ließen.

Außerdem mußten wir eine Methode finden, die Kopfdrehung zuverlässig zu messen, und zwar die horizontale wie die vertikale Bewegungskomponente. Das ließ sich weitgehend mit der Detektorspulen-Technik lösen, die Gary G. Blasdel, der inzwischen an der Harvard-Universität in Cambridge (Massachusetts) tätig ist, einige Jahre zuvor entwickelt hatte: Wir befestigten zwei kleine Kupferdrahtspulen, die eine quer zur anderen, am Kopf der Eule. Dann brauchten wir während des Versuchs das Tier nur zwischen zwei große stromführende Spulen zu setzen; bei jeder Kopfbewegung wurde in den kleinen Detektorspulen ein Strom induziert, aus dessen Änderung sich die horizontalen und vertikalen Winkel der Kopfbewegung ermitteln ließen – und damit die Richtung, aus der die Eule etwas zu hören glaubte.

Tatsächlich reagierten die Vögel sehr rasch auf die Signale aus den Ohrhörern, nicht anders als auf eine Schallquelle in der Umwelt. Wurde das Signal beiden Ohren nacheinander, aber mit konstanter Lautstärke zugespielt, dann drehte das Tier den Kopf – zumeist horizontal – nach der zuerst gereizten Seite, und zwar um so weiter, je größer die Zeitdifferenz war. Wenn wir statt dessen nur die Intensität veränderten, bewegte es gewöhnlich den Kopf auf oder ab. Kamen lautes und leises Signal auch noch zeitverschoben an, enthielt die Bewegung sowohl horizontale wie vertikale Komponenten.

Tatsächlich veranlaßten simulierte Kombinationen von interauralen Laufzeit- und Intensitätsdifferenzen, wie wir sie zuvor bei einer bestimmten Position eines Lautsprechers gemessen hatten, den Vogel nun, seinen Kopf exakt in Richtung der scheinbaren Position der Schallquelle zu drehen. Wir konnten darum sicher sein, daß das Eulengehirn aus Zeit- und Intensitätsinformationen die horizontalen und vertikalen Koordinaten einer Schallquelle zu bestimmen vermag. (Wie deren Entfernung bestimmt wird, ist dagegen weniger klar.)

Ortsspezifische Zellen

Um herauszufinden, wie die binaurale Verknüpfung bewerkstelligt wird, mußten wir das Gehirn selbst untersuchen. Dabei konnten wir auf frühere Arbeiten von Knudsen und mir zurückgreifen. Wir hatten damals Nervenzellen identifiziert, von denen man inzwischen weiß, daß sie für das Orten einer Schallquelle wesentlich sind. Man bezeichnet sie als ortsspezifische Neuronen, weil sie nur auf akustische Reize reagieren, die aus bestimmten Bereichen im Raum, ihrem rezeptiven Feld, kommen. Ihre Zellkörper sitzen im äußeren Kern (Nucleus externus) der paarigen Hörregion des Mittelhirns, die dem hinteren Vierhügelpaar (Colliculi inferiores) der Säuger entspricht (siehe Kasten auf Seite 64).

Diese ortsspezifischen Zellen konnten wir nachweisen, indem wir bei narkotisierten Tieren nadelfeine Mikroelektroden an sie heranführten. Beläßt man eine solche Elektrode in einer bestimmten Position und bewegt den Lautsprecher wieder auf verschiedenen Bahnen um den Eulenkopf, antworten gewisse Neuronen nur dann mit Impulsen, wenn das Geräusch aus einem bestimmten Bereich des Hörraums, eben ihrem zugehörigen rezeptiven Feld, kommt. Eines dieser ortsspezifischen Neuronen feuerte beispielsweise lediglich, wenn sich der Lautsprecher – während die Eule geradeaus blickte – in einem Feld bis zu 20 Grad links von der Sichtlinie und bis 30 Grad darüber oder darunter befand. Für andere Stellen sind andere ortsspezifische Neuronen zuständig.

Die rezeptiven Felder der ortsspezifischen Neuronen im linken Kern ergeben zusammen so etwas wie eine Karte der rechten Hälfte des Hörraums, die des rechten Kerns dagegen eine der linken Hälfte, wobei sich beide etwas überschneiden (Bild 3). Aber wie kamen diese Neuronen zu ihrer Richtungsinformation? Verarbeiteten sie die wesentlichen Reizmerkmale selbst? Oder wurden diese von einer untergeordneten Relaisstation oder mehreren entlang der Hörbahn extrahiert und bis zu einem gewissen Grade kombiniert, so daß nur das Ergebnis an höhere Instanzen weiterging?

Moiseff und ich gedachten diese Frage wieder mittels Ohrhörer-Experimenten zu beantworten. Doch zuvor mußte garantiert sein, daß übermittelte Schallreize, die bestimmte ortsspezifische Neuronen erregten, auch wirklich jene interauralen Reizzeit- und Intensitätsdifferenzen simulierten, wie sie unter den natürlicheren Bedingungen auftraten, wenn ein Lautsprecher innerhalb des rezeptiven Feldes ertönte. Eine Testreihe gab den erhofften Aufschluß: Die Zellen reagierten auf bestimmte, dem Tier über Ohrhörer zugespielte Signalkombinationen besonders stark, wenn die Zeit- und Intensitätsdifferenzen genau jenen entsprachen, auf die hin das Tier seinen Kopf auf einen Punkt im jeweils zugehörigen rezeptiven Feld gerichtet hätte. Unser Ansatz war also sinnvoll.

Parallelverarbeitung

Als erstes versuchten Moiseff und ich entlang der Relaisstationen vom Hörnerv zum Mittelhirn Neuronen zu finden, die spezifisch auf interaurale Zeit- oder Intensitätsdifferenzen ansprachen. Diese vorbereitenden, 1983 abgeschlossenen Experimente legten nahe, daß gewisse Zwischenstationen nur auf Zeitdifferenzen reagierten, andere nur auf Intensitätsdifferenzen. Das Gehirn der Schleiereule schien demnach wie ein Parallelcomputer zu funktionieren: Es verarbeitet beide Informationen in verschiedenen Schaltkreisen.

Dies veranlaßte uns, nach weiteren Indizien für Parallelverarbeitung zu suchen. Zusammen mit Terry T. Takahashi, der heute an der Universität von Oregon in Eugene arbeitet, begannen wir auf der untersten Stufe der Hörbahn im Gehirn: den Schnecken- oder Cochlea-Kernen (siehe Kasten auf Seite 64). Es gibt auf jeder Seite zwei davon den – wörtlich – großzelligen Kern (Nucleus magnocellularis) und den winkligen Kern (Nucleus angularis). Wie bei anderen Vögeln teilt sich auch bei der Eule jede einzelne Faser des Hörnervs nach dem Verlassen des Innenohrs in zwei Zweige auf; einer führt zum Magnocellularis, der andere zum Angularis.

Wir fragten uns, wie sich die ortsspezifischen Neuronen im Mittelhirn wohl verhalten würden, wenn wir die Nervenzellen in einem dieser beiden Kerne durch eine winzige Menge eines Lokalanästhetikums lahmlegten. Das Ergebnis war beeindruckend: War der Magnocellularis betäubt, dann reagierten die ortsspezifischen Neuronen nicht mehr korrekt auf interaurale Laufzeit-, sehr wohl aber auf Intensitätsdifferenzen. Den umgekehrten Effekt beobachteten wir, wenn der Angularis betäubt war. Offensichtlich werden Zeit und Intensität getrennt verarbeitet, zumindest auf den untersten Relaisstationen der Hörbahn; die Neuronen im Magnocellularis leiten dabei die Zeitinformation weiter, die im Angularis die Intensitätsinformation.

Als ich aufgrund dieser aufregenden Befunde Takahashi die Verbindungen zwischen Neuronen verschiedener Relaisstationen der Hörbahn kartieren ließ, ergab sich, daß von den Cochlea-Kernen zwei getrennte Fasersysteme bis zum Mittelhirn ziehen. Das ist eine weitere, diesmal anatomische Stütze für unser Modell der Parallelverarbeitung.

Unterdes untersuchte ich mit einem anderen Studenten, wie im Magnocellularis die Zeit- und im Angularis die Intensitätsinformation aus den Signalen des Hörnervs gewonnen wird. Um unsere Entdeckungen zu verstehen, muß man wissen, daß natürliche akustische Reize sich meist aus Schallwellen verschiedener Frequenz zusammensetzen. Diese bringen letztlich die mit Hörsinneszellen bestückte Basilarmembran des Innenohrs zum Schwingen, wobei sich Wanderwellen ausbilden. Bei jeder Frequenz wird ein anderer Abschnitt der Membran am stärksten ausgelenkt, und dort werden die Sinneszellen und die mit ihnen verbundenen Fasern der weiterleitenden Neuronen erregt (Hörzellen haben keinen eigenen Fortsatz). Entsprechend der Zuordnung zu bestimmten Abschnitten sind diese Neuronen regelrecht auf eine charakteristische Frequenz gestimmt. Ihre Fasern ziehen gebündelt als Hörnerv ins Gehirn.

Ein solches Neuron feuert vermehrt, wenn die Intensität einer Schallwelle seiner Frequenz wächst. In seiner Entladungsrate ist also, wie auch wir bestätigen konnten, die Intensität codiert.

Unser nächster Befund ist zunächst weniger einsichtig: Neuronen des Hörnervs zeigen zusätzlich eine Phasenkopplung; sie feuern nicht zu irgendeinem Zeitpunkt des Schwingungszyklus, sondern in einer bestimmten Phase, die man gemäß der Konvention in Winkelgraden angibt. Beispielsweise mag ein Neuron auf eine optimale Frequenz gewöhnlich bei einem Wellenberg (Phasenwinkel 90 Grad) ansprechen, wenn auch nicht unbedingt bei jedem (Bild 5 a). Ein Neuron anderer optimaler Frequenz tut dies vielleicht bei einem Wellental (270 Grad) oder bei irgendeinem weiteren Punkt des 360 Grad umfassenden Schwingungszyklus.

Für beide Ohren gilt, daß Neuronen, die auf gleiche Frequenz gestimmt sind, auch dieselbe Phasenkopplung haben. Allerdings kann je nachdem, wie stark zeitversetzt die akustischen Signale an den Ohren eintreffen, die auf einer Seite erzeugte Impulssalve gegenüber der auf der anderen verzögert sein.

Die Zellen des Magnocellularis erwiesen sich zwar als phasengekoppelt, aber als unempfindlich gegenüber Intensitätsunterschieden; Änderungen der Lautstärke beeinflussen nicht ihre Impulsrate. Im Gegensatz dazu reagieren nur wenige Neuronen des Angularis phasengekoppelt, dafür aber genau auf Intensitätsunterschiede. Daraus und aus anderen Ergebnissen ist zu schließen, daß die Serien phasengekoppelter Impulse aus dem Magnocellularis für die Ermittlung interauraler Laufzeitdifferenzen verwendet werden und die – intensitätscodierenden – Impulsraten aus dem Angularis für die interauraler Intensitätsdifferenzen. Alles in allem konnte unsere Untersuchung der unteren Relaisstationen der Hörbahn zeigen, daß die Cochlea-Kerne als Filter fungieren, die entweder Zeit- oder Intensitätsinformationen weiterleiten, aber nicht beides zugleich.

Kombination zeitbezogener Informationen

Anschließend untersuchten wir, wie auf nächsthöheren Stationen der Hörbahn insbesondere die Zeitinformation weiterverarbeitet wird. Phasengekoppelte Nervenimpulse, wie sie bei akustischen Reizen einer einzigen Frequenz (einem reinen Ton im physikalischen Sinne) am Magnocellularis jeder Hirnhälfte entstehen, gehen nach unserer Feststellung sowohl an den dies- wie auch an den jenseitigen Lamellenkern (Nucleus laminaris) weiter. Er ist somit die erste Station, an der Informationen aus beiden Ohren zusammenlaufen.

Das generelle Problem, wie ein Gehirn überhaupt zeitbezogene Information kombinieren kann, ist jahrzehntelang Gegenstand von Spekulationen gewesen. Lloyd A. Jeffress hatte 1948 während eines Forschungsurlaubs am Caltech ein brauchbares Modell vorgeschlagen. Er meinte, daß die Nervenfasern für die zeitcodierten Signale (von ihm Verzögerungsbahnen genannt) sich darin unterschieden, wie schnell sie diese vom Ohr ins Gehirn leiteten. Dort konvergierten sie schließlich an Neuronen, Koinzidenzdetektoren genannt, die nur feuern, wenn Signale von beiden Ohren bei ihnen gleichzeitig eintreffen.

Die Signale eines Schallreizes, der an beiden Ohren zu verschiedenen Zeiten einläuft, würden demnach immer dann und nur dann gleichzeitig bei einem solchen Detektor eintreffen, wenn die Summe aus der Laufzeit der Schallwellen bis zum Ohr und der Weiterleitungszeit der Nervenimpulse bis zum Koinzidenzdetektor für beide Seiten gleich wäre. Angenommen, ein Laut erreicht das rechte Ohr fünf Mikrosekunden (millionstel Sekunden) vor dem linken. Brauchen die rechts ausgelösten Impulse aufgrund der Verzögerungsstrecken fünf Mikrosekunden länger zum Koinzidenzdektor in der jenseitigen Hirnhälfte als die links ausgelösten, treffen alle dort gemeinsam ein (Bild 4).

Seit 1948 haben elektrophysiologische Untersuchungen an Nervenzellen von Hunden und Katzen sowie hirnanatomische Studien an Hühnern Indizien geliefert, daß das Gehirn tatsächlich die interaurale Zeitdifferenz mit Hilfe von Verzögerungsstrecken und Koinzidenzdetektoren mißt. Im Jahre 1986 konnten dann Catherine E. Carr, heute an der Universität von Maryland, und ich zeigen, daß bei der Schleiereule Nervenfasern aus dem Magnocellularis als Verzögerungsstrecken und Neuronen im Lamellenkern als Koinzidenzdetektoren agieren (Bild 6).

Aber wie bei den untersuchten Säugetieren unterscheidet sich auch bei der Schleiereule die neuronale Verschaltung ein wenig vom Jeffress-Modell. Die Koinzidenzdetektoren des Lamellenkerns reagieren zwar jeweils am stärksten auf ein Zusammentreffen, das einer bestimmten Zeitdifferenz zugeordnet ist; doch sprechen sie zugleich, wenn auch viel schwächer, auf Signalpaare an, die nicht perfekt gleichzeitig bei ihnen eintreffen (Bild 5 b und c). Dabei nimmt ihre Impulsrate stetig ab, wenn die interaurale Zeitdifferenz zunehmend den Wert unter- oder überschreitet, der exakte Koinzidenz erzeugt; ihre Aktivität erreicht ihren Tiefpunkt, wenn eine an einem Ohr einlaufende Schallwelle um exakt 180 Grad – einen halben Schwingungszyklus – gegenüber jener Phase verschoben ist, bei der Koinzidenz zustande käme. Bei weiterer Phasenverschiebung steigt die Rate wieder und erreicht bei 360 Grad – einem vollen Schwingungszyklus – erneut ein Maximum (Bild 5 d). (Übrigens zeigen diese Neuronen mäßige Aktivität auch bei Reizung nur eines Ohrs.) Man kann also sagen, daß Koinzidenzdetektoren dank der sie speisenden Verzögerungsstrecken auf bestimmte Zeitdifferenzen am empfindlichsten ansprechen – aber eben auf mehr als eine.

Zum Glück für die Eule gibt es einen Mechanismus, der diese Doppeldeutigkeit der Information auf höherer Ebene wieder aufhebt. Wie das geschieht, ist indes noch ungeklärt. Und das ist nicht das einzige Rätsel: Die Eule kann interaurale Zeitdifferenzen von nur 10 Mikrosekunden erkennen, obwohl jeder einzelne Nervenimpuls bereits wesentlich länger dauert, nämlich rund 1000 Mikrosekunden. Nach einer Erklärung suchen wir derzeit.

Die weiteren Etappen der Zeitverarbeitung in der Hörbahn sind einfacher zu verfolgen. Nachdem der Koinzidenzdetektor im Lamellenkern einer Hirnhälfte die interaurale Zeitdifferenz eines Tons seiner charakteristischen Frequenz ermittelt hat, leitet er das Ergebnis an die nachgeordneten Stationen weiter, zu denen auch das zentrale Gebiet der Hörregion des Mittelhirns in der jenseitigen Hirnhälfte gehört. Logischerweise erhalten die höheren Ebenen vom Lamellenkern nicht nur spezifische Informationen über Frequenz und Zeitdifferenz, sondern auch doppeldeutige über die Phase. Vom zentralen Gebiet gehen die Informationen zur Gegenseite an eine es flankierende Struktur weiter, die man als seitliche Schale dieser Hörregion bezeichnet. Dort wird sie endlich mit der Intensitätsinformation kombiniert (siehe Kasten auf Seite 64).

Intensitätsverrechnung

Über die Arbeitsweise des Streckenabschnitts, der Intensitätsinformationen bis zur Konvergenz in der Schalenregion weiterleitet, konnten meine Kollegen und ich bisher weniger in Erfahrung bringen; doch haben wir recht gute Fortschritte gemacht. Im Gegensatz zum Magnocellularis, der nur zur nächsthöheren Station – dem Lamellenkern – projiziert, hat der für Intensitätserkennung zuständige Angularis direkte Verbindungen zu mehreren übergeordneten Stationen – nur nicht zum externen Kern. Eine davon ist der hintere Kern der (beidseits vorhandenen) seitlichen Schleife (Lemniscus lateralis).

Direkten Input erhält jeder dieser Kerne einzig vom Angularis der jeweiligen Gegenseite. Trotzdem kann er als erste Relaisstation im Gehirn überhaupt Intensitätsunterschiede zwischen beiden Ohren erkennen – sein Gegenstück in der anderen Hirnhälfte läßt ihm entsprechende Informationen aus dem anderen Angularis zukommen. Und zwar laufen an den Neuronen eines Schleifenkerns erregende Signale vom Ohr der Gegenseite und hemmende von dem der gleichen ein. Das Verhältnis von erregenden zu hemmenden Signalen bestimmt, mit welcher Impulsrate die dann Zellen feuern.

Außerdem haben wir beobachtet, daß sich die Neuronen des hinteren Schleifenkerns in den Intensitätsunterschieden, auf die sie bevorzugt reagieren, systematisch unterscheiden. Wie Geoffrey A. Manley und Christine Koeppl von der Technischen Universität München in meinem Labor gezeigt haben, sprechen die Neuronen am Grunde eines Kerns am stärksten an, wenn ein Schallreiz am gleichseitigen Ohr deutlich lauter ankommt; ist er am anderen lauter, dann tun dies jene am Dach des Kerns. Infolge dieser Anordnung können ortsspezifische Neuronen offenbar erkennen, ob ein Geräusch von ober- oder unterhalb der Augenebene kommt. Wie sie aus dem Input der hinteren seitlichen Schleifenkerne die vertikalen Koordinaten einer Schallquelle ermitteln, ist noch offen.

Die nächsthöhere Station ist die laterale Schale der Hörregion im Mittelhirn. Sie erhält Signale von den Schleifenkernen jeder Seite. Die meisten ihrer Neuronen reagieren stark auf interaurale Intensitäts- wie auch Zeitdifferenzen von akustischen Reizen eines eng begrenzten Frequenzbereichs. Weil aber die Mehrdeutigkeit der Phaseninformation hier noch nicht aufgehoben wird, wäre die Eule auf dieser Verarbeitungsstufe mit dem Ergebnis nicht imstande, Schallquellen präzise zu orten. Das schafft sie erst auf der Stufe des externen Kerns, der die ortsspezifischen Neuronen beherbergt. An diesen Zellen mit ihrem breiten Frequenzband laufen Intensitäts- und Zeitinformationen zahlreicher Frequenzkanäle zusammen, wobei auch endlich die Mehrdeutigkeit der Phaseninformation verschwindet. Insgesamt ergibt sich daraus der Input, den das Gehirn braucht, um die richtigen Koordinaten einer Schallquelle auszuwählen. Die Selektivität ortsspezifischer Neuronen resultiert also aus der parallelen Verarbeitung von Zeit- und Intensitätsinformationen und aus der Kombination der Ergebnisse in der Schale und dem externen Kern.

Noch können wir nicht sagen, wie viele ortsspezifische Neuronen feuern müssen, damit die Eule den Kopf in Richtung einer Schallquelle dreht. Doch wissen wir wenigstens, daß einzelne Neuronen die benötigte räumliche Information bereitstellen können. Damit ist die Meinung einiger Fachkollegen widerlegt, daß einzelne Nervenzellen unmöglich eine solch komplexe Information zu präsentieren vermögen; Wahrnehmungen, behaupten sie, könnten nur aus der gemeinsamen Aktivität ganzer Gruppen von Zellen entstehen, die nach einem bestimmten Muster feuern, ohne selbst etwas Eigenständiges zu offenbaren.

Ein allgemeines Prinzip?

Alles in allem haben unsere Forschungen recht viel über die vorgegebenen Rechen- und Verarbeitungsschritte aufgedeckt, mit denen das Eulengehirn die binaurale Verknüpfung bewerkstelligt. Vermutlich wird ein gleichartiger Algorithmus auch vom menschlichen Gehirn genutzt (obgleich einige seiner Verarbeitungsstationen andere sein dürften als im Vogelhirn). Immerhin gibt es – wie erwähnt – verschiedene Hinweise, wonach das räumliche Hören bei Säugetieren ebenfalls auf Verzögerungsstrecken und Koinzidenzdetektoren beruht.

Man kann sogar noch viel weitergehende Überlegungen anstellen. Der einzige andere Algorithmus für einen Wahrnehmungsvorgang, der ähnlich detailliert geklärt ist, ist der eines elektrischen Fisches der Gattung Eigenmannia. Walter F. Heiligenberg und seine Mitarbeiter an der Universität von Kalifornien in San Diego haben die Regeln ermittelt, nach denen ein solcher Fisch herausfindet, ob die von ihm ausgesandten elektromagnetischen Wellen höher- oder niederfrequenter sind als die seiner Artgenossen in der unmittelbaren Nachbarschaft; entsprechend vermag er seine Frequenz zu ändern. Auch bei ihm gibt es parallele Bahnen für die Verarbeitung verschiedener Kriterien – und auch dies geschieht schrittweise: Erst auf einer höheren Ebene treffen die parallelen Kanäle zusammen, und erst die Neuronen an der Spitze der Hierarchie reagieren selektiv auf bestimmte Merkmalskombinationen.

Der Algorithmus des elektrischen Fisches ähnelt also bemerkenswert dem der Schleiereule, obwohl die zu lösenden Probleme, die Sinnessysteme sowie die Verarbeitungsstationen in den Gehirnen und selbst die Ordnungen beider Tiere verschieden sind. Die Ähnlichkeiten legen nahe, daß zumindest Wirbeltiergehirne bei der Informationsverarbeitung bestimmten Regeln folgen, die verschiedenen Sinnessystemen und Tierarten gemein sind.

Mein Institutskollege Carver A. Mead glaubt, daß der Eulen-Algorithmus sogar beim Entwerfen höchst-integrierter Schaltkreise nützlich sein könnte. Zusammen mit seinem Studenten John Lazzaro hat er 1988 einen „Eulen-Chip“ konstruiert, der die Schritte nachvollzieht, mit denen der Vogel die interauralen Zeitdifferenzen bestimmt. Das Modell enthält auf einer Fläche von 73 Quadratmillimetern Pendants von 64 Hörnervfasern pro Ohr – also weit weniger als in Wirklichkeit – und etwa 21000 Verzögerungsstrecken (zusätzlich rund 200000 Transistoren, hauptsächlich um diese Strecken zu schalten). Aber selbst in dieser Schmalspurversion benötigt das elektronische Nervensystem wesentlich mehr Raum und Energie als das biologische Äquivalent.

Bislang sind Chips nach physikalischen, chemischen und technischen Prinzipien konstruiert worden. Die Ökonomie der biologischen Schaltkreise läßt vermuten, daß das Zurückgreifen auf Prinzipien der belebten Natur Elektronik-Bausteine ermöglichen könnte, die energie- und platzsparender sind als die heute üblichen.

Auch unsere Forschungen am Eulengehirn sind noch lange nicht abgeschlossen. Die Befunde über die binaurale Verknüpfung gilt es zu vervollständigen, und wir hoffen, einige andere Probleme angehen zu können. Beispielsweise hat Alvin M. Liberman von den Haskins-Laboratorien in New Haven (Connecticut) die Idee unterbreitet, das menschliche Gehirn verarbeite Sprachlaute getrennt von anderen. Entsprechend könnte man sich fragen, ob das der Eule die Signale zur räumlichen Orientierung getrennt von anderen akustischen Informationen verarbeitet.

Einige für die räumliche Orientierung zuständigen Hirnstationen mögen auch an solchen anderen Hörleistungen beteiligt sein, etwa wenn eine Eule selektiv auf Rufe von Paarungspartnern oder ihren Jungen anspricht. Wie aber kann der Vogel, wenn er dafür ein und denselben Satz von Neuronen nutzt, die Algorithmen für verschiedene Aufgaben auseinanderhalten? Wenn sich diese Frage am Beispiel der Eule beantworten ließe, wären wir den großen Geheimnissen komplizierterer Gehirne – oder vielleicht aller Gehirne – wieder um einiges nähergekommen.


Aus: Spektrum der Wissenschaft 6 / 1993, Seite 58
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
6 / 1993

Dieser Artikel ist enthalten in Spektrum der Wissenschaft 6 / 1993

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!