Direkt zum Inhalt

Tierkommunikation: KI könnte uns endlich mit Tieren sprechen lassen

Werden wir bald in der Lage sein, die Sprache von Finken, Krähen, Walen oder unseren Haustieren zu verstehen? KI bringt erstaunliche Fortschritte im Entschlüsseln von Tierkommunikation, große Durchbrüche stehen laut Forschern bevor. Neben der Begeisterung gibt es auch ethische Bedenken.
Kleines Mädchen betrachtet eine Kapuzenkrähe. Der Vogel scheint mit ihr zu sprechen.
Mit Tieren zu sprechen war bisher die mythische Fähigkeit einzelner Auserwählter. Nun soll künstliche Intelligenz helfen, die Sprache von Krähen und Pottwalen zu entschlüsseln. Es ist allerdings unwahrscheinlich, dass sie etwas Nettes über die Menschheit zu sagen haben.

Unter dem dichten Blätterdach eines Waldes auf einer abgelegenen Insel im Südpazifik späht eine Neukaledonienkrähe mit funkelnden Augen von ihrem Sitzplatz. Der Vogel entfernt vorsichtig einen Ast, streift mit seinem Schnabel unerwünschte Blätter ab und formt aus dem Holz einen Haken. Die Krähe ist Perfektionistin: Unterläuft ihr ein Fehler, verwirft sie das Ganze und beginnt von vorn. Sobald sie zufrieden ist, steckt sie das fertige Utensil in einen Spalt im Baum und fischt eine zappelnde Beute heraus.

Die Neukaledonienkrähe (Corvus moneduloides), auch Geradschnabelkrähe genannt, ist einer der wenigen Vögel, von denen man weiß, dass sie Werkzeuge herstellen können – eine Fähigkeit, von der man früher annahm, dass sie ein Alleinstellungsmerkmal des Menschen sei. Christian Rutz, Verhaltensökologe an der Universität von St Andrews in Schottland, hat einen Großteil seiner Karriere damit verbracht, die Fähigkeiten der Krähe zu untersuchen.

Der bemerkenswerte Einfallsreichtum, den Rutz beobachtete, veränderte seine Auffassung davon, zu was Vögel fähig sind. Er begann sich zu fragen, ob es bei Tieren vielleicht noch andere übersehene Fähigkeiten gibt. Die Krähen leben in komplexen sozialen Gruppen und geben möglicherweise Techniken zur Herstellung von Werkzeug an ihre Nachkommen weiter. Experimente haben auch gezeigt, dass verschiedene Krähengruppen auf der Insel unterschiedliche Lautäußerungen beherrschen. Rutz wollte wissen, ob diese Dialekte dazu beitragen könnten, die kulturellen Unterschiede in der Werkzeugherstellung zwischen den Gruppen zu erklären.

Können Tiere bewusst und absichtsvoll kommunizieren?

Neue Technologien, die auf künstlicher Intelligenz basieren, können genau solche Erkenntnisse liefern. Die Frage, ob Tiere in einer für uns verständlichen Weise miteinander kommunizieren, fasziniert die Menschheit nachhaltig. Obwohl Menschen in vielen indigenen Kulturen seit Langem glauben, dass Tiere bewusst und absichtsvoll kommunizieren können, schreckten westliche Wissenschaftlerinnen und Wissenschaftler traditionellerweise vor Forschungen zurück, die die Grenzen zwischen Menschen und anderen Tieren verwischen – aus Angst, des Anthropomorphismus bezichtigt zu werden. Doch mit den jüngsten Durchbrüchen in der künstlichen Intelligenz »erkennen die Menschen, dass wir kurz vor ziemlich großen Fortschritten stehen, was das Verständnis des Kommunikationsverhaltens von Tieren angeht«, sagt Rutz.

Neben der Entwicklung von Chatbots, die Menschen bezirzen, und der Produktion von Kunstwerken, die Wettbewerbe gewinnen, könnte maschinelles Lernen bald auch die Entschlüsselung von Dingen wie Krähenrufen ermöglichen, meint Aza Raskin, einer der Gründer des gemeinnützigen Earth Species Project. Das Team aus Wissenschaftlern im Bereich der künstlichen Intelligenz, Biologen und Naturschutzexperten sammelt Daten über eine Vielzahl von Arten und entwickelt maschinelle Lernmodelle, um sie zu analysieren. Andere Gruppen wie das internationale Projekt CETI (Cetacean Translation Initiative) konzentrieren sich auf das Verständnis einer bestimmten Art, in diesem Fall des Pottwals.

»Diese Werkzeuge werden die Art verändern, wie wir uns selbst sehen«Aza Raskin, Mitgründer des Earth Species Project

Die Entschlüsselung von Tierstimmen könnte die Bemühungen um den Schutz und Erhalt der Tiere unterstützen. Und womöglich hat sie auch verblüffende Auswirkungen auf uns Menschen. Raskin vergleicht die bevorstehende Revolution mit der Erfindung des Teleskops: »Wir blickten auf das Universum und entdeckten, dass die Erde nicht das Zentrum ist«, sagt er. Die Fähigkeit der KI, unser Verständnis von Tieren neu zu gestalten, wird seiner Meinung nach einen ähnlichen Effekt haben. »Diese Werkzeuge werden die Art und Weise verändern, wie wir uns selbst in Bezug auf alles sehen.«

Als Shane Gero vor Kurzem nach einem Tag Feldforschung sein Forschungsschiff in Dominica verließ, war er begeistert. Die Pottwale, die er untersucht, haben komplexe soziale Gruppen, und an diesem Tag war ein ihm vertrautes junges Männchen zu seiner Familie zurückgekehrt. Gero und seinen Kollegen bot das die Gelegenheit, die Stimmen der Gruppe bei ihrer Zusammenkunft aufzuzeichnen.

Fast 20 Jahre lang hat Gero, der an der Carleton University in Ottawa forscht, zwei Pottwalgruppen in den türkisblauen Gewässern der Karibik genauestens beobachtet und ihre klickenden Laute aufgezeichnet sowie das Verhalten der Tiere, wenn sie diese von sich gaben. Er fand heraus, dass die Wale offenbar bestimmte Klangmuster, so genannte Codas, verwenden, um sich gegenseitig zu identifizieren. Sie lernen diese Codas ähnlich, wie Kleinkinder Wörter und Namen begreifen, indem sie die Laute der Erwachsenen um sie herum wiederholen.

KI beschleunigt Entzifferung der Codas von Pottwalen

Nachdem sie einige dieser Codas manuell entschlüsselt hatten, fragten sich Gero und seine Kollegen, ob sie die Übersetzung mit Hilfe von KI beschleunigen könnten. Zum Überprüfen des Ansatzes fütterte das Team ein neuronales Netzwerk mit einigen von Geros Aufnahmen. Bei einem künstlichen neuronalen Netzwerk (KNN) handelt es sich um einen Algorithmus, der durch die Analyse von Daten Fähigkeiten erlernt. Das in dem Fall verwendete Netzwerk war in der Lage, aus den Codas eine kleine Untergruppe einzelner Wale in 99 Prozent der Fälle korrekt zu identifizieren. Als Nächstes setzte sich das Team ein ehrgeiziges neues Ziel: Es wollte große Teile des Ozeans abhören, in der Hoffnung, einem Computer die Sprache von Walen beizubringen. Das Projekt CETI, für das Gero als leitender Biologe tätig ist, plant den Einsatz eines Unterwassermikrofons, das an einer Boje befestigt ist und rund um die Uhr die Laute der auf Dominica ansässigen Wale aufzeichnet.

Da Sensoren erschwinglicher geworden sind und Technologien wie Hydrofone, Biologger und Drohnen verbessert wurden, hat die Menge an erfassten Tierdaten exponentiell zugenommen. Plötzlich gibt es viel zu viele Daten, als dass Biologen sie von Hand noch effizient durchforsten könnten. Künstliche Intelligenz kommt jedoch mit riesigen Informationsmengen ausgesprochen gut zurecht. Große Sprachmodelle wie ChatGPT müssen sogar riesige Mengen an Text verarbeiten, um zu lernen, wie sie auf Aufforderungen reagieren sollen: GPT-3, eines der Modelle hinter ChatGPT, wurde mit etwa 45 Terabyte an Textdaten trainiert, was einem Großteil der Library of Congress entspricht.

Frühe Modelle verlangten von Menschen, dass sie die meisten dieser Daten mit Bezeichnungen klassifizieren. Mit anderen Worten: Der Mensch musste den Maschinen erst beibringen, was wichtig ist. Die nächste Modellgeneration lernte jedoch, sich selbst zu überwachen, also automatisch zu lernen, was wichtig ist (selfsupervised learning). Dabei erstellt sie eigenständig einen Algorithmus, der vorhersagt, welche Wörter in einer Sequenz als Nächstes kommen.

Mit maschinellem Lernen unentschlüsselte Sprachen knacken

2017 entdeckten zwei Forschungsgruppen eine Möglichkeit, menschliche Sprachen ineinander zu übersetzen, ohne dass ein mehrsprachiges Objekt wie der Stein von Rosetta benötigt wird. Die Entdeckung beruhte auf der Umwandlung der semantischen Beziehungen zwischen Wörtern in geometrische Beziehungen. Mit maschinellem Lernen erstellte Modelle sind nun in der Lage, zwischen unbekannten menschlichen Sprachen zu übersetzen, indem sie deren Formen abgleichen – etwa, indem sie anhand der Häufigkeit, mit der Wörter wie »Mutter« und »Tochter« nebeneinander vorkommen, genau vorhersagen, was als Nächstes kommt. »Es gibt eine verborgene Struktur, die uns alle zu vereinen scheint«, sagt Aza Raskin. »Die Tür, um mit maschinellem Lernen Sprachen zu entschlüsseln, von denen wir noch nicht wissen, wie sie zu entschlüsseln sind – diese Tür steht nun offen.«

Zudem erklärt Raskin, dass ein weiterer Meilenstein in diesem Bereich 2020 erreicht worden sei, als die Verarbeitung natürlicher Sprachen begann, alles als Sprache zu behandeln. Nehmen wir zum Beispiel DALL-E 2, eines der KI-Systeme, die auf der Grundlage verbaler Beschreibungen realistische Bilder erzeugen können. Es ordnet die Formen, die Text darstellen, den Formen, die Bilder darstellen, mit bemerkenswerter Genauigkeit zu – genau die Art »multimodaler« Analyse, die die Übersetzung der Tierkommunikation offenbar erfordert.

Übersetzung von Tierkommunikation erfordert multimodale Analyse

Zahlreiche Tiere verwenden verschiedene Kommunikationsformen gleichzeitig, so wie Menschen beim Sprechen Körpersprache und Gesten verwenden. Alle Handlungen, die unmittelbar vor, während oder nach der Äußerung von Lauten erfolgen, könnten einen wichtigen Kontext für das Verständnis dessen liefern, was ein Tier zu vermitteln versucht. Schon lange haben Fachleute diese Verhaltensweisen in einer Liste, dem so genannten Ethogramm, katalogisiert. Mit dem richtigen Training könnten Modelle des maschinellen Lernens helfen, diese Verhaltensweisen auszuwerten und neue Muster in den Daten zu entdecken. So berichteten Wissenschaftler im August 2022 in der Fachzeitschrift »Nature Communications«, dass ein Modell bislang unerkannte Unterschiede in den Gesängen von Zebrafinken gefunden habe, auf die die Weibchen bei der Partnerwahl achten. Die Weibchen sollen demzufolge Partner bevorzugen, die wie die Vögel klingen, mit denen sie aufgewachsen sind.

Mit der Anwendung Merlin, einer kostenlosen App des Cornell Lab of Ornithology, lässt sich KI-gestützte Analyse bereits zur Identifizierung von Vogelarten nutzen. Um einen Vogel anhand seines Gesangs zu erkennen, wandelt Merlin die Aufnahme des Benutzers in ein Spektrogramm um – eine Visualisierung von Lautstärke, Tonhöhe und Länge des Vogelrufs. Das Modell wird mit der Audiobibliothek vom Cornell Lab trainiert, mit der es die Aufnahme vergleicht, um die Vogelart zu bestimmen. Anschließend vergleicht es diese Schätzung mit eBird, der globalen Beobachtungsdatenbank von Cornell Lab, um sicherzustellen, dass es sich um eine Art handelt, die man am Standort der Aufnahme auch erwarten würde. Merlin kann die Rufe von mehr als 1000 Vogelarten mit bemerkenswerter Genauigkeit identifizieren.

Die Welt ist laut, und es ist schwierig, einzelne Stimmen aus der Kakophonie herauszuhören

Doch die Welt ist laut, und es ist schwierig, den Gesang eines einzelnen Vogels oder Wals aus der Kakophonie herauszuhören. Die Schwierigkeit, einzelne Sprecher zu isolieren und zu erkennen (das so genannte Cocktailparty-Problem), ist seit Langem ein Hindernis beim Bestimmen von Tierlauten. Im Jahr 2021 entwickelte das Earth Species Project ein künstliches neuronales Netzwerk, das in der Lage ist, sich überschneidende Tierlaute in einzelne Spuren aufzuteilen und Hintergrundgeräusche wie Autohupen herauszufiltern – den Open-Source-Code des Projekts veröffentlichte es kostenlos auf GitHub. Dazu wird eine visuelle Darstellung der Geräusche erstellt, anhand derer das neuronale Netz feststellen kann, welcher Pixel von welchem Sprecher stammt. Darüber hinaus hat das Earth Species Project kürzlich ein Basismodell (Foundational Model) entwickelt, das automatisch Muster in Datensätzen erkennen und klassifizieren kann.

Werkzeuge verändern Forschung – mit praktischem Nutzen

Diese Werkzeuge verändern nicht nur die Forschung, sondern haben auch einen praktischen Nutzen. Wenn Wissenschaftler Tierlaute übersetzen können, können sie vielleicht gefährdeten Arten helfen. Die Hawaiikrähe, lokal als 'Alalā bekannt, ist in den frühen 2000er Jahren in freier Wildbahn ausgestorben. Die letzten Vögel wurden in Gefangenschaft gebracht, um ein Erhaltungszuchtprogramm zu starten. In Erweiterung seiner Arbeit mit der Neukaledonienkrähe arbeitet Rutz nun mit dem Earth Species Project zusammen, um den Wortschatz der Hawaiikrähe zu untersuchen.

»Diese Art wurde über einen sehr langen Zeitraum aus ihrer natürlichen Umgebung entfernt«, erklärt er. Er erstellt ein Inventar aller Rufe, die die in Gefangenschaft lebenden Vögel derzeit verwenden. Er wird diese mit historischen Aufnahmen der letzten wild lebenden Hawaiikrähen vergleichen, um festzustellen, ob sich ihr Repertoire in Gefangenschaft verändert hat. Dabei möchte er herausfinden, ob sie möglicherweise wichtige Rufe verloren haben, etwa solche, die sich auf Raubtiere oder die Balz beziehen – was erklären könnte, warum sich die Wiederansiedlung der Krähe in freier Wildbahn bislang als ausgesprochen schwierig erwiesen hat.

Künftig Haustiere besser verstehen mittels KI

Modelle des maschinellen Lernens könnten eines Tages auch uns Menschen helfen, unsere Haustiere zu verstehen. Lange Zeit schenkten Tierverhaltensforscher Haustieren keine besondere Aufmerksamkeit, sagt Con Slobodchikoff, der »Chasing Doctor Dolittle« verfasst hat – ein Buch über das Erlernen von Tiersprache. Als er seine Karriere mit der Erforschung von Präriehunden begann, lernte er rasch ihre ausgefeilten Rufe einzuschätzen, mit denen sich Größe und Gestalt von Raubtieren beschreiben lassen. Diese Erfahrung half ihm bei seiner späteren Arbeit als Verhaltensberater für verhaltensauffällige Hunde. Er stellte fest, dass viele seiner Kunden völlig missverstanden hatten, was ihr Hund ihnen mitteilen wollte. Wenn unsere Haustiere versuchen, mit uns zu kommunizieren, verwenden sie oft multimodale Signale, wie Bellen in Kombination mit einer bestimmten Körperhaltung. Doch »wir sind so darauf fixiert, dass der Ton das einzig gültige Element der Kommunikation ist, dass wir viele der anderen Signale übersehen«, sagt Slobodchikoff.

»Tiere haben ihre eigenen Gedanken, Hoffnungen und vielleicht auch Träume«Con Slobodchikoff, Tierverhaltensforscher

Slobodchikoff entwickelt nun ein KI-Modell, das die Gesichtsausdrücke und das Bellen eines Hundes für seine Besitzer übersetzen soll. Er zweifelt nicht daran, dass die Forscher ihre Studien auf Haustiere ausdehnen und die Fortschritte des maschinellen Lernens überraschende Fähigkeiten von Haustieren offenbaren werden: »Tiere haben ihre eigenen Gedanken, Hoffnungen und vielleicht auch Träume.«

Nutztiere profitieren von einem solch tiefen Verständnis vielleicht ebenfalls. Elodie F. Briefer, außerordentliche Professorin für Tierverhalten an der Universität Kopenhagen, konnte zeigen, dass es möglich ist, den emotionalen Zustand von Tieren anhand ihrer Lautäußerungen zu beurteilen. Sie hat kürzlich einen Algorithmus entwickelt, der mit Tausenden von Schweinegeräuschen trainiert wurde und mit Hilfe von Machine Learning vorhersagt, ob die Tiere eine positive oder negative Emotion empfinden. Laut Briefer könnte ein besseres Verständnis dafür, wie Tiere empfinden, die Bemühungen um ihr Wohlergehen anspornen.

Doch so gut Sprachmodelle beim Auffinden von Mustern auch sein mögen, die Bedeutung entschlüsseln sie nicht – und sie liegen definitiv nicht immer richtig. Selbst KI-Experten verstehen oft nicht, wie die Algorithmen zu ihren Schlussfolgerungen kommen, was deren Validierung erschwert. Eine der größten Herausforderungen für Wissenschaftler bestehe darin, herauszufinden, wie sich aus den Entdeckungen dieser Modelle etwas Weiterführendes lernen lasse, erklärt Benjamin Hoffman vom Earth Species Project, der zuvor an der Entwicklung der Merlin-App beteiligt war.

»Die Entscheidungen auf der Seite des maschinellen Lernens … beeinflussen die Art der wissenschaftlichen Fragen, die wir stellen können«Benjamin Hoffman, Koentwickler der Merlin-App

»Die Entscheidungen, die auf der Seite des maschinellen Lernens getroffen werden, beeinflussen die Art der wissenschaftlichen Fragen, die wir stellen können«, sagt Hoffman. Die Klang-ID von Merlin kann ihm zufolge helfen, die Anwesenheit von Vögeln zu erkennen; das ist für die ökologische Forschung nützlich. Sie könne jedoch nicht dabei helfen, Fragen zum Verhalten zu beantworten – etwa, welche Arten von Rufen ein einzelner Vogel macht, wenn er mit einem potenziellen Partner interagiert. Bei dem Versuch, verschiedene Arten der Tierkommunikation zu interpretieren, müssen die Forscher laut Hoffman auch »verstehen, was der Computer tut, während er lernt, wie er es tut«.

Daniela Rus, Direktorin des Computer Science and Artificial Intelligence Laboratory des Massachusetts Institute of Technology (MIT), lehnt sich in ihrem Büro in einem Sessel zurück, umgeben von Büchern und Papierstapeln. Sie ist begierig darauf, die neuen Möglichkeiten zu erforschen, die Machine Learning für das Studium der Tierkommunikation eröffnet. Zuvor hatte Rus in Zusammenarbeit mit dem Biologen Roger Payne, dessen Aufnahmen von Buckelwalgesängen in den 1970er Jahren die Bewegung »Rettet die Wale« populär gemacht haben, ferngesteuerte Roboter zur Datenerfassung für die Walverhaltensforschung entwickelt. Jetzt bringt Rus ihre Programmiererfahrung in das Projekt CETI ein. Die Sensoren für die Unterwasserbeobachtung hätten sich rasant weiterentwickelt und böten nun die notwendige Ausrüstung, um Tiergeräusche und -verhalten zu erfassen. Und die KI-Modelle, die diese Daten analysieren können, hätten sich dramatisch verbessert. Doch bis vor Kurzem seien diese beiden Disziplinen nicht miteinander verbunden gewesen, so Rus.

Hat das Pottwal-Lexikon die Eigenschaften einer Sprache?

Im Rahmen des CETI-Projekts bestand die erste Aufgabe von Rus darin, die Klicklaute der Pottwale von den Hintergrundgeräuschen des Ozeans zu isolieren. Die Laute der Pottwale wurden lange Zeit mit einem Binärcode verglichen, da sie Informationen darstellen. Aber sie sind um einiges komplexer. Nachdem Rus genaue akustische Messungen entwickelt hatte, analysierte sie mit Hilfe des maschinellen Lernens, wie sich diese Klicks zu Codas zusammensetzen, und suchte nach Mustern und Sequenzen. »Sobald man diese grundlegende Fähigkeit besitzt«, sagt sie, »können wir damit beginnen zu untersuchen, was einige der grundlegenden Komponenten der Sprache sind.« Das Team wird ihr zufolge diese Frage direkt angehen, »indem es analysiert, ob das [Pottwal-]Lexikon die Eigenschaften einer Sprache hat oder nicht«.

Das Erfassen der Struktur einer Sprache sei jedoch keine Voraussetzung, um sie zu sprechen – nicht mehr. Es ist jetzt möglich, dass ein KI-System drei Sekunden gesprochener menschlicher Sprache aufnimmt und dann in exakter Nachahmung mit denselben Mustern und Intonationen weiterspricht. In den nächsten ein oder zwei Jahren, sagt Aza Raskin voraus, »werden wir in der Lage sein, dies für die Kommunikation mit Tieren zu entwickeln«. Das Earth Species Project entwickelt bereits KI-Modelle, die eine Vielzahl von Arten nachahmen, mit dem Ziel, »Gespräche« mit Tieren zu führen. Raskin betont, dass eine Zwei-Wege-Kommunikation es den Forschern erleichtern werde, die Bedeutung von Tierlauten zu verstehen.

In Zusammenarbeit mit externen Biologen plant das Earth Species Project Playback-Experimente, bei denen Zebrafinken in einer Laborumgebung ein künstlich erzeugter Ruf vorgespielt und dann beobachtet wird, wie die Vögel darauf reagieren. Bald »werden wir in der Lage sein, den Turing-Test für Finken, Krähen oder Wale zu bestehen«, behauptet Raskin und bezieht sich damit auf den Punkt, an dem die Tiere nicht mehr erkennen können, dass sie mit einer Maschine und nicht mit einem ihrer Artgenossen sprechen. »Der Clou an der Sache ist, dass wir in der Lage sein werden, zu kommunizieren, bevor wir verstehen.«

Ethische Verantwortung: Missbrauchsrisiko imitierter Tierkommunikation

Die Aussicht auf diese Errungenschaft wirft ethische Bedenken auf. Karen Bakker, Forscherin für digitale Innovationen und Autorin von »The Sounds of Life: How Digital Technology Is Bringing Us Closer to the Worlds of Animals and Plants«, erklärt, dass es unbeabsichtigte Auswirkungen geben könnte. Die kommerzielle Industrie könnte KI für die Präzisionsfischerei nutzen, indem sie nach Schwärmen von Zielarten oder deren Raubtieren lauscht; Wilderer könnten die Techniken einsetzen, um gefährdete Tiere zu lokalisieren, und ihre Rufe nachahmen, um sie anzulocken. Für Tiere wie Buckelwale, deren geheimnisvolle Gesänge sich mit bemerkenswerter Geschwindigkeit über die Ozeane verbreiten, könnte die Schaffung eines synthetischen Gesangs laut Bakker »ein virales Meme in deren weltweite Population injizieren«, mit unbekannten sozialen Folgen.

Bislang sind die Organisationen, die bei der Kommunikation mit Tieren führend sind, gemeinnützig. Das Earth Species Project etwa setzt sich für die gemeinsame Nutzung von Daten und Modellen auf Open-Source-Basis ein, und seine Mitarbeiter sind begeisterte Wissenschaftler, die ihre Leidenschaft für die Tiere, die sie untersuchen, antreibt. Aber das Feld könnte sich ändern – gewinnorientierte Akteure könnten die Technologie missbrauchen. In einem kürzlich in der Zeitschrift »Science« erschienenen Artikel weisen Christian Rutz und seine Mitautoren darauf hin, dass »Leitlinien für bewährte Praktiken und geeignete gesetzliche Rahmenbedingungen« dringend erforderlich seien. »Es reicht nicht aus, die Technologie zu entwickeln«, warnt auch Raskin. »Jedes Mal, wenn man eine Technologie erfindet, entsteht neue Verantwortung.«

Plappern mit dem Wal-Chatbot?

Bei der Entwicklung eines »Wal-Chatbots«, wie sie das Projekt CETI anstrebt, geht es nicht nur darum, herauszufinden, wie man das Klicken und Pfeifen der Pottwale nachahmen kann, sondern auch darum, sich in die Welt der Tiere hineinzuversetzen. Trotz großer körperlicher Unterschiede haben Menschen viele grundlegende Kommunikationsformen mit Tieren gemeinsam. Man denke nur an die Interaktionen zwischen Eltern und Nachwuchs: Die Schreie von Säugetierkindern können sich unglaublich ähneln, und zwar so sehr, dass Weißwedelhirsche auf Wimmern reagieren, egal ob es von Murmeltieren, Menschen oder Robben kommt.

Auch der Stimmausdruck entwickelt sich bei verschiedenen Arten häufig ähnlich. Wie Menschenbabys lernen etwa Seehundbabys, ihre Tonlage zu ändern, um das Trommelfell der Eltern zu erreichen. Und sowohl Singvogelbabys als auch menschliche Kleinkinder plappern – eine »komplexe Abfolge von Silben, die sie von einem Lehrer gelernt haben«, erklärt Jonathan Fritz, der am Brain & Behavior Institute der University of Maryland forscht.

Die Frage, ob tierische Äußerungen in Bezug auf ihre Aussagekraft mit der menschlichen Sprache vergleichbar sind, ist jedoch nach wie vor umstritten. »Einige würden Sprache im Wesentlichen so definieren, dass der Mensch als einziges Tier zur Sprache fähig ist«, sagt Bakker und bezieht sich dabei auf Regeln für Grammatik und Syntax. Skeptiker befürchten, dass die Behandlung tierischer Kommunikation als Sprache oder der Versuch, sie zu übersetzen, ihre Bedeutung verfälschen könnte.

Aza Raskin weist diese Bedenken mit einem Achselzucken zurück. Er bezweifelt, dass Tiere »Gib mir die Banane« sagen, vermutet aber, dass wir in gemeinsamen Erfahrungen eine Grundlage für die Kommunikation entdecken werden. »Es würde mich nicht überraschen, wenn wir artenübergreifend Ausdrücke für ›Trauer‹, ›Mutter‹ oder ›hungrig‹ entdecken«, sagt er. Immerhin zeigen Fossilien, dass Lebewesen wie Wale seit Millionen Jahren ihre Stimme erheben. »Damit etwas eine lange Zeit überleben kann, muss es etwas sehr Tiefes und sehr Wahres codieren.«

Echte Übersetzung erfordert nicht nur neue Werkzeuge, sondern auch die Fähigkeit, eigene Vorurteile und Erwartungen zu überwinden

Letztlich erfordert echte Übersetzung vielleicht nicht nur neue Werkzeuge, sondern auch die Fähigkeit, unsere eigenen Vorurteile und Erwartungen zu überwinden. Im Jahr 2022, als sich die Schneekrusten hinter meinem Haus zurückzogen, pirschte sich ein Kranichpaar an die Brombeeren heran. Es kam zu einer Balz, bei der das Männchen fürsorglich war und sich schmückte. Bald flog jeden Morgen ein Vogel allein zur Futtersuche, während der andere zurückblieb, um die Eier zu hüten. Wir verfielen in eine Routine, die Vögel und ich: Während die Sonne den Hügel erklomm, hielt ich ein Auge auf die Fenster gerichtet und zählte die Tage, während ich mir vorstellte, wie sich Zellen teilten und neue Flügel in der warmen, amniotischen Dunkelheit entstanden.

Dann, eines Morgens, war es vorbei. Irgendwo hinter dem Haus begannen die Vögel zu heulen, ihre Stimmen zu einem durchdringenden Schrei zu verflechten, bis ich plötzlich sah, wie sie beide den Hügel hinunterliefen und stotternd zu fliegen begannen. Sie kreisten einmal und verschwanden dann. Ich wartete tagelang, aber ich sah sie nie wieder.

Ich fragte mich, ob sie um ein gescheitertes Nest trauerten oder ob ich zu viel in ihr Verhalten hineininterpretierte, und wandte mich an George Happ und Christy Yuncker, Wissenschaftler im Ruhestand, die zwei Jahrzehnte lang ihren Teich in Alaska mit einem Paar wilder Kanadakraniche (Antigone canadensis) teilten, die sie Millie und Roy nannten. Sie versicherten mir, dass auch sie gesehen hatten, wie die Vögel auf den Tod reagierten. Nachdem eines von Millies und Roys Jungtieren gestorben war, begann Roy, Grashalme aufzusammeln und sie in der Nähe des Körpers seines Nachwuchses fallen zu lassen. An diesem Abend, als die Sonne sich dem Horizont näherte, begann die Familie zu tanzen. Das überlebende Küken schloss sich seinen Eltern an, als sie sich drehten, sprangen und ihre langen Hälse in den Himmel reckten.

Sprache befreit uns aus der Enge des eigenen Verstandes

Happ weiß, dass Kritiker die Erklärung des Verhaltens der Vögel als Trauer missbilligen könnten, da »wir die zu Grunde liegenden physiologischen Korrelate nicht genau spezifizieren können«. Aber auf Grund der genauen Beobachtung des Kranichpaares durch die Forscher über ein Jahrzehnt hinweg, schreibt er, widerspreche es den Tatsachen, diese auffälligen Reaktionen als emotionslos zu interpretieren. Jeder könne schließlich den Schmerz über den Verlust eines geliebten Menschen nachempfinden. Das sei ein Moment, der sich gut übersetzen lässt.

Vielleicht besteht der wahre Wert jeder Sprache darin, dass sie uns hilft, uns auf andere zu beziehen, und uns so aus der Enge unseres eigenen Verstandes befreit. Jeden Frühling, wenn das Licht wieder über das Haus von Yuncker und Happ fiel, warteten sie auf die Rückkehr von Millie und Roy. Im Jahr 2017 warteten sie vergeblich. Andere Kraniche wetteiferten um das Revier. Die beiden Wissenschaftler verpassten es, das Schlüpfen und Wachsen der Jungtiere zu beobachten. Doch im Sommer 2022 baute ein neues Kranichpaar ein Nest. Schon bald lugten ihre Jungen durch das hohe Gras, bettelten um Futter und lernten zu tanzen. Ein neuer Lebenszyklus begann. »Wir schauen immer auf die Natur«, sagt Yuncker, »dabei sind wir in Wirklichkeit ein Teil von ihr.«

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.