Direkt zum Inhalt

Künstliche emotionale Intelligenz: Das richtige Gefühl

Roboter mit Emotionen können komplexe Aufgaben besser meistern. Forscher sind davon überzeugt, dass sich Emotion und Kognition nicht trennen lassen.
Ein schreiender Cyborg: Künstliche Intelligenz zeigt Emotion

Ein Roboter, der Angst hat oder Stress empfindet: Auf den ersten Blick erscheint das absurd und unnötig. Hemmen uns diese Gefühle nicht? Verhindern sie nicht, dass wir unsere Ziele erreichen? Warum sollte man so etwas in einen Roboter implementieren wollen? Erst bei genauerem Hinsehen wird klar, wie nützlich Emotionen für kognitive Prozesse sind.

Marvin Minsky hat bereits 1986 darauf hingewiesen, dass Emotionen wichtig sind für künstliche Intelligenz, und zwar nicht, um möglichst menschenähnlich zu werden, sondern um komplexe Aufgaben besser bewältigen zu können. »Emotionen sind andere Wege zu denken«, schrieb er schließlich 2006 in seinem Buch »The Emotion Machine«. Sein einleuchtendes Argument: Programme voller Vorgaben für jede Eventualität werden zu komplex, während Emotionen häufig auf einem anderen Weg zur »richtigen« oder ökonomischen Verhaltensweise führen.

Schließlich denken wir Menschen in bestimmten Situationen auch nicht nach, sondern handeln – weil es nötig ist. Beispielsweise verändert sich unsere Wahrnehmung, wenn wir in Gefahr sind oder uns in Gefahr vermuten: Wir sehen die potenzielle Bedrohung größer, wir meiden dunkle Ecken instinktiv, gehen Menschen aus dem Weg, die aggressiv oder bedrohlich wirken. »Wir haben einen Bias in der Wahrnehmung von Gefahr«, sagt Eva Hudlicka, Informatikerin an der University of Massachusetts-Amherst, »eine kognitive Verzerrung. Wir wissen ganz genau, worauf wir uns konzentrieren müssen, anderes tritt in den Hintergrund. Dieser Bias hilft uns, zu priorisieren und schnell zu reagieren.«

Und von solch einem Bias könnte auch ein Roboter profitieren, wenn er in einer gefährlichen Situation ist, davon ist Hudlicka überzeugt. Es gebe nur ein Problem: »Man weiß noch nicht allzu viel über Emotionen.« Der erste Schritt sei, genau zu erforschen, welche Funktionen zu welchen Reaktionen führen – und dann entsprechende Funktionen in künstliche Systeme zu implementieren. »Das heißt nicht, dass diese dann Emotionen haben«, warnt sie vor einem beliebten Missverständnis. Es bedeutet vielmehr, von den Menschen das abzuschauen, was sie in manchen Situationen zu besonders effizientem Handeln bringt. Wie von Minsky erhofft, müssen Roboter dann in gefährlichen Situationen vielleicht nicht mehr erst lange rechnen, werden in der Zeit also auch nicht vom Löwen gefressen. Wenn allerdings die Angst zu groß ist, kann sie ins Gegenteil umschlagen: Die Agenten erstarren dann. »Diese Grenze versuchen wir gerade genau zu eruieren«, erklärt Hudlicka. »Wir verändern die Parameter und versuchen so, eine Panikattacke zu modellieren.«

Lange Zeit betrachtete die Forschung Kognition und Emotion als zwei völlig getrennte Bereiche. Erst in den vergangenen Jahrzehnten hat sich eine Sichtweise etabliert, laut der Emotionen kognitive Prozesse beeinflussen. »Doch in Bezug auf Roboter gibt es dazu wenig Forschung«, sagt Hudlicka. Die Psychologin und Informatikerin erforscht, was genau Emotionen zur Kognition beitragen. Welche Schlüsseleindrücke repräsentieren Gefahr? Was genau ist gruselig? Und was geschieht, wenn diese Funktionen zu stark werden, wenn sie die Oberhand gewinnen?

»Niemand kann Schuld erklären, auch die Psychologen nicht«
Joost Broekens

Das hat Hudlicka mit Kollegen beispielsweise in einer Simulation einer Such-und-Rettungs-Aktion in verschneitem Gelände getestet. Künstliche Agenten sollten Betroffene finden und retten; sie bewegten sich mittels Pistenraupen fort. »Die ängstlicheren Agenten waren zwar teilweise schneller und konnten besser priorisieren, wenn Gefahr drohte, aber sie achteten nicht darauf, ob noch genügend Benzin im Tank war«, so Hudlicka. In Teams gleichen sich die verschiedenen Verzerrungen aus. Welcher Agent von welchem Bias profitiert, hängt letztlich von seiner Aufgabe ab. »Für den Sicherheitsinspektor einer Fluglinie ist ein Bedrohungsbias hilfreich«, sagt Hudlicka: Er sieht potenzielle Gefahren schneller. Wer hingegen andere von etwas überzeugen möchte, braucht vielleicht einen »Freude«-Bias, Risikobewusstsein hingegen ist da womöglich weniger zielführend.

Wie implementiert man nun diese Emotionen in Roboter? Lola Canamero, Leiterin des Embodied Emotion, Cognition and Interaction Lab der Univerity of Hertfordshire, hat den Weg über die Hormone gewählt: Sie implementiert deren chemische Funktion in Roboter. Aus ihrer Perspektive haben Gefühle wie Traurigkeit oder Freude stets auch eine spezifische biologische Funktion. Ihre Roboter lernen aus Erfahrungen, ähnlich wie Menschen. »Deshalb ist es wichtig, dass sie einen Körper haben«, sagt sie. »Das neuronale System entwickelt sich ähnlich wie das bei Kindern.« Gefahrensituationen einzuschätzen, lernen die Roboter beispielsweise über affektive Landmarken, Orientierungspunkte im Raum. »Sie lernen: Hier in diesem Bereich des Raums ist mir etwas Schlimmes widerfahren, und versuchen herauszufinden, was es war.«

Auf ähnliche Weise kann ein Roboter lernen, wer in einer Gruppe der Anführer ist und ob er seinen Ärger zeigt oder besser nicht. Ärger könne schließlich sehr hilfreich sein, erläutert die Philosophin und KI-Expertin Canamero, zum Beispiel, um etwas zu bekommen, was gerade ein anderer hat, der es nicht hergeben will. Allerdings nur, wenn das Aussicht auf Erfolg hat – sonst steckt man besser zurück. »Das alles geschieht, ohne dass der Roboter rechnet. Es geschieht auf eine Art automatisch.« So wie Menschen auch meist intuitiv einschätzen können, mit wem sie sich anlegen und mit wem nicht.

Bei Gefahr werden entsprechende Hormone freigesetzt, die dafür sorgen, dass die Aufmerksamkeit auf bestimmte Objekte gerichtet wird. Auch das Lernen selbst steuert Canamero mittels imitierter Hormone. »Dafür ist ein bisschen Stress wichtig: Du lernst nicht, wenn du gelangweilt bist.« Ihre Simulationen haben gezeigt, dass ein neuronales Netz dann am besten lernt, wenn eine leichter Form der Erregung dabei ist, aber eben nicht zu viel. Dennoch stehe die Forschung hier erst am Anfang. Die meisten Forscher beschäftigten sich eher damit, wie Maschinen Emotionen von Menschen erkennen können. »Aber wenn wir das gesamte emotionale System modellieren können, verstehen wir viel besser, wie alles zusammenhängt. Davon profitieren noch andere Disziplinen.«

In der Tat setzen Psychologie und Psychiatrie Hoffnung in die Roboterforschung. »Ein kognitiver Bias kann gut sein, im Fall eines Traumas jedoch auch ein Problem«, sagt Hudlicka. »Der gleiche Bias hilft bei Gefahr und verursacht Panikattacken.« Durch die Modelle können die Vorgänge im menschlichen Gehirn besser verstanden werden – zumindest, welche Input-Faktoren zu welchem Output führen. »Das ist leider der einzige Weg, um die Modelle zu validieren.«

Auch Canamero arbeitet mit Neurowissenschaftlern und Psychologen zusammen, um über den Umweg Roboter den Menschen besser zu verstehen. »Auf diesem Weg können wir ihre Theorien überprüfen.« So untersucht sie gerade die »obsessive compulsive disorder«, eine Zwanggstörung, bei der Patienten zwanghafte Handlungen vollziehen. Sie schauen etwa zehnmal nach, ob der Herd aus ist, bevor sie das Haus verlassen. »Wir untersuchen mittels der Roboter den Stress, den sie dabei haben, Entscheidungen zu fällen, und wie sich eine hormonelle Behandlung beispielsweise mit Dopamin darauf auswirkt.«

Wer genauer hinter die Funktion von Emotionen schaut, entdeckt, dass erstaunlich viel Logik dahintersteckt – wenn auch komplexe Logik. Joost Broekens bringt das auf eine einfache Formel: »Warum bist du glücklich? Weil etwas geschehen ist, das gut ist für deine aktuelle Situation.« Die aktuelle Situation hat also an Wert gewonnen im Vergleich zur vorherigen: Das kann man programmieren. Broekens ist Professor für Affective Computing an der Technischen Universität Delft und simuliert Emotionen aus einer anderen Perspektive, als Canamero das tut: nicht auf hormoneller Ebene, sondern auf der des Kortex. »Diese Emotionen entstehen aus der Interaktion mit der Umwelt«, sagt Broekens. Und was nach dem oben genannten Schema erklärt werden kann, kann auch programmiert werden.

Aber was ist mit komplexeren Emotionen wie etwa Schuldgefühlen? »Niemand kann Schuld erklären, auch Psychologen nicht.« Wieso empfänden kleine Kinder keine Schuld? Weil es eine komplexe Emotion ist, die nicht nur auf Lebenserfahrung, sondern auch auf Rechenprozessen unseres Gehirns beruht. »Am Ende lernst du, dass ein ganz bestimmtes unangenehmes Gefühl zu folgender Situation gehört: Ich habe etwas getan, jemand anders leidet darunter, das wollte ich nicht.« Wer sich das klarmache, für den sei auch klar, wie absurd es ist, Emotion und Kognition trennen zu wollen. Emotionen seien nicht absolut – um Schuld zu erklären, genüge nicht eine Theorie der Emotionen. »Nur der Teil, bei dem man entdeckt, ob sich etwas gut oder schlecht anfühlt, ist Emotion. Der Rest ist, die Situation zu verstehen, in der es geschehen ist.«

Das wiederum lernen Broekens' künstliche Agenten mittels maschinellen Lernens. Sie lernen dabei zu erkennen, ob sich ihre Situation verbessert oder verschlechtert hat und woher das Gefühl von Freude oder Stress kommt. »Am Ende sind das trotzdem alles Zahlen«, wehrt sich Broekens gegen falsche Vorstellungen: Es geht darum, ob die Situationen einen höheren oder tieferen Wert hat als vor einem bestimmten Ereignis. Wenn seine Agenten beispielsweise etwas lernen, können sie so nicht nur ausdrücken, ob das erfolgreich war (die Situation hat einen höheren Wert), sondern diese Erkenntnis auch zur Optimierung nutzen. »Wenn du siehst, dass der Roboter denkt, er lernt gut, aber du findest das nicht, dann kannst du es korrigieren.« Das wiederum ist zwar eine Kunst, doch es ist besser, als wenn der Roboter ineffizient weiterlernt und es zu spät bemerkt wird.

Nicht zuletzt ist eines von Broekens Zielen also auch, die Mensch-Roboter-Interaktion zu erleichtern. Allerdings nicht, indem Roboter nett lächeln und sympathisch wirken, sondern damit sie für Menschen berechenbar werden – und andersherum. »Es ist nicht schlecht, die Absichten von jemandem zu erahnen – bevor er dich haut.«

Immer wieder jedoch gebe es Missverständnisse. Manche Wissenschaftler werfen ihm vor, Roboter zu vermenschlichen oder seltsamen metaphysischen Ideen anzuhängen. Deshalb nennen viele seiner Kollegen, die auf der gleichen Ebene forschen, diese Mechanismen nicht »Emotionen«. Andere wiederum sehen zwar die parallele Funktion, wollen den Begriff aber für lebendige Wesen reservieren. Broekens hat kein Problem mit dem Ausdruck: Die starke Analogie helfe, die Funktion von Emotionen besser zu verstehen – und auch, sie zu adaptieren.

Nur die Lücken der Psychologie werden dabei immer klarer. »Du kannst sagen, du hast ein Ziel erreicht und bist glücklich. Aber jeder hat mehrere Ziele. Welches macht wie glücklich? Es gibt keine Theorie über die Intensität von Zielen.« Nur: Wenn du es programmieren willst, musst du ihm einen Wert geben. Nicht zuletzt ist es einfach, komplexe Situationen zu benennen, die weder Psychologie noch Hirnforschung noch KI-Forschung erklären können. »Du bist glücklich, wenn du Musik hörst. Aber wieso?« Wie steigert Musik den Wert der Situation? Oder Humor? Emotionen in Zahlen und Werte zu gießen, hat seine Grenzen. Zumindest noch.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.