Direkt zum Inhalt

Emotionale Maschinen: Sollten Roboter Gefühle zeigen?

Jahrzehntelang haben wir uns mit Maus und Tastatur begnügt, um mit Maschinen zu kommunizieren. In Zeiten des Booms künstlicher Intelligenz und Robotik könnte dieses Spektrum allerdings schon bald erweitert werden. Schließlich stehen uns auch für die Kommunikation untereinander viel ausgefeiltere Mittel zur Verfügung als bloß kühle Worte und einfache Klicks. Wir unterstreichen das Gesagte mit Mimik und Gesten oder variieren den Klang unserer Stimme, um dem Gegenüber ein vielschichtiges Bild von dem zu vermitteln, was uns am Herzen liegt.
© BBC Earthlab
emotionale KI

Laufzeit: 0:03:49

Sprache: englisch

Die britische öffentlich-rechtliche Rundfunkanstalt ist die weltweit größte nationale Einrichtung ihrer Art. Besonders gelobt werden ihre exzellenten Dokumentationen aus Natur, Technik und Wissenschaft.

In dem YouTube -Video des »BBC Earthlab« wird auf spielerische Art die Arbeit von Professor Peter Robinson von der University of Cambridge vorgestellt. Der Experte für Computertechnologie beschäftigt sich vor allem mit Grafik und Interaktion und hat bereits 2010 mit einem anderen Video, »The Emotional Computer« für mediales Aufsehen gesorgt. Im Zentrum von Robinsons Forschung steht die Frage, ob und wie ein Computer den Gesichtsausdruck eines Menschen erkennen und daraus Rückschlüsse auf seine momentane Befindlichkeit ziehen kann. Gleichzeitig versucht er auch umgekehrt, mit Hilfe von Robotergesichtern oder animierten Bildern, dem Anwender Emotionen zu vermitteln. Letztendlich soll auf diese Weise die Qualität und auch die Effizienz der Bedienung von Maschinen erhöht werden.

Das ist zweifellos ein interessanter Ansatz. Bis solche Systeme echte Vorteile bringen, ist es aber sicher noch ein langer Weg. Es mag zwar jetzt schon möglich sein, dass eine Bilderkennungssoftware aus der Mimik gewisse Emotionen wie Wut, Überraschung oder Freude erkennen kann. Was sie damit anfangen soll, ist jedoch fraglich. Uns helfen solche Informationen unter anderem dabei, das Gehörte richtig einzuschätzen. Die künstliche Intelligenz ist allerdings noch nicht einmal in der Lage, den Sinn eines einfachen Satzes zu erfassen. Dazu fehlt ihr das Verständnis von der Welt, und daran wird sich zumindest in näherer Zukunft wohl auch nicht viel ändern. Andererseits gibt es bereits einfachere Systeme, die ähnliche Zusatzinformationen aus den Gehirnwellen ziehen, um die Arbeit mit Maschinen zu vereinfachen. So kann mit Hilfe von Brain-Computer-Interfaces festgestellt werden, wie es gerade um unsere Konzentrationsfähigkeit bestellt ist; und es gibt bereits Ansätze, bei denen etwa Lernprogramme diese Information nutzen, um die präsentierten Lerninhalte entsprechend anzupassen. Wenn Ähnliches über die Analyse der Mimik gelänge, könnte man sich so zumindest die Elektrodenhaube für die Elektroenzephalografie (EEG) sparen.

Auch der umgekehrte Fall, bei dem Maschinen selbst Emotionen ausdrücken, ist durchaus problematisch – zumindest wenn sie dabei versuchen, den Menschen so genau wie möglich zu imitieren. Denn die Forschung zeigt, dass sich Menschen schwer damit tun, wenn man Mensch und Maschine kaum noch unterscheiden kann. Das Phänomen, das bereits seit den 1970er Jahren bekannt ist, wird oft als »Uncanny Valley«, also »unheimliches Tal«, bezeichnet. Es besagt, dass Roboter zwar sympathischer werden, je menschenähnlicher sie sind. Das gilt allerdings nur bis zu einem gewissen Maß an Ähnlichkeit, ab dem viele Menschen die Maschinen dann eher wieder als unheimlich empfinden. Erst wenn sich Roboter oder Avatare gar nicht mehr vom Menschen unterscheiden lassen, steigt der Theorie zufolge die Akzeptanz wieder an.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnervideos