Direkt zum Inhalt

Künstliche Intelligenz : Chatten mit einer emotionalen KI

Eine Hightechfirma hat virtuelle Assistenten erschaffen, die über eine lebensechte Mimik verfügen. Als Kundensupport sollen sie in Videochats mit emotionaler Intelligenz auf Kunden reagieren.
Lifelike, Emotionally Responsive AI

Veröffentlicht am: 14.06.2018

Laufzeit: 0:04:12

Sprache: englisch

Untertitel: englisch

Futurism 1.0 ist der YouTube-Kanal der US-amerikanischen Medienplattform Futurism, die Videos zu den Themen Technologie und Wissenschaft veröffentlicht.

Werden künstliche Intelligenzen bald die Welt beherrschen? Der im März verstorbene Astrophysiker Stephen Hawking warnte immer wieder davor, aber die virtuellen Assistenten Siri und Alexa würden beim Casting für Superschurken wohl in der ersten Runde ausscheiden. Sie reagieren auf gesprochene Fragen und Befehle, zeigen aber nicht einmal den Anflug einer eigenen Persönlichkeit.

Die im Youtube-Video der Medienplattform Futurism vorgestellte neuseeländische Firma Soul Machines weist dagegen den Weg in eine Zukunft, die wir bisher nur aus Sciencefiction-Filmen kannten. Sie hat für ihren virtuellen Assistenten menschliche, lebensecht wirkende Gesichter geschaffen. Der Kopf dieser Avatare ist ständig in leichter Bewegung, und die Pupillen folgen dem Gegenüber. Die virtuellen Gesichtsmuskeln verändern fast unmerklich Wangen, Nasenflügel und Augenbrauen. Damit wirkt der Avatar lebendig und aufmerksam.

Beim Sprechen bewegt er nicht nur den Mund, sondern auch das übrige Gesicht. Mark Sagar, der Kopf hinter der Computertechnik von Soul Machines, hat langjährige Erfahrung mit Animationen. Er arbeitet im Laboratory of Animate Technologies der Universität Auckland in Neuseeland und war schon an der Computertechnik für die Animationen in Filmen wie Avatar, King Kong und Spiderman 2 beteiligt.

Seine Firma entwirft und verkauft Avatare für den Kundensupport an Banken oder Softwarefirmen. Die virtuellen Helfer sollen gesprochene Anfragen verstehen und möglichst auch den emotionalen Gehalt der Sprache richtig interpretieren. Im Videochat soll der Avatar begreifen, welche Gefühle die Gesichter der Menschen gerade ausdrücken, und darauf richtig reagieren. Banken möchten ihren Kunden natürlich am Bildschirm gerne die Illusion eines persönlichen Gesprächs vermitteln. Deshalb soll der Avatar über eine menschlich erscheinende Mimik verfügen. Es reicht nicht, die Mimik grob zu simulieren. Das Bild muss perfekt sein, sonst weckt es Misstrauen. Diese Anforderungen bringen aber auch die besten KI-Systeme an ihre Grenzen.

Der Droide C3PO aus Star Wars wirkt sympathisch, weil sein starres Gesicht keine Emotionen vortäuscht. Sein ungelenker Gang und seine freundliche Stimme weisen ihn als einen harmlosen Sonderling aus. Versucht man die Gesichter von Robotern oder Avataren menschenähnlicher zu machen, dann erscheinen sie den Menschen plötzlich unheimlich. Der Effekt verstärkt sich mit zunehmend genauerer Simulation. Erst die perfekte Nachahmung macht das Kunstgesicht wieder sympathisch. Für diesen seltsamen Effekt hat der Japaner Masahiro Mori schon 1970 den Begriff »Uncanny Valley« (zu deutsch: unheimliches Tal) geprägt (siehe hierzu einen Beitrag in »Scientific American«).

Als die Gründer von Soul Machines ins Geschäft kommen wollten, mussten sie ihren Kunden Avatare anbieten, die ein ganz und gar menschliches Gesicht mit natürlicher Mimik präsentieren. Das ist ihnen hervorragend gelungen, wie das Video eindrucksvoll vorführt. Das Gesicht des Avatars AVA wurde allerdings nicht komplett am Rechner erschaffen, es stammt von der neuseeländischen Schauspielerin Shushila Takao. Im wirklichen Leben sind ihre Pupillen natürlich nicht von einer so auffällig violetten Iris umgeben. AVA (für Autodesk Virtual Assistant) arbeitet im technischen Support der Computerfirma Autodesk, dem ersten Kunden von Soul Machines.

Inzwischen hat sie eine ganze Reihe von Geschwistern bekommen. Jamie berät die Kunden der Australia und New Zealand Banking Group, Sarah informiert für den Daimler Financial Service über Autofinanzierungen, und die britische National-Westminster-Bank hat CORA engagiert, um ihr menschliches Personal bei einfachen Kundenfragen zu entlasten.

Solche Dienstleistungen stellen aber immer noch hohe Anforderungen an die Technik. Deshalb sind die Systeme cloudbasiert, man redet nicht mit einer Software auf seinem Rechner, vielmehr werden alle Aktionen an einen Höchstleistungsrechner übertragen. Und im Hintergrund arbeitet IBMs mächtiges KI-System Watson. Trotzdem gestaltet sich der Dialog mit dem Avatar zuweilen etwas holperig, wie das neuseeländische Onlinemagazin The Spinoff« bei einem Praxistest herausfand. So verhört sich die künstliche Intelligenz zuweilen oder versteht eine Antwort falsch.

Das Video erwähnt wenig davon, es wirkt auf weiten Strecken wie eine Werbung für Soul Machines – und verbreitet teilweise blühenden Unsinn. Die Entwickler hätten ihrer emotionalen KI einen virtuellen Hirnstamm gegeben, der vermutlich virtuelles Dopamin, Serotonin und Oxytozin absondere, sagt der Sprecher. Das steht so ähnlich auf der Website, und auch Greg Cross, der Geschäftsführer von Soul Machines , behauptet in Bezug auf den Avatar Jamie: »Sie hat ein virtuelles Gehirn. Wenn man also Jamie anlacht, erhält sie Stöße virtuellen Dopamins und virtuellen Serotonins, um sie auch zum Lächeln zu bringen.«

Diese Aussagen führen allerdings in die Irre und gehen von einer falschen Vorstellung von der Steuerung des menschlichen Gefühlslebens aus. Wie kommen sie aber zu Stande? Grundlage der KI von Soul Machines sind zwei universitäre Projekte von Mark Sagar. Eines ist der Auckland Face Simulator, der Gesichter lebensecht animieren kann. Das zweite, wesentlich ehrgeizigere Projekt heißt »BabyX« und soll laut Sagar »Modelle der motorischen Systeme von Kopf und Oberkörper mit vereinfachten Modellen neuronaler Systeme kombinieren, die an früher sozialer Interaktion und am sozialen Lernen beteiligt sind«. Daraus soll auf dem Bildschirm eine Simulation eines Babys entstehen, mit der man natürlich interagieren kann. Bisher sind die neuronalen Systeme eher rudimentär implementiert, und es gibt eine Variable, mit der sich die Aktivität des Gesamtsystems modulieren lässt. Sagar bezeichnet sie in einer wissenschaftlichen Veröffentlichung aus dem Jahr 2016 als »Dopamin«. Inzwischen mögen weitere hinzugekommen sein, die dann intern unter »Serotonin« und »Oxytozin« geführt werden. Mit den menschlichen Neurotransmittern und Hormonen gleichen Namens hat das aber wenig bis nichts zu tun.

Über diese technischen Hintergründe der Avatar-Entwicklung bei Soul Machines schweigt sich das Video leider weitgehend aus. Trotz dieser Unzulänglichkeiten sollte man sich die Dokumentation durchaus ansehen. Die animierten Avatare von Soul Machines zeigen uns, wie die Zukunft der Kundenberatung im Web wahrscheinlich aussehen wird.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.