Direkt zum Inhalt

Unheimliche Robotermimik: Roboter lernt realistische Lippenbewegung

Ein Roboter mit künstlicher Gesichtshaut kann zunächst nur Grimassen schneiden. Indem er stundenlang Youtube-Videos schaut, lernt er, seine Lippen synchron zur gesprochenen Sprache zu steuern.
Ein humanoider Roboter mit einem realistischen Gesichtsausdruck steht im Vordergrund. Der Roboter trägt ein weißes Oberteil mit einem aufgedruckten Muster. Der Hintergrund ist unscharf und zeigt blaue und schwarze Farbtöne. Der Roboter scheint in einer technologischen oder wissenschaftlichen Umgebung präsentiert zu werden.
Das Antlitz einiger humanoider Roboter wirkt menschlich, doch wenn sie sprechen, wird es unheimlich.

Einige humanoide Roboter blicken mit erstaunlich echt wirkenden Gesichtern in die Welt. Doch wenn ein solcher Roboter zu sprechen beginnt, überkommt einen das mulmige Gefühl: Dieses Gerät spielt bloß einen Menschen und hat dabei zombiehafte Züge. Ein Grund dafür ist die hölzerne Mimik des Roboters und, dass er seine Lippen nicht passend zu den gesprochenen Wörtern bewegt. Ein Robotergesicht, das Fachleute der Columbia University School of Engineering and Applied Sciences entwickelt haben, soll das ändern.

Nur durch Beobachtung lernt das künstliche Gesicht, seine Lippen so zu bewegen, dass sie zu Sprache oder Gesang passen. Der Roboter besitzt eine flexible, künstliche Haut, die von 26 kleinen Motoren bewegt wird. Zunächst setzten die Forschenden dieses Gesicht vor einen Spiegel und ließen es Grimassen schneiden. Aus den Tausenden von Ausdrücken lernte eine KI, die Motoren so anzusteuern, dass das künstliche Gesicht eine bestimmte Mimik erzeugt.

Anschließend zeigten die Forschenden dem Roboter aufgezeichnete Videos von sprechenden und singenden Menschen. Die KI lernte daraus, wie sich der Mund von echten Personen bei bestimmten Lauten bewegt. Mit beiden Modellen kann die KI des Roboters die Laute von Sprache und Gesang direkt in Lippenbewegung übersetzen.

© Yuhang Hu/Creative Machines Lab/Columbia Engineering

Das Forschungsteam räumt ein, dass die künstlichen Lippenbewegungen nicht perfekt sind. Besonders schwierig zu synchronisieren seien etwa harte Laute wie »P« und solche, die wie das »U« gespitzte Lippen erfordern. Sie rechnen aber damit, dass sich diese Fähigkeiten durch noch ausgiebigeres Training verbessern werden. Bislang bleibt die Mimik echter menschlicher Gesichter unerreicht. Diese werden von Dutzenden von Muskeln animiert, die direkt unter der weichen Haut liegen und sich auf natürliche Weise mit den Stimmbändern und Lippenbewegungen synchronisieren.

  • Quellen
Hu, Y. et al., Science Robotics 10.1126/scirobotics.adx3017, 2026

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.