Direkt zum Inhalt
Login erforderlich
Dieser Artikel ist Abonnenten von Spektrum der Wissenschaft frei zugänglich.

Medien: Klicks, Lügen und Video

Womöglich vertrauen wir bald keiner Nachricht mehr. Denn künstliche Intelligenz ermöglicht es inzwischen jedem, täuschend echte Film- und Tonsequenzen zu erzeugen.
Motion Capturing

Im April 2018 erschien ein neues Video von Barack Obama im Internet. Er sieht aus wie bei jeder seiner Reden: blütenweißes Hemd, dunkler Anzug mit einer Flaggennadel am Revers, im Hintergrund die amerikanische und die Präsidentschaftsflagge. Obama blickt in die Kamera und spricht mit ausdrucksvollen Handbewegungen die Worte: »Präsident Trump ist ein totaler Volltrottel.«

Ohne auch nur zu zwinkern, fährt er fort: »Nun, sehen Sie, ich würde so etwas nie sagen. Jedenfalls nicht in einer öffentlichen Rede. Aber jemand anderes würde es tun« – woraufhin der Schauspieler Jordan Peele in der rechten Hälfte des Bildes auftaucht.

Obama hatte nichts dergleichen gesagt; eine Aufzeichnung einer echten Rede war so manipuliert worden, dass seine Mund- und Handbewegungen denen Peeles folgen. Seite an Seite sieht man die beiden sprechen, während Peele als gleichsam digitaler Bauchredner Obama die Worte in den Mund legt.

Produziert hat dieses – inzwischen millionenfach angeklickte – Video das Medienunternehmen Buzzfeed News auf eigene Kosten als Demonstration einer neuen Technik aus der künstlichen Intelligenz (KI). Mittlerweile kann die Software für Ton und bewegte Bilder nämlich dasselbe tun wie Photoshop für gewöhnliche Bilder: die Realität täuschend echt verfälschen.

Noch sind die Ergebnisse verbesserungsfähig. Obamas Stimme klingt ein bisschen näselnd, und wer genau hinschaut, sieht seinen Mund für kurze Momente zur Seite verrutschen. Aber das wird sich geben. Die ursprünglich für Kinofilme und Videospiele entwickelte Technik macht große Fortschritte und lässt inzwischen bei Sicherheits­experten und Medienwissenschaftlern die schwärzesten Fantasien aufkommen …

Dezember 2018

Dieser Artikel ist enthalten in Spektrum der Wissenschaft Dezember 2018

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Blanz, V., Vetter, T.: A Morphable Model for the Synthesis of 3D Faces. SIGGRAPH'99 Conference Proceedings, 187-194, 1999

Goodfellow, I. et al.: Generative adversarial nets. arxiv.org/pdf/1406.2661.pdf, 2014

Karras T. et al.: Progressive Growing of GANs for Improved Quality, Stability, and Variation. Conference paper at ICLR 2018

Lazar, D. M. J. et al.: The Science of Fake News. In: Science 359, S. 1094–1096, 9. März 2018

Marwick, A. E.: Why Do People Share Fake News? A Sociotechnical Model of Media Effects. In: Georgetown Law Technology Review 2, S. 474–512, 2018

Troje, N., Bülthoff, H.: Face Recognition Under Varying Poses: The Role of Texture and Shape. In: Vision Research 36, S. 1761–1771, 1996

Eine der Arbeiten aus dem MPI für biologische Kybernetik, Tübingen

Zhu, J. Z. et al.: Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks. arxiv.org/abs/1703.10593