Direkt zum Inhalt

Lobes Digitalfabrik: Wenn Prominente in Pornofilmen landen

Im Internet kursieren jede Menge Falschnachrichten. Doch nicht nur Texte, auch Bilder und Videos lassen sich per Mausklick montieren.
Rote Lippen - und nicht immer sind sie echt

Im Onlineforum Reddit wurde vor ein paar Wochen ein Pornoclip eingestellt, in dem eine Michelle Obama verblüffend ähnlich sehende Frau in Reizwäsche vor einem roten Sofa strippt. Doch bei dem Filmchen handelte es sich nicht etwa um eine geleakte Sexszene aus dem Weißen Haus, sondern um einen Fake. Mit Hilfe eines Computerprogramms namens FakeApp wurde das Konterfei der einstigen First Lady auf das Gesicht einer Pornodarstellerin montiert und in einen Pornofilm integriert. Bei genauem Hinsehen erkennt man die rauen Bildübergänge und das kastenförmige Gesicht der Obama-Doppelgängerin.

Der Clip, der in dem Subreddit "DeepFake" abgelegt wurde, ist mittlerweile aus dem Forum entfernt worden (auf einigen nicht ganz jugendfreien Seiten ist er weiter abrufbar). Das Fake-Video ist aber insofern kompromittierend, als es das Gesicht einer Frau in den Kontext einer Pornoszene einbettet und damit auch die Persönlichkeitsrechte von Michelle Obama tangiert. Auf einschlägigen Pornoseiten gibt es dutzende Clips, in denen Gesichter prominenter Schauspielerinnen wie Emma Watson oder Jennifer Aniston auftauchen.

Solche computergenerierten Bilder waren bis vor ein paar Jahren lediglich in aufwändigen Hollywood-Produktionen möglich. Doch mit der Entwicklung künstlicher Intelligenzen benötigt man für die Manipulation von Bildern keine teuren Spezialeffekte mehr, sondern nur noch eine App. Ein Reddit-User demonstrierte kürzlich, wie einfach es ist, ein Video zu verfälschen. Der Nutzer namens "deepfakes" nahm ein Foto der israelischen Schauspielerin Gal Gadot und platzierte es mit Hilfe eines Algorithmus in einen Pornofilm. Das Open-Source-Tool TensorFlow, das dabei zum Einsatz kam, steht Studenten kostenlos zur Verfügung. Mit einem technischen Kniff wurde aus der Schauspielerin eine Pornodarstellerin.

Wenn man sich den Clip genauer ansieht, erkennt man einige Unschärfen. Das Gesicht ist pixelig, der Kopf wirkt in manchen Szenen wie ein Fremdkörper. Es gibt bereits Techniken, mit denen sich Bildmaterial auch professionell manipulieren lässt. Forscher der Universität Erlangen-Nürnberg haben eine Software entwickelt, mit der sich Mimik und Lippenbewegungen eines Menschen erfassen und in Echtzeit auf das Videobild einer anderen Figur übertragen lassen. Dabei wird das Gesicht des Sprechers aus drei Richtungen fotografiert. Ein Computerprogramm erstellt ein 3-D-Modell, das wie eine Maske über das Konterfei einer anderen Person gelegt wird. Wenn die Person zu sprechen anfängt, übersetzt die Software simultan die Mimik und projiziert sie auf die Zielperson. Man kann also grinsen oder die Mundwinkel verziehen, während es der digitale Doppelgänger von Wladimir Putin gleichtut.

Auch Stimmen lassen sich verfälschen. Adobe hat im Jahr 2017 eine Technik vorgestellt, mit der sich Sprachaufzeichnungen per Texteditor wie in einem Photoshop für Audioaufnahmen synthetisieren lassen. Mit dem Programm kann man Prominenten Worte in den Mund legen, die sich täuschend echt anhören. Stimmen, Bilder, Videos – mit der richtigen Software kann heutzutage alles manipuliert werden. Was an dem Fake-Porno des Reddit-Nutzers verblüfft, ist zum einen die Leichtigkeit, mit der sich Bewegtbilder retuschieren lassen, zum anderen das immense Manipulationspotenzial. In Zeiten, in denen täglich 300 Millionen Fotos auf Facebook hochgeladen werden und an jeder Ecke Gesichtserkennungssysteme installiert werden, kann das Konterfei leichter Hand zum Gegenstand von Rachepornos werden. Kaum hat man sich versehen, landet man auf einer Pornoplattform oder sieht sich in kompromittierendem Videomaterial. Was die Frage aufwirft: Hat man noch die Kontrolle über sein Konterfei? Oder hat sich die digitale Bilderflut so verselbstständigt, dass jeder Schnappschuss zum Gegenstand der Postproduktion wird?

Das Recht am eigenen Bild?

Der französische Medientheoretiker Jean Baudrillard schrieb in seinem Werk "Die Intelligenz des Bösen" (2004): "Man tritt in einen Bereich ein, wo die Ereignisse, durch ihre Produktion und Ausstrahlung in 'Echtzeit', nicht mehr tatsächlich stattfinden – wo sie sich in der Leere der Information verlieren. Die Sphäre der Information ist wie ein Raum, in dem man, nachdem die Ereignisse ihrer Substanz entleert sind, erneut eine künstliche Schwere erschafft und sie wieder auf die Umlaufbahn in 'Echtzeit' aussetzt – oder indem man sie, nachdem sie historisch entkräftet sind, auf die transpolitische Bühne der Information zurückwirft."

Baudrillard schrieb bereits 2004 von "fake events" (sic!), als hätte er das Aufkommen von Deep Fakes geahnt. "Ob diese Ereignisse fabriziert sind oder nicht, so werden sie doch von der stillen Epidemie der Informationsnetzwerke inszeniert." Man weiß gar nicht, was an der "Ereignisbörse" Internet noch real ist oder bereits durch irgendeine Software verfälscht wurde. Ist der Fake-Porno nicht insofern real, als er ein Artefakt darstellt und damit – zumindest in der Fälschung – authentisch ist? Oder ist er hyperreal, weil sich Fakt und Fiktion gar nicht mehr unterscheiden lassen? Das sind keine erkenntnistheoretischen Glasperlenspiele aus dem Elfenbeinturm, sondern Fragen von höchst praktischer Relevanz. Denn: An der Integrität der Information hängt auch die Integrität einer funktionierenden Öffentlichkeit.

Natürlich kann man die Authentizität der Bilder anhand von Metadaten und der Zahl digitaler Bearbeitungsschritte verifizieren. Wenn ein Bild häufig bearbeitet wurde, legt dies nahe, dass es möglicherweise verfälscht wurde. Mit der Verbreitung von Fake-Videos erreicht die Manipulationstechnik aber eine neue Dimension, weil von Bewegtbildern eine ganz andere Wirkmacht als von Texten ausgeht. Die verleumderische Behauptung, Michelle Obama habe eine Vergangenheit als Pornodarstellerin, kann man leichter widerlegen als einen Fake-Porno. Ist ein Bild erst mal im Netz, lässt es sich schwerlich aus der Welt schaffen. Wir leben in einem Zeitalter der Hyperfaktizität, wo so viele Fakten existieren, dass man sich nach dem Baukastenprinzip seine eigene Version von Wahrheit zusammenbasteln kann. Das Problem ist nur, dass die Flut von Informationen die Kriterien objektiver Wahrheit auswäscht.

Schreiben Sie uns!

1 Beitrag anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.