Direkt zum Inhalt

Deep Fakes: Mathematische Analyse soll alle Deep Fakes enttarnen

Haben Forscher die Schwachstelle von Deep Fakes gefunden? Bei einer simplen mathematischen Analyse der Pixel verraten sich Bilder, die die KI erzeugt hat, durch auffällige Muster.
Welches Gesicht ist echt?

Deep Fakes werden mit Hilfe von Deep-Learning-Netzwerken erzeugt und wirken oft so täuschend echt, dass sie ahnungslose Betrachter leicht hinters Licht führen. Wer es selbst einmal ausprobieren will, kann auf der Website whichfaceisreal.com raten, welches von zwei Gesichtern das echte und welches das vom Computer erzeugte ist. Auch mit Hilfe von Software gelingt diese Unterscheidung nicht immer zuverlässig.

Womöglich wird aber zumindest der Computer bald nicht mehr auf die Täuschung hereinfallen, denn eine einfache mathematische Analyse der Pixel hilft, die Manipulation zu erkennen. Wie ein Entwicklerteam um Joel Frank von der Ruhr-Universität Bochum auf der International Conference on Machine Learning (ICML) berichtet, verraten sich Deep Fakes durch ein auffälliges Gittermuster, wenn man sie in eine Frequenzdarstellung umwandelt.

Bei der diskreten Kosinustransformation werde das Bild als Summe vieler verschiedener Kosinusfunktionen ausgedrückt, erläutern die Forscher. Während natürliche Bilder größtenteils aus niederfrequenten Funktionen bestünden, zeigten künstlich generierte Bilder verschiedene Arten von Artefakten im hochfrequenten Bereich.

Ein natürliches Bild (links) und ein computergeneriertes (rechts) | Die Gitterstruktur könnte ein Merkmal aller – oder zumindest aller derzeitigen – Deep-Learning-Netze sein, die Bilder erzeugen.

Es scheine sich dabei um ein strukturelles Problem aller Deep-Learning-Algorithmen zu handeln, erläutert Frank. »Wir gehen davon aus, dass man anhand der in unserer Studie beschriebenen Artefakte immer erkennt, ob es sich um ein Deep-Fake-Bild handelt, das mit maschinellem Lernen erstellt wurde«.

Deep Fakes werden zumeist mit Hilfe zweier künstlicher neuronaler Netze hergestellt, die in einer Art Wettkampf gegeneinander arbeiten. Das eine lernt, möglichst naturalistisch aussehende Bilder zu erzeugen, das andere lernt, diese Fake-Bilder von echten zu unterscheiden. Im Verlauf des Lernvorgangs werden die Ergebnisse beider Netze immer besser. Die Technik läuft unter dem Namen Generative Adversarial Networks oder GAN und liefert die bislang besten Imitate.

Wer mit Hilfe der Entdeckung der Bochumer Forscher selbst auf Fake-Jagd gehen möchte, kann den Code der Gruppe auf GitHub herunterladen.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.