Ende 2016 ächzte die Welt unter den so genannten Fake-News. Und auch 2017 wird das Problem aller Voraussicht nach nicht kleiner. Im Gegenteil: Angesichts der anstehenden Bundestagswahl könnte es bald sogar noch größere Dimensionen annehmen. Zuletzt hat nun Facebook selbst angekündigt, in Deutschland gegen Falschmeldungen vorgehen zu wollen. In Zusammenarbeit mit dem Recherchebüro Correctiv will das Netzwerk künftig Beiträge gezielt auf ihren Wahrheitsgehalt prüfen, wenn viele Nutzer sie als falsch melden. Stellt sich ein Post dann tatsächlich als unwahr heraus, soll er mit einem Warnhinweis versehen werden.

Das Verfahren, das Facebook anstrebt, ist aufwändig – und erfordert viel Manpower, wenn die Zahl der potenziellen Falschmeldungen in die Höhe schießt. Da scheint die Hoffnung auf eine technische Lösung nicht unberechtigt: Wie schön wäre es, wenn Computer selbst die Welt von Falschmeldungen befreien könnten! Schließlich haben Algorithmen die Fake-News erst groß werden lassen.

"Das Problem an seiner Quelle zu fassen, ist in diesem Fall nicht die beste Strategie" (Victoria Rubin)

Während manche bereits daran arbeiten, seriöse Quellen von unseriösen maschinell zu unterscheiden, geht anderen dieser Ansatz noch nicht weit genug. Sie warnen: Das ist zu spät, so können wir das Phänomen nicht in den Griff bekommen. "Das Problem an seiner Quelle zu packen, ist in diesem Fall nicht die beste Strategie", sagt Victoria Rubin, Associate Professor an der University of Western Ontario in London, Kanada. Denn dafür verbreiten sich Fake-News zu schnell. Zudem gibt es ständig neue Quellen und neue Websites, die Falschmeldungen produzieren – hat man eine identifiziert, schießen bereits zehn neue irgendwo anders aus dem Boden.

Wirklich von Nöten wäre also eine Art maschinelles "Gegengift" gegen das Lügen an sich: Algorithmen, die Falschmeldungen selbstständig als solche erkennen und die Menschen vor ihnen warnen. Doch lässt sich das umsetzten? Computerlinguisten antworten auf diese Frage meistens mit einem Stöhnen: Themen, ja, die können Maschinen gut erkennen. Aber eine Bewertung, eine Meinung, einen Kontext? Damit hat die Forschung noch zu kämpfen. Schon beim zweiten großen Thema des Jahres 2016, Hate-Speech, hatten sich verschiedene Experten vergeblich darum bemüht, den Hass auf sozialen Netzwerken und in Kommentarspalten automatisch herauszufiltern. Doch ihre Algorithmen erwischten häufig die Falschen: diejenigen, die dem Hass widersprachen. Sie erkannten das Thema, aber versagten am Kontext.

Eine Wette auf Twitter

Entsprechend fühlte sich Dean Pomerleau auf der sicheren Seite, als er vor einigen Wochen eine Wette auf Twitter ausrief: Wetten, ihr schafft es nicht, einen Algorithmus zu schreiben, der zwischen falschen und richtigen Behauptungen unterscheiden kann? 1000 US-Dollar setzte der Professor für künstliche Intelligenz der Carnegie Mellon University in Pittsburgh auf seine Behauptung. Einige Tage später legte Delip Rao nochmal 1000 US-Dollar drauf, offenbar auch wenig überzeugt von den Chancen der Algorithmen. Der Maschinenlernexperte hat unter anderem das Spracherkennungssystem von Amazons digitalem Assistenten Echo mit entwickelt.

Es scheint jedoch so, als hätte die Wette den Ehrgeiz der Community geweckt: Auf der eigens dafür angelegten Homepage "Fake News Challenge" haben sich bereits 66 Teams registriert, die die Herausforderung annehmen und einen entsprechenden Algorithmus innerhalb von sechs Monaten schreiben wollen. Die Trainingsdaten stellt Pomerleau, sie bestehen aus falschen und richtigen Meldungen, die entsprechend gekennzeichnet sind. Aufgabe ist es, ein System zu entwickeln, das maximal zehn Prozent falsch negative und falsch positive Zuordnungen macht. Es dürfen also nicht mehr als zehn Prozent der wahren Behauptungen als falsch klassifiziert werden und andersherum.

"Wir brauchen den Menschen im System, das Urteil von Experten ist unersetzlich" (Delip Rao)

"Sie werden versagen", unkt schon jetzt das US-Magazin "Wired". Denn neuronale Netze könnten zwar Bilder erkennen und sogar autonome Autos lenken, "aber sie können Fake-News nicht identifizieren, zumindest nicht mit realer Gewissheit." Dafür brauche es ein menschliches Urteil. Davon ist auch Pomerleau überzeugt: "Wenn eine Maschine zuverlässig Fake-News erkennt, würde das bedeuten, dass die künstliche Intelligenz ein menschliches Level erreicht hat."

Artikel und Aussagen wie diese ärgern Victoria Rubin. "Natürlich werden Algorithmen Falschmeldungen erkennen können", sagt die Forscherin, die sich auf "natural language processing" – die maschinelle Verarbeitung menschlicher Sprache – spezialisiert hat, "aber nicht in den nächsten zwei Monaten." Unbemerkt von der Öffentlichkeit beschäftigt sich eine kleine Gruppe Wissenschaftler schon seit rund 15 Jahren damit, wie man Lügen automatisch erkennen kann, vielleicht 30 bis 50 Experten weltweit schätzt Rubin. "Aber jetzt explodiert es." Seit das Internet den Lügen zum Erfolg verholfen und die Welt das Thema als Problem erkannt hat, können sich diese Forscher vor Anfragen kaum retten. Doch in Bezug auf Falschmeldungen stehen sie ebenfalls noch am Anfang.

In der Vergangenheit haben sich diese Wissenschaftler damit beschäftigt, wie beispielsweise Gerichtsgutachter oder Polizisten erkennen können, ob ein Zeuge lügt, woran man gefälschte Hotelbewertungen erkennt oder ob Blogs im Internet wahre oder falsche Inhalte verbreiten. Die Herausforderung in Bezug auf Fake-News sind unter anderem die Trainingsdaten: So wie eine Bilddatenbank mit Millionen gelabelter Bilder beispielsweise Googles Bilderkennungsalgorithmus groß gemacht hat, braucht es auch unzählige von Menschen als falsch und richtig markierte Meldungen, mit denen ein Algorithmus üben kann.

Die besseren Lügendetektoren

Überraschenderweise stellen sich die Maschinen beim Lügenerkennen schon heute deutlich besser an als der Mensch – was auch daran liegt, dass der Mensch sehr schlecht darin ist. Rubin und ihre Kollegen ließen bereits vor sieben Jahren rund 250 Probanden wahre und falsche Kurzgeschichten schreiben. Anschließend sollten sie selbst kennzeichnen, welche Erzählungen frei erfunden waren. Die gelogenen Geschichten sollten allerdings plausibel sein – beispielsweise konnten die Probanden eine wahre Begegnung schildern und nur Kleinigkeiten ändern, oder auch ganze Gegebenheiten erfinden, etwa einen Verkehrsunfall.

Anschließend baten die Forscher andere Teilnehmer, zu beurteilen, welche der Geschichten gelogen waren. Sie erkannten das mit einer Genauigkeit von 53 Prozent – man hätte also ebenso gut eine Münze werfen können. "Menschen sind schlecht darin, Lügen zu erkennen", sagt Rubin. "Wir haben eine falsche Tendenz, wir glauben gerne alles, wir suchen nicht nach Lügen." Ein Algorithmus hingegen, den Rubin anschließend mit den gleichen wahren und falschen Geschichten trainierte, fand offenbar doch Muster in den Texten, die auf Lügen schließen ließen: Er ordnete 63 Prozent der Texte richtig zu. Das ist zwar ebenfalls weit davon entfernt, zuverlässig zu sein – aber es ist eine Frage der Definition, was als Maßstab für die "reale Gewissheit" dient, die "Wired" fordert. Der Mensch? Dann sind die Maschinen schon heute besser.

"Menschen sind schlecht darin, Lügen zu erkennen" (Victoria Rubin)

Die Forscher nutzten in den Folgejahren verschiedene andere Trainingsdaten, beispielsweise satirische Artikel, die ebenfalls "falsche" Behauptungen enthalten – zumindest falls man die darin enthaltene Ironie und Satire nicht versteht, was ebenfalls vielen Menschen schwerfällt. Ein Algorithmus von Rubin und ihrem Team erkannte 2016 Satire mit einer Zuverlässigkeit von 87 Prozent – und als die Forscher zusätzliche Regeln programmierten, wie die, dass der erste und der letzte Satz eines solchen satirischen Artikels meist besonders deutliche Anzeichen enthalten, erreichten sie gar eine Genauigkeit von 91 Prozent. "Bis vor Kurzem hieß es, Ironie, Sarkasmus und Emotionen erkennen nur Menschen", sagt Rubin. Wieso also sollte Lügenerkennung eine menschliche Domäne bleiben?

Doch welche Muster erkennen die Maschinen? Wie überführen sie Menschen beim Schwindeln? Das haben die Forscher nur teilweise entschlüsselt – und es hängt sehr davon ab, in welcher Form die Lügen vorliegen. Im Gespräch beispielsweise drücken sich flunkernde Menschen wortreicher aus als der Durchschnitt, sie nutzen mehr Wörter, die mit den Sinnen zusammenhängen, wie "sehen" oder "fühlen", und ihre Sätze sind im Schnitt weniger komplex aufgebaut. Vorstandsmitglieder großer Konzerne hingegen nutzen in öffentlichen Reden häufiger Ausdrücke wie "fantastisch" oder "exzellent", wenn sie bewusst lügen.

Was sind Fake-News?

Das zeigt aber auch eines: Lügen sind nicht gleich Lügen. Offenbar muss sehr genau definiert sein, welche Art von Unwahrheiten und welche Situationen gemeint sind, damit die Algorithmen eine Chance haben. "Das allein ist ein riesiges Problem", sagt der ehemalige Echo-Entwickler Rao gegenüber "Wired". "Wir müssen sehr viel Zeit allein damit verbringen, zu definieren, was genau Fake-News überhaupt sind.“ Und das ist vielleicht die größte Herausforderung daran: Mustererkennungsalgorithmen brauchen ein wohldefiniertes Problem.

"Natürlich müssen wir genau bestimmen, was wir suchen", sagt auch Rubin. Aber Fake-News sind nicht eindeutig definiert: Mal sind es Gerüchte, mal bewusste Lügen, mal falsch verstandene Satire oder Ironie. Und manchmal vielleicht einfach Missverständnisse. Ein Algorithmus, der bewusste Lügen relativ gut entlarvt, scheitert schon dann, wenn jemand diese Lügen glaubt und in seinen eigenen Worten wiedergibt. Denn dann verwendet dieser nicht jene Prädiktoren, die Rubin und ihre maschinellen Lernverfahren in bewussten Unwahrheiten entdeckt haben. Er spricht dann so, als sage er die Wahrheit – weil er selbst glaubt, es sei die Wahrheit. Dann hilft nur noch der Kontext, um Inhalte klar als falsch oder richtig zu erkennen. Und mit dem wiederum haben die Algorithmen ein Problem: Ihn intuitiv zu erkennen, das ist eine menschliche Gabe, die Computer nicht so einfach übernehmen können.

Wer genau hinsieht, merkt aber auch, dass sich die Forscher am Ende doch nicht ganz so uneinig sind. Auch wenn Pomerleau sicher ist, dass er seine Wette gewinnen wird (zu Recht, allein weil eine 90-prozentige Genauigkeit eine große Herausforderung ist), glaubt er, dass eine Kombination aus Mensch und Maschine das beste Mittel gegen Fake-News ist. Algorithmen könnten helfen, das Problem zu lindern, hofft er, indem sie potenzielle Falschmeldungen entlarven und dann Menschen um Rat fragen, welche der Nachrichten tatsächlich problematisch sind. Auch Delip Rao, der Pomerleaus Wette um weitere 1000 US-Dollar aufgestockte, bestätigt: "Wir brauchen den Menschen im System, das Urteil von Experten ist unersetzlich."

Und selbst Victoria Rubin, die davon überzeugt ist, dass das Problem der automatischen Lügenerkennung eines Tages mehr oder weniger gelöst sein wird, beharrt auf der menschlichen Beteiligung: "Software kann unsere menschliche Unterscheidungskraft nur unterstützen, sie kann sie nicht ersetzen." Das kritische Denken der Leser bleibt die zentrale Herausforderung.