Ist Big Data schuld an Trump? Dieses Luder, diese gefährliche Technologie, das sieht ihr ähnlich! Sie bringt Unheil über die Welt – jetzt haben wir den Beweis! So oder ähnlich denken offenbar viele nach der Lektüre des Textes "Ich habe nur gezeigt, dass es die Bombe gibt", der im Schweizer "Das Magazin" erschienen ist und letztes Wochenende für starken Aufruhr gesorgt hat. Die vage Hoffnung, dass vielleicht doch nicht Menschen, sondern Maschinen schuld sind am Wahlsieg des künftigen US-Präsidenten, scheint viele zu mobilisieren: Der Text dreht derzeit so nachhaltig seine Runden in den sozialen Netzwerken, dass man meinen könnte, er verkünde Revolutionäres. Das tut er aber nicht.

Kurz zusammengefasst handelt er von einem Psychologen, der anhand von Facebookdaten und Mustererkennungsalgorithmen Persönlichkeitsprofile von Nutzern errechnet hat. Diese Technologie nutzt ein Unternehmen namens Cambridge Analytica, um Politikern eine zielgruppengenaue Ansprache möglicher Wähler zu versprechen. Donald Trump hat dieses Angebot offenbar in seinem Wahlkampf genutzt.

Zur mutmaßlichen Enttäuschung des ein oder anderen Lesers muss hier zweierlei klargestellt werden. Auch wenn der Text den Eindruck erweckt, ist es alles andere als erwiesen, dass Trump die Wahl zum US-Präsidenten nur dank algorithmischer Unterstützung gewonnen hat. Und: Auch die im Text beschriebene Methode ist nicht neu. Immer wieder versuchen Forscher, aus persönlichen Daten im Netz und geposteten Inhalten in sozialen Netzwerken intime Details über die Nutzer herauszubekommen – ohne dass jene sie geteilt haben. Das klappt mit wechselndem Erfolg: Manchmal liegt die Erkennungswahrscheinlichkeit beispielsweise homo- versus heterosexueller Nutzer nur knapp über dem Zufall, oft aber auch deutlich darüber. Und das hat bisweilen selbst die Forscher erschreckt. Nachdem Eric Horvitz und Kollegen von Microsoft Research die Wahrscheinlichkeit, nach der junge Mütter nach der Geburt eine Wochenbettdepression erleiden, allein auf Grund von Facebook- und Twitterdaten bereits 2014 mit immerhin 70-prozentiger Wahrscheinlichkeit vorhersagten – und das auch anhand von Testdaten überprüften –, bekamen diese offenbar selbst Bauchschmerzen. Im Nachgang warnten Horvitz und andere in einem großen "Science"-Schwerpunkt vor dem Potenzial der neuen Technologie und vor allem vor dem Desinteresse der Gesellschaft daran, sich mit den möglichen Gefahren zu beschäftigen.

Reißerische Behauptung

Dieses Desinteresse hat der erwähnte Artikel ziemlich erfolgreich durchbrochen. Bedenklich ist allerdings, dass dafür die reißerische Behauptung nötig war, Donald Trump habe die Wahl dank dieser Technologie gewonnen. Denn das ist nicht nur an keiner Stelle belegt, sondern bei genauerem Hinsehen auch eher unwahrscheinlich. Auch wenn Algorithmen ihm sicherlich Auftrieb verschafft haben – nämlich jene von Facebook und Google, die ihre Nutzer in eine gemütliche Filterbubble einquartieren und sie vor anderen Meinungen schützen. Diese entsteht dadurch, dass beispielsweise Facebook seine eigene zielgruppengenaue Ansprache hat – ganz ohne psychologisches Profiling. Die algorithmischen Filter des Netzwerkes führen jedem einzelnen Nutzer vor allem jene Meldungen vor Augen, die mutmaßlich dessen Meinung entsprechen. Die Grundlage sind bisherige Aktivitäten des Betreffenden im Netz.

Das führt dazu, dass sich Menschen in ihrer Wahrnehmung gestärkt fühlen, weil ja scheinbar alle anderen ähnliche Inhalte teilen – nur ein Bruchteil der Facebooknutzer weiß, dass die Inhalte individuell angepasst sind. Diesen Effekt könnte der digitale Wahlkampf Trumps verstärkt haben. Glaubt man dem Text, versucht Cambridge Analytics diese Filterbubble ins reale Leben zu übertragen, indem Wahlkämpfer mit Informationen über Menschen ausgestattet wurden, bevor sie diese besuchten. Wie treffsicher sie dabei waren, weiß man allerdings nicht; dafür müsste man die Betroffenen direkt befragen. Zweifellos jedoch spielten die Algorithmen der sozialen Netzwerke Trump in die Hände, weil sie Falschmeldungen besonders effektiv verbreiteten, die beispielsweise Clinton diskreditierten oder behaupteten, der Papst stehe hinter Trump. Führte dies zur Schlussfolgerung, dass Algorithmen schließlich auch Menschen überzeugt haben könnten, Trump zu wählen, die ursprünglich Clinton favorisierten?

Das erscheint unwahrscheinlich. Aber selbst für die naheliegendere These, dass sich zumindest Unentschlossene durch die neue Technologie auf eine Seite ziehen ließen, gibt es keinen Beweis. Das ist der Haken an der Arbeit mit Daten: Wenn Big-Data-Algorithmen Muster in Datenmassen finden, sind das ausschließlich Korrelationen. Wie diese Muster aber zusammenhängen, das lässt sich nicht so einfach klären. Big-Data-Evangelisten sagen zwar immer wieder: Es ist egal, über welchen Weg etwas zusammenhängt, solange es viele Daten gibt und das Muster eindeutig ist. Deshalb ist es auch egal, wieso Menschen, die Filzgleiter für ihre Möbel kaufen, ihr Konto seltener überziehen (ja, auch dieses Muster haben Algorithmen gefunden!): Sie bekommen in Zukunft womöglich eher einen Kredit.

Wo sind die Kausalitäten?

Wer Daten aber zur politischen Analyse nutzen möchte, braucht weiterhin Kausalitäten. Hat das ausgefeilte Targeting von Cambridge Analytics also Menschen dazu gebracht, Trump zu wählen, die das ohne die gezielte Ansprache nicht gemacht hätten? Der Text versucht das zu belegen, indem er Alexander Nix, den Chief Executive Officer von Cambridge Analytica, bei einem Werbevortrag beobachtet. Und genau das ist der Haken: Nix versucht dort, seine Technologie zu verkaufen. Wenn er sagt: "Wir haben Psychogramme von allen erwachsenen US Bürgern – 220 Millionen Menschen", darf man das nicht für bare Münze nehmen. Das ist nicht die Aussage eines Wissenschaftlers, sondern die eines Marketingmannes.

Während der Text suggeriert, dass diese Psychogramme dazu beigetragen haben, Menschen zu überzeugen, muss man ehrlich sagen: Man weiß es nicht. Hier fallen die Autoren des Textes auf eine Verwechslung von Korrelationen und Kausalitäten herein. Trump hat eine ausgefeilte Technologie der Werbebranche eingesetzt. Und er hat die Wahl gewonnen. Hat das eine das andere verursacht? Um diese Frage seriös zu beantworten, müsste man eine klassische qualitative Forschung machen, die Menschen befragen, die jene zielgruppengenaue Ansprache "genossen" haben, besser noch an ihrem Leben teilhaben.

Es gibt aber auch keinen Beleg dafür, dass es nicht so ist. Wenn nun Kommentatoren wegen der Unzulänglichkeiten des Textes schreiben, das alles sei nichts Neues, schließlich habe es schon immer zielgruppenorientierte Werbung gegeben, ist das Unsinn. Die Möglichkeit, große Datenmengen auszuwerten, verändert diese Ansprache auf jeden Fall. Noch mögen die Algorithmen nicht besonders treffsicher sein und deren Genauigkeit von Forschern schön gerechnet. Aber es kommt nicht von ungefähr, dass viele Wissenschaftler den rasanten Aufstieg des Deep Learning – einer besonders effizienten Art des maschinellen Lernens – mit einer Revolution vergleichen. Noch sind die Unternehmen mit den Datenmassen aus dem Netz häufig überfordert. Selbst Google gibt zu, momentan vor allem zu sammeln und mit der Auswertung erst am Anfang zu stehen. Aber das wird sich in Zukunft ändern. Es ist also nicht an der Zeit, sich zurückzulehnen.

Was man dem Text trotz seiner unzulässigen Schlussfolgerung zugutehalten muss: Ganz offensichtlich hat er einige Menschen aufgeweckt, die bisher immun waren gegen das Mantra "Schütze deine Daten!", so dass in Zukunft die "Ich hab ja nichts zu verbergen"-Mentalität hoffentlich eingedämmt wird. Wieso nun bei vielen die Verwunderung so groß ist, dass sie den Text wahlweise mit dem Kommentar "Wahnsinn!" oder "Bombe!" weiterverbreiten, bleibt ein Rätsel. Wenn das alles aber dazu führt, dass die Nutzer die Facebookdatenschutzerklärung künftig lesen, anstatt sie blind anzuklicken, und dass eine gesellschaftliche Debatte in Gang kommt, wozu wir Big Data nutzen wollen und wozu nicht, ist schon viel gewonnen.