Direkt zum Inhalt

Soziale Netzwerke: Gefährden Meinungsroboter die Demokratie?

In sozialen Netzwerken erzeugen Bots automatisiert Meinungen und beeinflussen damit womöglich Wahlen. Warum das eine Gefahr für das politische System darstellt.
Ein niedlicher Roboter mit Megafon steht vor einer Gruppe niedlicher Roboter mit Aktentaschen

Der US-Präsidentschaftswahlkampf geht in seine heiße Phase. Nach den ersten beiden TV-Duellen wetzen beide Lager die rhetorischen Klingen und kämpfen mit harten Bandagen. Doch die vielleicht entscheidenden Faktoren in dieser Schlammschlacht sind nicht die unermüdlichen Wahlhelfer oder Spin-Doktoren, sondern Bots – automatisierte Skripte, die Content generieren. Unter Donald Trumps 12,4 Millionen Followern auf Twitter sind 4,6 Millionen (39 Prozent) Fake-Accounts, darunter viele Bots. Eine ganze Twitterarmada bombardiert den Kurznachrichtendienst systematisch mit propagandistischen Beiträgen. Es gibt sogar Latino-Bots, die vorspiegeln, für die Trump alles andere als wohlgesonnene Latinominderheit zu sprechen, in Wirklichkeit aber nur Roboter sind. Samuel Woolley, Forschungsdirektor des Computational Propaganda Project, schätzt, dass 80 Prozent von Trumps Twitter-Traffic automatisiert ist. Nach dem ersten TV-Duell zwischen Donald Trump und Hillary Clinton sorgten Bots dafür, dass der Hashtag #TrumpWon ("Trump siegte") zum Trending Topic auf Twitter avancierte.

Auch beim Brexitvotum in Großbritannien haben sich Softwareagenten eingeschaltet. Wie der Soziologe und Kommunikationsforscher Philip N. Howard von der Oxford University und sein Koautor Bence Kollanyi von der Corvinus University in einer aktuellen Veröffentlichung berichten, handelte es sich bei den aktivsten Accounts beider Lager um Bots. Diese Accounts, @ivoteLeave und @ivoteStay, folgten, welch Ironie, einem ähnlichen Algorithmus. Beide Bots haben keinen genuin neuen Content generiert, sondern mechanisch Twitterbotschaften retweetet.

Die Wissenschaftler erstellten einen Datensatz von insgesamt über 1,8 Millionen Tweets, die von 314 000 verschiedenen Accounts zwei Wochen vor der Abstimmung über sieben Tage hinweg abgesetzt wurden. Sie nutzten dafür verschiedene Hashtags, die sie den jeweiligen Lagern zuordneten oder als neutral bewerteten. Zum Beispiel nutzte das Antibrexitlager #strongerIn und #votestay, die Austrittsbefürworter dagegen #brexit und #betteroffout; #eureferendum kategorisierten die Forscher als neutral.

Jeder Tweet wurde kodiert, und danach wurde ausgewertet, ob er einen oder mehrere der 25 Hashtags enthielt. Das Ergebnis überraschte: Die mit Probrexittweets waren signifikant überrepräsentiert. Von den 1,8 Millionen Tweets waren fast eine Million, 54 Prozent, mit einem mit dem Leavelager kategorisierten Hashtag versehen. Dagegen machten die Tweets des Remainlagers nur 20 Prozent aller untersuchten Tweets aus. Das Brexitlager war auf Twitter, zumindest in dem Datensatz, in der Mehrheit.

Angriff der Brexit-Bots

Das schlägt sich auch in absoluten Zahlen nieder. Der Hashtag #voteleave tauchte 341 839-mal im Datensatz auf, #StrongerIn dagegen nur 110 653-mal. Das könnte natürlich auch daran liegen, dass das Sample nicht repräsentativ genug war. Nicht jeder Nutzer, der für den Brexit trommelt, versieht seinen Tweet auch mit einem Hashtag. Und nicht jeder, der den Hashtag #Brexit, der vorliegend für das Leavelager kodiert wurde, verwendet, ist auch wirklich für einen Austritt, weil unter diesem Schlagwort ein Großteil der Debatte lief. Das wird bei der Methodik übersehen. Trotzdem lassen sich für den Datensatz einige Aussagen treffen. "Die Daten zeigen, dass Nutzer, die aus der Brexitperspektive twittern, a) einen größeren Contentblock generiert haben und b) besser sind, ihre Beiträge zu taggen", schreiben die Autoren.

In einem zweiten Schritt untersuchten Howard und Kollanyi, welche Rolle Softwareagenten bei der Brexitdiskussion auf Twitter spielten. Als Bots identifizierten sie solche Accounts, die explizit den Begriff "Bot" in der Profilbeschreibung enthielten oder entsprechend getaggt waren. Das ist methodisch nicht ganz glücklich, weil einige Bots ihre Aktivitäten nicht transparent machen. Die Zahl der Bots, die auch mit ausgefeilten Softwaretools wie BotOrNot nicht immer zweifelsfrei erkannt werden können, dürfte in Wirklichkeit viel höher liegen, worauf die Wissenschaftler auch explizit hinweisen. Vor diesem Hintergrund erstaunen die Zahlen noch mehr: 15,1 Prozent der StrongerIn-Tweets wurden mit "schwerer Automatisierung", definiert als Accounts, die mehr als 50 Tweets pro Tag absetzen, generiert. Von den 663 000 Brexittweets stammten 97 000 (14 Prozent) von Bots. Das heißt, ein nicht unbeträchtlicher Teil der Brexitdiskussionen auf Twitter war automatisiert.

Empty Suit

Die Frage ist, ob Bots einen Einfluss auf Wählerpräferenzen haben und die Durchdringung des Kurznachrichtendiensts – speziell die Überpräsentation automatisiert erzeugter Leavetweets – am Ende den Ausschlag für das Brexitvotum gaben. Darauf haben Howard und Kollanyi keine Antwort. "Computersozialwissenschaftler verstehen die Samplingparameter noch nicht ausreichend, um durch Inferenzen festzustellen, wie sich Meinung in den Social Media in Wahlabsichten übersetzt." Das Problem ist, dass die Nutzer menschliche von maschinellen Accounts schwerlich unterscheiden können. "Politische Kampagnen automatisieren immer stärker ihre Botschaften und viele Bürger, die soziale Medien nutzen, sind häufig nicht in der Lage, die Quellen einer Botschaft zu evaluieren oder die Kraft der Argumente kritisch zu hinterfragen", schreiben die Autoren. Fake-Accounts würden Propaganda verbreiten und "artifizielle Trends" erzeugen.

Der Bot-Krieg ist eine bloße Fortsetzung der Politik mit anderen Mitteln

Auch andere soziale Netzwerke sind betroffen. Am 14. Juni fiel dem Blogger Jon Worth auf, dass in den Status-Updates seiner mobilen Facebook-App in der Rubrik "Gefühle/Aktivitäten" die Option "in favour of leaving the EU" für einen Austritt aus der EU auftauchte. Der mit einem Megafon gekennzeichnete Button poppte unter dem Symbol eines Fernsehers ("watching TV") und einer Kaffeetasse ("having a cuppa") auf – als sei Wählen eine Freizeitbeschäftigung. Die umgekehrte Option – "in favour of remaining in the EU" – war nicht standardmäßig eingestellt und nur verfügbar, wenn man gezielt danach suchte.

Die Frage ist natürlich, wie dieser tendenziöse Button überhaupt in die Status-Updates gelangen konnte. Und welche Rolle Facebook beim Brexit spielte. Softwareagenten sind geeignet, die öffentliche Meinung zu manipulieren. Die Wissenschaftler halten Bots daher für eine Gefahr für das politische System. "Die allgegenwärtige Nutzung von Bots erhöht die Gefahr massiver Desinformationskaskaden in einer Zeit, in der Wähler über ihre Optionen nachdenken."

Auf der anderen Seite sind Bots durchaus nützliche Werkzeuge. Auf Wikipedia zum Beispiel erkennen Bots Vandalismus und machen Änderungen – als eine Art algorithmische Polizei – automatisch wieder rückgängig. Doch auch diese Bots liefern sich einen erbitterten Krieg um Fakten, wie der Informationsethiker Luciano Floridi und seine Kollegen Milena Tsvetkova, Ruth García-Gavilanes und Taha Yasseri vom Oxford Internet Institute jüngst in einer Studie ("Even Good Bots Fight") aufzeigen.

Ob die Meerenge zwischen dem Iran und der Arabischen Halbinsel "Persischer" oder "Arabischer" Golf heißt, ist Gegenstand erbitterter "Roboterkriege". Man kann es sich wie bei einem Thermostat vorstellen: Der eine stellt die Temperatur auf 25 Grad Celsius, der andere auf 22 Grad, der erste wieder auf 25 Grad zurück, und so geht es wie bei einem Pingpongspiel hin und her. Wie die menschlichen Entwickler, die sie programmiert haben, weisen Bots kulturelle Unterschiedlichkeiten auf. Die Frage ist nur, ob Bots wirklich nur Agenten sind – man könnte das Verhältnis Bot-Programmierer nach dem politikwissenschaftlichen Prinzipal-Agenten-Modell interpretieren – oder schon Akteure. "Unsere Analysen zeigen, dass ein System simpler Bots komplexe Dynamiken und unintendierte Folgen erzeugen kann", schreiben Floridi und seine Koautoren in ihrem Paper.

Robo-Demokratie?

Alternativlos durch Technik

Auch der Politologe Simon Hegelich, der an der Hochschule für Politik an der Technischen Universität München an der Schnittstelle von Politikwissenschaft und Computerwissenschaft forscht und das Phänomen seit Jahren untersucht, warnt in einem aktuellen Thesenpapier für die Konrad-Adenauer-Stiftung vor den Gefahren von Social Bots: "Bots manipulieren die Trends in sozialen Netzwerken, und diese Trends fließen in politische und wirtschaftliche Entscheidungsprozesse ein. (…) Im schlimmsten Fall verleiten sie aber Politiker dazu, in ihren Statements oder sogar in ihrer Politik auf solche Trends einzugehen." Das Beeinflussungspotenzial, der so genannte Bot-Effekt, sei "theoretisch sehr groß, lässt sich empirisch aber nur schwer nachweisen", schreibt Hegelich. Vermehren sich Bots in den sozialen Medien überproportional, könnten sie Plattformen wie Twitter effektiv unbrauchbar machen, "da die Nutzer keinen Sinn mehr darin sehen, auf einer Plattform zu kommunizieren, auf der sich zum großen Teil nur noch Maschinen als Gesprächspartner befinden". Der Diskurs geriete zur Farce.

Mit Blick auf die anstehende Bundestagswahl erscheint die Bot-Problematik auch als Gefahr für das politische System in Deutschland. Hegelich ist sich sicher, dass auf der Facebookseite der CSU Bots aktiv sind. Auch bei Beiträgen des rechtskonservativen, der AfD nahestehenden Blogs "Politically Incorrect" (pi-news) fällt auf, dass die Beiträge häufig von Bots oder wahrscheinlichen Fake-Accounts retweetet werden. Zum Beispiel der Account @balleryna, der laut Profilbeschreibung der AfD Berlin und Beatrix von Storch folgt. Dahinter verbirgt sich angeblich eine junge Frau namens Irina, aber ihre schiere Zahl von Followern (270 000) und die hohe Tweetfrequenz (bis zu 100 pro Tag) wecken erhebliche Zweifel an ihrer Authentizität. @balleryna tritt während der TV-Sendung "Hart aber fair" unter dem gleichnamigen Hashtag als aggressive Diskutantin in Erscheinung.

Softwareroboter trommeln damit auch in der hiesigen Debattenlandschaft und verschaffen als automatisierte Claqueure in sozialen Netzwerken Themen eine Relevanz, die nicht das Meinungsbild in der Gesellschaft widerspiegelt. Der Einsatz von künstlicher Intelligenz in Form von digitalen Assistenten, Bots und Algorithmen lässt Entscheidungen alternativlos erscheinen – ihre rein technischen Voreinstellungen begrenzen so das offene Entscheidungsspektrum der deliberativen Demokratie.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.