Facebook: Fake-News sind nicht das wahre Problem
Irgendetwas läuft schief im Nachrichtengeschäft: Millionen Falschnachrichten kursieren im Netz. Seitdem Facebook im August sein News-Team entlassen und durch Algorithmen ersetzt hat, sind in dem Nachrichtenmodul wiederholt Fake-News eingespielt worden. So wurde eine Falschmeldung über eine angebliche Unterstützung des Papstes für Donald Trump 960 000-mal geliket und geteilt. Seit der Wahl tobt deshalb eine Debatte, ob Facebook eine Mitverantwortung für das Wahlergebnis hat. Facebook-Chef Mark Zuckerberg spielte das Problem dagegen herunter. In einem Post behauptete er, 99 Prozent des Inhalts, den Nutzer auf Facebook sehen, sei echt. Nur bei einem Prozent handele es sich um "hoaxes", also um Falschnachrichten und Fakes.
Wenn Facebook-Ingenieure nun so tun, als könne man das einfach reparieren ("fix the problem"), klingt das so, als handele es sich um ein technisches Problem, das man mit ein paar Änderungen des Algorithmus beheben könne. So als müsse man nur das Steuerruder des Tankers justieren. Doch letztlich liegt ein systemisches Problem vor. Algorithmen sind nicht die Lösung, sondern die Ursache des Problems. Erst durch Automatisierung der Nachrichtenlese und damit verbundene Erosion der Gatekeeper-Funktion sind die Schleusen geöffnet worden, dass Unmengen von Falschnachrichten an die Oberfläche gespült werden.
Die Kritik an der Integrität der Information übersieht jedoch, dass es auch Nutzer gibt, die ein Bedürfnis an Falschnachrichten haben. Es wird immer so getan, als würden die Facebook-Nutzer kollektiv hinters Licht geführt. Doch mit jedem Facebook-Login betreten Nutzer willentlich eine postfaktische "Als-ob-Zone", in der die Realität verzerrt und gefiltert ist – das "Wall Street Journal" hat diese Filterblasen in einem konservativ und liberal grundierten Feed sehr schön visualisiert. Fakten sind ja auch in der realen Welt eine soziale Konstruktion, und auf Facebook werden Fakten eben von einem personalisierten Newsfeed-Algorithmus erzeugt. Manche Facebook-Nutzer wollen Storys, die eine Flucht aus dem Alltag versprechen: Katzen statt Konflikte.
Der Internetkritiker Rob Horning schreibt auf seinem Blog, dass soziale Medien einen Raum schaffen, in dem wir unsere Ideologie als etwas Greifbares konsumieren können – der Nutzer liest, was er ohnehin schon denkt, er hat das Gefühl, dass seine Meinung zählt. Deshalb ruft auch niemand "Lügen-Facebook", weil das soziale Netzwerk die Wahrheiten serviert, die der Nutzer hören will.
Facebooks Pläne, Fake-News zu verbannen, gehen das Problem daher nicht an und sind womöglich ohnehin nur Lippenbekenntnisse, weil Facebook mit Falschnachrichten viel Geld verdient. Es ist nicht so, dass News an sich falsch im Sinn von ungenau sind. Das Problem, merkt Horning an, bestehe darin, dass die Leute diese konsumieren, nicht um sich zu informieren, sondern eine Form von Gemeinschaft zu erfahren, die mit Genauigkeit wenig gemein hat. Auf Facebook fühle sich etwas als genau oder zutreffend an, wenn es viel Engagement, also Klicks, Likes und Shares, generiert.
"Auf einer engagementbasierten Plattform, die von der Verbreitung von Informationen gestützt wird, ist das Virale das Reale und Wahre", schreibt Horning. Deshalb wird auch eine Falschmeldung wie die angebliche Unterstützung des Papstes für Trump für bare Münze genommen, weil sie fast eine Million Mal geteilt wurde. Facebook operiert mit einem ganz anderen Wahrheitsbegriff. Wahr ist eine Aussage, wenn sie das Ergebnis einer korrekten Rechenoperation ist. Alle Storys, die auf Facebook geteilt werden, sind wahr in dem Sinn, dass sie Ausdruck einer genuinen Meinung sind. Allein, die Suche nach der einen (objektiven) Wahrheit ist deshalb so schwierig, weil sich jeder im Besitz derselben wähnt.
Katharine Viner, die Chefredakteurin des "Guardian", hat in einem Aufsehen erregenden Essay namens "How technology disrupted the truth" beschrieben, wie in einer Welt, in der soziale Netzwerke News absorbieren und jeder seine eigenen Fakten habe, die Wahrheit auseinandergesprengt werde. Bei Facebook, resümiert Horning, geht es um Engagement, nicht um Wahrheit. Und deshalb schlägt auch die Kritik an Facebooks mangelnder Faktentreue fehl. Die Narrative, die Facebook mit seinen Algorithmen konstruiert, sollten als das verstanden werden, was sie sind: fiktional.
Schreiben Sie uns!
3 Beiträge anzeigen