Direkt zum Inhalt

Online-Plattformen: Hass-Netzwerke sind selbstheilend

Eine Arbeitsgruppe analysiert, warum Facebook & Co sich mit dem Bekämpfen extremistischer Gemeinschaften so schwertun – und schlägt ungewöhnliche Strategien gegen Onlinehass vor.
Typ sitzt brüllend vorm Laptop und schwenkt die Faust. Oder wie wir es nennen: Windows-Update.

Die globalen Netzwerke, die Hass säen und in denen unter anderem die rechtsextremistischen Massenmörder von Christchurch und El Paso aktiv waren, reparieren sich bei Angriffen sehr schnell selbst. Das berichtet eine Arbeitsgruppe um den Physiker Neil Johnson von der George Washington University in der US-amerikanischen Hauptstadt Washington in »Nature« – und kommt zu einer unerwarteten Schlussfolgerung: Durch diese Eigenschaft könnten demnach unsystematische Versuche, extremistische Inhalte auf einer einzelnen Plattform zu beseitigen, die Situation sogar eher schlimmer machen. Stattdessen empfiehlt das Team vier langfristige Strategien, die auf seinen mathematischen Analysen der Netzwerke basieren und die Verbreitung extremistischer Inhalte effektiver eindämmen sollen.

Johnson und seine Gruppe untersuchten die Dynamik rechtsextremistischer Netzwerke auf den beiden Plattformen Facebook und VKontakte. Neu an dem Ansatz der Arbeitsgruppe ist, dass sie das Hass-Ökosystem nicht als ein großes Netzwerk betrachten, sondern als hierarchisches Netzwerk von Netzwerken. Die unterste Ebene sind Gruppen und Seiten, die Individuen mit gemeinsamen Ansichten vereinen und die untereinander vernetzt sind; bei diesen machen kleine und kleinste Gemeinschaften den überwältigend größten Anteil aus. Dagegen sind große Seiten rar. Die Analyse des Teams zeigt, dass diese Gruppen selbst wiederum in eng vernetzten Clustern organisiert sind, die sich über Ländergrenzen und Kontinente hinweg erstrecken.

Schaltet eine Plattform nun eine große, prominente Hassseite aus, sagt das Modell des Forschungsteams vorher, dass sich aus diesen Gruppen kleiner Gemeinschaften schnell neue Gemeinschaften mit großen Mitgliederzahlen formen. Gleichzeitig können solche Aktivitäten dazu führen, dass sich Hassgruppen auf Gegenmaßnahmen einstellen und nur noch schwer aufzufinden sind. Sie bilden »Dark Pools«, die sich dem Zugriff entziehen. Um dieser Dynamik Herr zu werden, reiche es nicht, einfach Hassinhalte und die entsprechenden Gruppen zu löschen, so das Team.

Stattdessen müsse man eine auf die Eigenschaften des Netzwerks ausgerichtete Strategie finden, heißt es in der Veröffentlichung. Johnsons Team schlägt vier Optionen vor. Zum einen sei es effektiver und einfacher, systematisch kleine und kleinste Hasszellen zu bekämpfen, um die Bildung größerer Gruppen zu unterbinden. Außerdem sollten statt ganzer Gruppen zufällig ausgewählte Mitglieder verschiedener Gruppen von den Plattformen verbannt werden, um eine Reorganisation des Netzwerks zu vermeiden.

Zwei weitere Strategien basieren darauf, die Netzwerke durch andere, gegnerische Gruppen von Nutzerinnen und Nutzern angreifen zu lassen: Einerseits sollten demnach den Extremisten feindlich gesinnte Gruppen vom Netzwerk gefördert werden – andererseits schlägt Johnsons Team vor, Extremisten mit unterschiedlichen Ansichten aufeinanderzuhetzen. Die Analyse dürfte sich, genauso wie die Vorschläge für Gegenmaßnahmen, als kontrovers erweisen; die Arbeitsgruppe empfiehlt jedenfalls Vorsicht bei der Umsetzung und rät grundsätzlich dazu, dass sich die verschiedenen großen Plattformen auf ein gemeinsames Vorgehen einigen.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.