Direkt zum Inhalt

Nudging: Benimmregeln für Computerspieler

Forscher wollen herausfinden, wie sich aggressives Verhalten im populärsten Onlinespiel der Welt bändigen lässt. Kann daraus eine Blaupause für die Befriedung des Internets entstehen?
Gamer

Kaum hatte ich angefangen, League of Legends zu spielen, da erschien schon die erste homophobe Beleidigung auf meinem Bildschirm. Ich saß zum allerersten Mal überhaupt an dem Online-Game, das für viele die Nummer eins weltweit ist, und ich war anscheinend viel zu langsam beim Aussuchen einer Figur. Die Meldungen kamen Schlag auf Schlag. »Such dir eine aus, Kleiner«, dann »Wähl' endlich aus, du SHW UCH TEL.«

Die Schreibweise war irgendwie ungewöhnlich und die Leerzeichen sollten wohl dazu dienen, den spieleigenen Chatfilter für vulgäre Ausdrücke zu umgehen – die Botschaft aber war allemal klar.

Onlinespieler sind für ihre Feindseligkeiten bekannt. In einer Umgebung mit zumeist namenlosen und wetteifernden jungen Männern, die größtenteils konkurrenzlos agieren, können die Umgangsformen ausgesprochen hässlich sein. Spieler schikanieren andere, weil die angeblich schlecht gespielt hätten, sie betrügen und sabotieren ganze Spiele. Oder sie versuchen, anderen absichtlich den Spaß zu nehmen – was in der Praxis als Griefing bezeichnet wird.

Gamergate ist nur ein Fall von Aggression in der Szene

Rassistische, sexistische und homophobe Ausdrücke werden ungezügelt benutzt; Aggressoren drohen oft mit Gewalt oder drängen Teilnehmer zum Selbstmord im Spiel. Von Zeit zu Zeit schwappen die Bösartigkeiten sogar über die Grenzen des Spiels hinaus. So kam es gegen Ende 2014 zur berüchtigten Gamergate-Auseinandersetzung, bei der mehrere Frauen aus der Spieleindustrie Opfer einer Hetzkampagne wurden. Dabei drangen die Täter massiv in ihre Privatsphäre vor und drohten den Frauen mit Mord und Vergewaltigung.

League of Legends hat 67 Millionen Spieler und machte letztes Jahr einen Umsatz von etwa 1,25 Milliarden US-Dollar. Das Spiel ist aber auch berüchtigt für das bösartige, aggressive Verhalten der Spieler, was die Mutterfirma Riot Games in Los Angeles in Kalifornien inzwischen als imageschädigend bei neuen und alten Kunden betrachtet. Deshalb wurden nun mehrere Wissenschaftler engagiert, die das soziale und antisoziale Verhalten der Nutzer untersuchen sollen. Durch derart viele Nutzer konnten sie diese ungeheure Mengen von Verhaltensdaten sammeln und Studien in einem Umfang durchführen, der in einem akademischen Rahmen kaum denkbar wäre.

Auch andere Spieleunternehmen haben Forscherteams, doch Riot Games geht mit dem Thema erstaunlich offen um, sei es bezüglich der Spieler, anderer Firmen oder der wachsenden Zahl akademischer Mitarbeiter, die Multiplayer-Games als eine Art Spielwiese zum Studium des menschlichen Verhaltens betrachten. »Das Interessanteste daran ist gar nicht einmal die Tatsache, dass Riot solche Untersuchungen durchführt, sondern eher, dass sie diese veröffentlichen und mit anderen Wissenschaftlern teilt«, erklärt Nick Yee, Sozialwissenschaftler und Mitbegründer von Quantic Foundry, einer Consulting-Firma der Videospieleindustrie in Sunnyvale in Kalifornien.

Anhand ihrer Ergebnisse konnten die Forscher nun auch zeigen, wie es zum bösartigen Verhalten von Spielern kommt und wie sich ein freundlicherer Umgang fördern lässt. Einige hoffen, dass auch digitale Schauplätze außerhalb des Spiels davon profitieren können. Der Erziehungswissenschaftler Justin Reich vom Massachusetts Institute of Technology in Cambridge will die Erkenntnisse nicht nur im Hinblick auf den Umgang in Onlinespielen nutzen, sondern auch weitreichendere Fragen angehen und untersuchen, wie man im ganzen Internet zu einem zivilisierteren Umgang miteinander gelangen könnte.

Das große Geschäft

Jeffrey Lin ist nicht nur einer der leitenden Designer bei Riot Games, sondern auch das öffentliche Gesicht des wissenschaftlichen Programms der Firma. Er spielt seit seinem elften Lebensjahr Videospiele und hat sich schon lange gefragt, warum viele seiner Mitspieler ein so schlechtes, aggressives Benehmen der anderen überhaupt tolerieren. »Egal mit wem man spricht, alle empfinden das Internet als hasserfüllten Ort. Warum glauben wir eigentlich, das gehöre zum Spielen dazu?«, fragt er.

Im Jahre 2012 schloss Lin seine Doktorarbeit im Feld der kognitiven Neurowissenschaften an der University von Washington in Seattle ab und begann anschließend für die Spielefirma Valve im nahe gelegenen Bellevue zu arbeiten. Damals stellte ihm ein Freund und Mitspieler die Gründer des Unternehmens Riot Games vor, Marc Merrill und Brandon Beck. Diese hatten festgestellt, dass sich das aggressive Verhalten einiger Spieler negativ auf das Spielerlebnis anderer auswirkte. Sie wollten nun mit Lin als neuem Gamedesigner beim Giganten in der Welt der Onlinespiele nach Lösungen suchen.

League of Legends ist ihr einziges Spiel, es wurde 2009 veröffentlicht und zieht derzeit täglich 27 Millionen Spieler in seinen Bann. Es ist sicherlich das populärste in einem wachsenden Segment von Spielen, die dem so genannten E-Sport, also elektronischem Sport, zugeordnet werden. Eine Welt, in der die besten Spieler professionelle Teams bilden, Universitätsstipendien gewinnen und an Millionen Dollar schweren Turnieren in Sportarenen teilnehmen. Das Finale der League-of-Legends-Weltmeisterschaft 2015 in Berlin wurde von 36 Millionen Zuschauern online oder am Fernseher verfolgt – die Zahlen können gut und gern mit den Publikumszahlen bei Finalspielen traditioneller Sportarten konkurrieren.

Das Spiel kann für Anfänger ziemlich einschüchternd sein. Spieler kontrollieren eine von mehr als 120 Figuren, so genannte Champions, die alle besondere Fähigkeiten, Schwächen und Rollen haben. Die Teams bestehen normalerweise aus fünf Spielern, die zusammenarbeiten müssen, um Monster und Gegner zu töten, Gold einzusammeln, um magische Gegenstände zu erwerben, Territorien zu erobern und schließlich die Basis anderer Teams zu zerstören.

Wenn ein Spieler einen Fehler macht, erfährt er es normalerweise sehr schnell

Die Spiele dauern im Schnitt eine halbe Stunde, weshalb ein schlechter Spieler für das Team nervig und störend sein kann. Außerdem müssen sich die Spieler koordinieren, wofür eine Chatfunktion im Spiel bereitgestellt ist. Wenn ein Spieler einen Fehler macht, erfährt er es normalerweise sehr schnell. Spieler können es auch melden, wenn ihre Mitspieler ein bösartiges Verhalten an den Tag legen, was dann zu deren vorübergehendem oder sogar permanentem Ausschluss aus dem Spiel führen kann. Aber natürlich ist es schwierig, frustriertes Gemurre und dummes, aber harmloses Gequatsche von den wirklich boshaften Kommentaren zu unterscheiden, die tatsächlich bestraft werden sollten.

Um hier zu einer Lösung zu kommen, musste Lin zunächst einmal die Ursachen der Bösartigkeiten herausfinden. Dabei unterstützte ihn ein Team, das die Chatlogs von Tausenden von Spielen pro Tag durchsuchte und Äußerungen als positiv, neutral oder negativ einstufte.

Die Ergebnisse waren überraschend. Jeder denkt, der Großteil der negativen Auswüchse im Internet käme von den so genannten Trollen, einem kleinen Teil der Nutzer. Wie Lins Team herausfand, verhält sich in Wirklichkeit aber nur etwa ein Prozent der Nutzer durchgängig aggressiv, und diese Spieler sind nur für etwa fünf Prozent der Boshaftigkeiten in League of Legends verantwortlich. »Der größte Teil kam wirklich von normalen Spielern, die einfach einen schlechten Tag hatten«, erklärt Lin. Sie benahmen sich meistens gut, rasteten aber ab und zu völlig aus.

Somit ließe sich allein mit dem Ausschluss von Spielern nicht viel erreichen. Zum Abschalten des boshaften Verhaltens, das die meisten Spieler auf irgendeine Weise schon einmal erlebt haben, müsste die Firma die ganze Art zu spielen verändern.

Priming als Therapie gegen den Hass

Lin bediente sich deshalb eines Konzepts aus der klassischen Psychologie, des so genannten Priming: Dieses geht davon aus, dass kurz zuvor erhaltene Bilder oder Nachrichten das Verhalten einer Person in die eine oder andere Richtung lenken können. Ende 2012 startete Lin einen ersten Versuch hierzu.

Das Team von Riot Games erfand 24 Mitteilungen oder Tipps für ein laufendes Spiel. Einige davon sollten zu gutem Verhalten ermutigen, wie »Spieler erbringen bessere Leistungen, wenn du ihnen nach einem Fehler ein konstruktives Feedback gibst«; andere Tipps sollten von schlechtem Benehmen abschrecken, beispielsweise »Teammitglieder spielen schlechter, wenn du sie nach einem Fehler schikanierst«. Die Tipps wurden in drei Farben und zu verschiedenen Zeiten des Spiels gezeigt. Alles in allem testete man 216 verschiedene Varianten und verglich sie mit Kontrollen ohne Tipps. Für ein Labor eine irrwitzige Zahl von Permutationen, für eine Firma mit Millionen Testmöglichkeiten pro Tag eher trivial.

Einige der Tipps zeigten deutliche Wirkung. Allein die Warnung, Schikanen würde zu schlechterem Spielen führen, reduzierte das Negativverhalten um 8,3 Prozent gegenüber den Kontrollen; die verbalen Beleidigungen wurden um 6,2 Prozent und die abfällige Sprache um 11 Prozent verringert. Allerdings zeigte sich nur dann ein deutlicher Einfluss, wenn die Hinweise in Rot aufleuchten – eine Farbe, die im westlichen Kulturkreis allgemein mit Warnungen verbunden ist. Eine positive Mitteilung zur Kooperation der Spieler reduzierte die Beleidigungen um 6,2 Prozent, zeigte sonst aber wenig Wirkung. Riot Games veröffentlichte bisher nur einige dieser Analysen, weshalb Verallgemeinerungen schwierig sind.

Die positive Wirkung war nur vorübergehend und zu schwach, um die Umgangsart im Spiel ernsthaft zu ändern

Vom wissenschaftlichen Standpunkt aus seien die Ergebnisse »epic«, sprich außergewöhnlich. Sie öffneten Tür und Tor zu neuen Forschungsthemen, beispielsweise zur Frage nach der passenden Farbe und passenden Tipps für Spieler aus verschiedenen Kulturen. Aber die positive Wirkung auf das Verhalten der Spieler war nur vorübergehend und zu schwach, um die Umgangsart im Spiel ernsthaft zu ändern. Laut Lin müsste man die Spieler bei der Festlegung der Normen beteiligen, um damit eine etwas gemäßigtere Community zu erreichen. Deshalb führte die Firma ein Tribunal ein, in dem die Spieler als Richter und Jury gegenüber den anderen Spielern auftreten können. Freiwillige prüfen dort Chatlogs von Spielern, die wegen schlechten Benehmens gemeldet wurden; anschließend wird darüber abgestimmt, ob der jeweilige Täter eine Strafe verdient hat oder nicht.

Das Tribunal startete im Jahr 2011 und gibt den Spielern seitdem ein stärkeres Gefühl von Kontrolle über die Normen in ihrer Gemeinschaft, sagt Lin. Außerdem wurde hier so manches aufgedeckt, was zu Verweisen führte – sämtlich homophobe und rassistische Verunglimpfungen. Nachdem den ausgeschlossenen Spielern aber oft gar nicht klar war, warum sie eigentlich bestraft worden waren, änderten sie ihr Verhalten auch nicht, als sie wieder spielen durften. Lins Team entwickelte deshalb so genannte Reformkarten, um den ausgeschlossenen Spielern ein gewisses Feedback zu geben; dazu überwachten sie deren Spielverhalten. Schon allein die Information über ihr schlechtes Benehmen brachte 50 Prozent der Spieler dazu, sich während der nächsten drei Monate kein weiteres bestrafungswürdiges Fehlverhalten zu leisten. Wenn ihnen aber auch noch die Reformkarten einschließlich des Urteils des Tribunals sowie den zu Grunde liegenden Chats und Aktionen geschickt wurden, waren es sogar 70 Prozent der Spieler.

Maschinelles Lernen für schnellere Erziehungsmaßnahmen

Das Ganze lief aber eher schleppend an, nicht zuletzt, weil die Reformkarten teils erst zwei bis vier Wochen nach der eigentlichen Beleidigung erschienen. »Laut klassischer Theorie des bestärkenden Lernens ist das Timing der Rückmeldung extrem wichtig«, sagt Lin. Deshalb setzte sein Team die gesammelten Daten nun zum Training eines Computers ein, der die Arbeit wesentlich schneller erledigen könnte. »Wir arbeiteten mit maschinellen Lernverfahren«, erklärt er; diese können als automatisierte Systeme fast umgehend Rückmeldung liefern. Erschienen die Mitteilungen innerhalb von fünf bis zehn Minuten nach einer Beleidigung, zeigte dies bei 92 Prozent der Spieler eine Wirkung. Nach Lins Aussagen sanken hierdurch die verbalen Entgleisungen um 40 Prozent, zumindest in den so genannten Ranked Games, sprich den Ranglistenspielen mit der größten Konkurrenz und der am stärksten vergifteten Atmosphäre. Über alle Spiele hinweg reduzierten sich Hasstiraden, Sexismus, Rassismus, Morddrohungen und andere Arten extremer Beleidigung auf zwei Prozent.

»Laut den veröffentlichten Zahlen scheint es gut zu funktionieren«, meint der Autor Jamie Madigan aus St. Louis in Missouri, der sich mit der Psychologie von Spielern beschäftigt. Der Erfolg läge daran, dass die Verweise spezifisch und leicht zu verstehen seien, schnell übermittelt würden und leicht darauf reagiert werden könnte, sagt er. »Das entspricht den Grundlagen der klassischen Psychologie.«

Das Forschungsteam von Riot Games experimentiert noch mit weiteren Maßnahmen, um den Umgang im Spiel zu verbessern. So können Spieler durch faires Verhalten Ehrenpunkte und andere Belohnungen erhalten, und auch die Chatfunktionen wurden verbessert. Außerdem sollen mit Hilfe des Tribunals die Algorithmen des Spiels so trainiert werden, dass sarkastische und passiv-aggressive Sprache in den Chats zu erkennen ist – zweifelsohne eine besondere Herausforderung für das maschinelle Lernen.

Von Anfang an hat das Unternehmen seine Daten auch anderen zur Verfügung gestellt. Der passionierte Spieler und Computerwissenschaftler Jeremy Blackburn von Telefonica Research and Development in Barcelona in Spanien wertete Daten von 1,46 Millionen Tribunalfällen aus und arbeitete an seinem eigenen maschinellen Lernverfahren. Um herauszufinden, welches Verhalten eines Spielers als bösartig angesehen wird, arbeitete er mit Haewoon Kwak vom Qatar Computing Research Institute in Doha zusammen. Abgesehen von bestimmten Wörtern in bösartigen Mitteilungen scheint das Niveau des gegnerischen Teams der wichtigste Faktor zu sein. Blackburn untersucht Cyber-Mobbing und möchte mehr darüber erfahren, wie unterschiedliche Kulturen verschiedenes Verhalten beurteilen. Seiner Meinung nach gibt es Hinweise darauf, dass sich koreanische Spieler oft zusammenschließen und beispielsweise den schlechtesten Spieler niedermachen. Anhand der Daten aus League ließe sich dies vielleicht bestätigen. »Die Akzeptanz derartiger verbaler Beleidigungen war unter diesen Spielern wesentlich höher.«

Freier Zugang zu Daten erntet Lob

Rachel Kowert in Austin, Texas, arbeitet als Forschungspsychologin im Vorstand der Digital Games Research Association. Die Daten beeindrucken sie, besonders auch der von Blackburn und Kwak gewährte freie Zugang. »Das ist super für die Forscher. Gute Daten sind einfach unbezahlbar«, lobt sie.

Die Wissenschaftler nutzen auch Daten anderer Firmen, beispielsweise von Blizzard Entertainment in Irvine in Kalifornien, die das populäre Online-Fantasy-Spiel World of Warcraft betreiben – laut vielen Experten eine wahre Fundgrube für Daten über komplexe soziale Interaktionen. Doch nur wenige Personen außerhalb der Firma konnten bisher damit arbeiten, und das meist auch nur unter strengen Geheimhaltungsvereinbarungen. (Blizzard reagierte nicht auf die Bitte von »Nature« um einen Kommentar hierzu).

Riot Games dagegen spricht auch auf Spielekonferenzen über seine Ergebnisse, und bei der Zusammenarbeit mit Wissenschaftlern gibt es nur wenige Einschränkungen hinsichtlich einer Veröffentlichung. Das Unternehmen betreibt dazu viel Öffentlichkeitsarbeit und baut aktiv Kooperationen mit Universitäten auf. Außerdem präsentierte Lin im Mai 2015 Daten beim jährlichen Treffen der Association for Psychological Science in New York, um mehr Interesse zu wecken. Die Forschung von Riot Games bedürfe aber mehr Aufmerksamkeit von Verhaltensforschern. »Hoffentlich besuchen die Forscher noch andere Tagungen, bei denen es um Verhalten geht«, sagt die Sozialpsychologin Betsy Levy Paluck von der Princeton University in New Jersey. Sie kennt das Unternehmen zwar nicht, sieht die Untersuchungen aber als Versuch, Big-Data-Analysen im Bereich der Psychologie durchzuführen – bisher eine wirklich große Herausforderung.

Die kognitive Neurowissenschaftlerin Daphné Bavelier von der Universität Genf in der Schweiz traf Lin auf der Tagung in New York. Zur Freude vieler Spieler und zum Ärger ihrer Eltern legen ihre Untersuchungen nahe, dass insbesondere Spiele wie Egoshooter eine Reihe kognitiver Fähigkeiten tatsächlich verbessern können, beispielsweise die visuelle Aufmerksamkeit, und zwar sowohl innerhalb der Spiele als auch im realen Leben. Nun möchte die Forscherin mit Riot zusammen untersuchen, wie Spieler die steile Lernkurve bei League of Legends meistern.

Riot Games hat ein internes Kontrollgremium zur Beurteilung des ethischen Aspekts all ihrer Untersuchungen eingesetzt

Die teambasierte Natur des Spiels könnte auch andere Wissenschaftler interessieren. Der Sozialwissenschaftler Young Ji Kim vom Massachusetts Institute of Technology's Center for Collective Intelligence gewann 279 erfahrene Teams von League of Legends dafür, Fragebögen auszufüllen und an einer Reihe von Onlinetests teilzunehmen. Hiermit möchte er die Dynamik des Spiels und die Erfolgsfaktoren der Teams herausfinden. Dank eines In-Game-Bonus im Wert von 15 Dollar (etwa 13 Euro) erhielt das Team innerhalb weniger Stunden Tausende von Registrierungen, erzählt sie. Die vorläufigen Ergebnisse lassen vermuten, dass der Rangplatz (Rank) des Teams in einem Spiel mit der kollektiven Intelligenz zusammenhängt. Diese ist ein Maß für Fähigkeiten wie soziales Wahrnehmungsvermögen und gleichberechtigte Konversationen.

Die Begeisterung der Spieler für derartige Studien ist sicherlich Lin zu verdanken, der oft über seine Forschung schreibt und häufig Fragen der Spieler bei Twitter und anderen sozialen Medien beantwortet. Offenheit und Ehrlichkeit sind sehr wichtig, sagt Bavelier. Viele Firmen aus dem digitalen Bereich führen Studien zu den Nutzern durch – die meisten sind aber wenig transparent. Facebook veröffentlichte auch eine Untersuchung dazu, wie der nicht bekannt gemachte Umgang mit News-Feeds unsere Emotionen beeinflusst. Der Aufschrei der Nutzer war deutlich. »Wir müssen von den Fehlern anderer lernen und sicher sein, dass die Nutzer von unseren Aktionen wissen«, erklärt Bavelier.

Riot Games hat ein internes Kontrollgremium zur Beurteilung des ethischen Aspekts all ihrer Untersuchungen eingesetzt. Auch wenn das natürlich nicht ohne Konflikte bleibt, werden die Forschungsansätze zumindest im Hinblick auf den Schutz der Teilnehmer begutachtet. Mitarbeiter aus dem akademischen Bereich benötigen dazu das Einverständnis ihrer eigenen Gremien.

Videospiele als Erziehungsinstrument?

Lin hat hochfliegende Ziele für sein Team. »Können wir die Onlinegesellschaft als Ganzes verbessern? Können wir lernen, anderen ein gewisses Benehmen beizubringen?«, fragt er. »Wir sind kein Edutainment-Unternehmen, das unterhaltsam belehren soll, sondern in erster Linie eine Spielefirma. Aber uns ist klar, dass wir unsere Produkte auch zur Erziehung nutzen können.«

Eltern, Gesetzgeber und manche Wissenschaftler beklagen sich seit Jahrzehnten über den Einfluss besonders gewalthaltiger Videospiele auf die Psyche von Kindern. Doch nach Meinung des Kommunikationswissenschaftlers James Ivory von der Virginia Polytechnic Institute and State University in Blacksburg lässt uns der einseitige Blick auf die Gewalt den eigentlich größten Einfluss der Spiele übersehen. »Forscher kommen langsam zu der Erkenntnis, dass vielleicht weniger die Frage wichtig ist, welche Bedeutung es für jemanden hat, sich als Soldat auszugeben, sondern eher die Frage, ob jemand seine Zeit mit der Verbreitung rassistischer oder homophober Beleidigungen verbringt.« Im Alter von 21 Jahren hat ein durchschnittlicher Spieler bereits Tausende von Stunden gespielt. Diese Tatsache allein lässt den Gegensatz von echter und digitaler Welt verkehrt erscheinen, denn für viele wirken sich die Spiele schon auf das wahre Leben aus. »Der stärkste Einfluss dieser Spiele zeigt sich beim Umgang mit anderen Menschen«, sagt Ivory.

Manche Forscher sind aber auch vorsichtig, Erkenntnisse aus einem Spiel auf andere Situationen zu übertragen. Dmitri Williams ist Sozialwissenschaftler und Gründer der Analytikfirma Ninja Metrics in Manhattan Beach in Kalifornien. Seiner Meinung nach haben Spiele sehr spezifische anspornende Strukturen, so dass sich Studienergebnisse nur bedingt auf andere Bereiche des Lebens übertragen lassen. »Viele Menschen benehmen sich in der echten Welt besser als in der virtuellen, weil sie im wahren Leben bei Beleidigungen oder Fehlern mit Konsequenzen rechnen müssen.« Maßnahmen zur Eindämmung von schlechtem Verhalten in League of Legends könnten anderswo völlig nutzlos sein.

Riot Games steht immer noch vor großen Herausforderungen. Spieler beschweren sich über bösartiges Verhalten anderer oder über ihrer Meinung nach nicht gerechtfertigte Bestrafungen. Laut einem Blog namens »League of Sexism« tragen auch anzügliche Porträts der weiblichen Spielfiguren zum Sexismus in der Spielergemeinschaft bei. »Wie sollen Spieler sexistisches Benehmen abschalten, wenn Sexismus bereits zur Bildsprache des Spiels gehört?«, fragt ein Blogger, der anonym bleiben möchte. Lins Bemühungen seien zwar »bewundernswert und wahrscheinlich führend in der Industrie«, sagt er. In vielen Spielen gäbe es aber immer noch unbändig viele verbale Beleidigungen, Griefings und überhaupt negatives Verhalten, sowohl innerhalb des Teams als auch bei den jeweiligen Gegnern. Laut Lin sind sich die Spieledesigner bei Riot Games der Problematik bewusst und bemühten sich, die weiblichen Figuren nun kantiger und stärker darzustellen.

Auch wenn das Unternehmen damit prahlt, nur in zwei Prozent der Spiele käme es nun noch zu Fehlverhalten, habe ich selbst diese Erfahrung schon innerhalb einer Minute meines ersten Spielversuchs gemacht. Immerhin geschah unmittelbar nach der »SHW UCH TEL«-Attacke etwas Interessantes: Ein anderer Spieler klinkte sich ein mit »Reg' dich ab«. Vielleicht war das ein erstes Zeichen für den Erfolg all der Bemühungen um einen zivilisierteren, sich selbst regulierenden digitalen Raum. Oder es war einfach nur ein freundliches Teammitglied, das uns alle daran erinnern wollte, dass es doch nur ein Spiel ist.

Dieser Beitrag erschien unter dem Titel »Can a video game company tame toxic behaviour?« in »Nature«.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.