Fake News: KI reduziert Verschwörungsdenken
Drei kurze Chats mit einer KI können den Glauben an Verschwörungsmythen ins Wanken bringen. Das legt die Studie eines Teams um Thomas Costello vom MIT in Cambridge, Massachussetts nahe. Bislang galt es generell als schwierig, Verschwörungstheorien durch Fakten und Argumente zu begegnen. Die zu Grunde liegenden Motive wie Wunschdenken oder das Bedürfnis nach Selbstüberhöhung seien oft stärker. Zudem steht die Gegenrede von Menschen schnell im Verdacht, selbst Teil des »Mainstreams« oder der Verschwörung zu sein.
In der im Fachmagazin »Science« publizierten Studie gaben 2190 US-Amerikaner zunächst Auskunft darüber, ob ihrer Meinung nach die Terroranschläge von 9/11 von der US-Regierung geplant worden waren, die Covid-19-Pandemie ein Fake oder Donald Trump 2020 um das Präsidentenamt betrogen worden war. Auf einer Skala von 0 bis 100 Prozent bewerteten die Teilnehmer, wie sehr sie von der jeweiligen Legende überzeugt waren. Ein Teil der Gruppe führte dann ein kurzes Gespräch mit der KI »ChatGPT-4 Turbo«, die die Faktenlage knapp zusammenfasste. Der Chatbot war von den Versuchsleitern explizit aufgefordert worden, die Verschwörungstheorien zu entkräften. Auf die drei KI-generierten Antworten durften die Probanden zweimal mit Erwiderungen reagieren. In der Kontrollgruppe wurde dagegen ein anderes, neutrales Thema verhandelt.
Nach der nur rund zehnminütigen Interaktion waren die Überzeugungen der Testprobanden, anders als in der Kontrollgruppe, deutlich reduziert – im Schnitt um knapp ein Fünftel. Rund jeder vierte Teilnehmende war sich nun sogar weniger als 50 Prozent sicher, dass die jeweilige Annahme stimmte. Und selbst zwei Monate später hielt die Wirkung noch kaum vermindert an. »Das Debunking per KI scheint zu einer signifikanten, längerfristig anhaltenden Reduktion verschwörungstheoretischer Überzeugungen zu führen«, erklärt Kommunikationsforscher Fabian Hutmacher von der Julius-Maximilians-Universität Würzburg gegenüber dem Science Media Center.
Ob KI-Tools im Alltag gegenüber Falschinformationen resistenter machen, ist nicht gesagt
Ob solche Tools Menschen auch im Alltag gegenüber Falschinformationen resistenter machen, ist damit allerdings nicht gesagt. »Solche Werte kommen oft durch die experimentelle Situation zu Stande und müssen keine wirkliche Meinungsänderung bedeuten«, gibt Nicole Krämer, Sozialpsychologin an der Universität Duisburg-Essen, zu bedenken. Es ist eben eines, ob man in einem Experiment der KI zugesteht, gewisse Annahmen relativieren zu können, und etwas anderes, ob man sich von geschickt agierenden Internet-Trollen in den eigenen Vorurteilen und Ängsten (»die stecken alle unter einer Decke«) bestärken lässt.
Immerhin: Gemäß nachträglicher Überprüfung waren 99,2 Prozent der von der KI angeführten Tatsachen tatsächlich korrekt – was insofern erstaunt, als KI oft selbst zum kreativen Ausdeuten und Erfinden neigt und so ein Instrument der Desinformation sein kann. Laut den Forschenden könnte gerade die Mischung aus maschineller Faktensichtung und persönlicher Ansprache im Chat die besondere Überzeugungskraft der Bots erklären. Wenngleich ein Gegenargument der Verschwörungsfreunde natürlich auf der Hand liegt: Da auch eine KI nur die im Netz kursierenden Informationen auswertet, ist ja klar, dass ihre vermeintlichen Fakten selektiv oder eben »fake« sind. Der Drang, es einfach besser zu wissen, lässt sich schwer aushebeln.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.