Als der US-Senat im Februar 2017 den konservativen Politiker Scott Pruitt als neuen Chef der amerikanischen Umweltschutzbehörde EPA bestätigte, löste das bei vielen im alten Europa – wieder einmal – nur Kopfschütteln aus: Pruitt hatte mehrfach abgestritten, dass menschliches Verhalten den Klimawandel beeinflusst. Dabei können sich, was die Leugnung wissenschaftlicher Fakten angeht, die Europäer an die eigene Nase fassen. Die Skepsis gegen Schutzimpfungen für Kleinkinder etwa ist einer Umfrage aus dem Jahr 2015 zufolge in Deutschland nur marginal geringer als in den USA. Länder wie Frankreich oder Italien zählen sogar weltweit zu den impfkritischsten – ganz im Gegenteil etwa zu Entwicklungsländern wie Ecuador, Ghana oder Bangladesch.

Warum aber ist es so, dass Menschen an Überzeugungen festhalten, die nach überwältigendem wissenschaftlichem Konsens falsch sind? Wieso tun wir uns generell schwer damit, unliebsame Tatsachen in unser Weltbild zu integrieren – und fallen beispielsweise als Fußballfans selbst dann nicht vom Glauben ab, wenn Skandale eine Mannschaft erschüttern, nehmen aber Fake News dankbar an, wenn sie unsere politische Einstellung stützen?

"Wenn Menschen sich einmal eine Meinung zu etwas gebildet haben, versuchen sie, diese zu behalten", sagt der Sozial- und Wirtschaftspsychologe Tobias Vogel von der Universität Mannheim. "Unsere Einstellungen sind ein Teil unserer Identität." Habe jemand zum Beispiel eine stark positive Haltung gegenüber der CSU, dann sei das relevant für sein Selbstbild. Und auch andere Menschen beurteilen uns danach, welche Dinge wir ablehnen und welche wir gut finden. "Unsere Freunde haben oft zu wichtigen Themen eine ganz ähnliche Einstellung wie wir", erklärt Vogel. "Ändere ich nun meine Meinung etwa zur CSU, weil ich neue Dinge über sie erfahre, kann das zu Problemen führen. Im Extremfall brechen alte Bekannte mit mir, und ich muss mir neue soziale Kontakte suchen, die meine veränderte Einstellung teilen."

Unerwünschte Informationen vermeiden

So weit lassen wir es indes meist gar nicht kommen: Wie eine Vielzahl wissenschaftlicher Studien belegt, suchen wir von vornherein eher solche Informationen, die unseren Einstellungen entsprechen. "So vermeiden wir innere Konflikte", verdeutlicht Vogel. Politisch eher links eingestellte Menschen informieren sich tendenziell in links gefärbten Medien und andersherum. Der "taz"- oder "FAZ"-Aufkleber am Briefkasten lässt daher ebenso tief blicken wie ein Blick aufs Smartphone und die dort installierten Medien-Apps. Reine Onlinemedien wie persönliche Blogs würden dabei oft eher politisch extreme Meinungen bedienen als klassische Informationsangebote, so Vogel. Und wer beispielsweise dem Thema Impfen gegenüber skeptisch oder ablehnend eingestellt ist, lande durch die Verwendung entsprechender Suchwörter im Netz auch leicht auf Seiten, die Zweifel an der Sicherheit und Notwendigkeit von Schutzimpfungen nähren.

Das geht sogar so weit, dass wir Journalisten prinzipiell unterstellen, verzerrt und unausgewogen zu berichten, sobald sie für uns unliebsame Tatsachen präsentieren. Was heute als "Lügenpresse" durch die Landschaft geistert, ist in der Kommunikationswissenschaft schon lange als das Phänomen der "hostile media" bekannt, also der feindseligen Medien. "Wenn ich überzeugter Anhänger einer bestimmten Ideologie bin, dann gehe ich grundsätzlich davon aus, dass in Rundfunk und Presse darüber negativ oder einseitig berichtet wird – zu meinen Ungunsten, versteht sich", erklärt Christina Peter von der Ludwig-Maximilians-Universität München. Das fanden Forscher etwa heraus, indem sie Israelis und Palästinensern Zeitungsartikel vorlegten, in denen der Nahostkonflikt thematisiert wurde. Obwohl die Wissenschaftler zuvor sehr genau kontrolliert hatten, dass beide Sichtweisen auf den Konflikt gleich ausführlich angesprochen wurden, gingen sowohl israelische als auch palästinensische Versuchsteilnehmer nach der Lektüre davon aus, dass die Beitrage verzerrt seien und ihre eigene Seite unvorteilhaft darstellten.

Das Abwerten der Quelle ist tatsächlich eine weit verbreitete psychologische Reaktion, sobald wir mit Informationen konfrontiert werden, die uns nicht in den Kram passen. Sei es beim alltäglichen Medienkonsum, im Gespräch mit Freunden oder Bekannten. Eine klassische Studie dazu veröffentlichten schon im Jahr 1979 Forscher um den Psychologen Charles Lord von der Stanford University. Die Wissenschaftler legten Probanden, die entweder glühende Verfechter oder Gegner der Todesstrafe waren, jeweils zwei wissenschaftliche Studien vor. Eine davon belegte scheinbar, dass die Einführung der Todesstrafe zu einer Reduktion der Mordrate führt, die andere das Gegenteil. Ergebnis: Wer von der Todesstrafe überzeugt war, bewertete die Studie, die ihr keine abschreckende Wirkung attestierte, als weniger überzeugend und von geringerer methodischer Qualität – und umgekehrt.

Grund für die Verrenkungen, die unser Gehirn dabei unternimmt, ist das so genannte Konsistenzmotiv, wie Psychologe Vogel weiter ausführt: "Wir haben das Bedürfnis, dass unser Wissen widerspruchsfrei ist. Alles andere würde ja logisch keinen Sinn ergeben." Stehen unsere Einstellung und eine nicht dazu passende Information nebeneinander, sprechen Wissenschaftler von kognitiver Dissonanz. Um diesen unangenehmen Spannungszustand aufzulösen, müssen wir an manchen Stellen Informationen abwehren. Am einfachsten sei das, wenn man Fakten rundheraus für falsch erklären kann, so Vogel. Ist das nicht möglich, können wir auch das Gewicht der Information kleinreden. "Überzeugte VW-Fans etwa sagen sich dann: Okay, beim Schadstoffausstoß wurde getrickst, aber das ist ja nicht der Grund, warum ich diese Marke fahre", erläutert Vogel.

Ich möchte das nicht!

2016 untersuchten Neurowissenschaftler um Jonas Kaplan von der University of Southern California in Los Angeles die neuronalen Grundlagen dieser Abwehrreaktion. Die Teilnehmer lagen im Hirnscanner und lasen Gegenargumente zu politischen Statements, denen sie zuvor überzeugt zugestimmt hatten. Einer der Befunde war, dass die Versuchspersonen anschließend umso weniger ihre Meinung änderten, je stärker beim Lesen der Gegenargumente ihre Amygdala aktiv war. Diese Struktur, oft als Angstzentrum des Gehirns bezeichnet, ist immer beteiligt, wenn wir Situationen emotional bewerten. Für das Gehirn macht es zu einem gewissen Grad demnach keinen Unterschied, ob wir körperlich bedroht sind oder ob unsere Identität bedroht ist, schlussfolgern die Forscher – und je heftiger unsere emotionale Reaktion auf diese Bedrohung ausfällt, desto eher halten wir an unseren Überzeugungen fest.

Ebenfalls weit verbreitet ist ein anderer Abwehrmechanismus, den Wissenschaftler häufig in Studien mit Rauchern gefunden haben. In diesem Fall würde eine Raucherin denken: Mag sein, dass Tabakrauch die Gefahr für viele Krankheiten erhöht – aber mich wird das nicht treffen. "Optimistischer Fehlschluss" heißt dieser Denkfehler. So ließe sich auch die Uneinsichtigkeit mancher eingefleischten Impfgegner erklären, sagt Kommunikationswissenschaftlerin Christina Peter. "Viele glauben ja durchaus, dass Masern bei kleinen Kindern zum Tod führen können", unterstreicht Peter. "Sie sind nur davon überzeugt, dass es ihrem Kind schon nicht passieren wird."

Wie wir mit unliebsamen Informationen umgehen, darüber entscheidet, wie extrem und gefestigt unsere Meinung im Vorhinein ist. Das hat verschiedene Gründe. Zum einen sind sehr starke Einstellungen – die glühende Anhängerschaft für einen Fußballverein, die tiefe Verachtung einer politischen Partei – besonders wichtig für die eigene Identität. Sie aufzugeben, ist psychologisch kostspieliger als bei weniger markanten Einstellungen, etwa der Bevorzugung dieser oder jener Jogurtsorte am Kühlregal. Zum anderen aber sind Menschen, die eine Sache passioniert vertreten, oft umfassender informiert. Daher kennen sie mehr Argumente für ihre Meinung, mit denen sie Angriffe parieren können.

Ein Junge flüstert einem Mädchen etwas ins Ohr.
© fotolia / ulkas
(Ausschnitt)
 Bild vergrößernPrivilegierte Quellen
Was Menschen für wahr oder falsch halten, hängt viel stärker vom sozialen Umfeld ab als von Daten, Fakten oder Argumenten.

Diese Fähigkeit, Herausforderungen des eigenen Weltbilds mit Gegenargumenten zu begegnen, baut sich meist langsam auf. Und nicht selten sind es gerade Überzeugungsversuche anderer, welche die ideologischen Abwehrkräfte stärken. Der Sozialpsychologe William McGuire (1925–2007) von der Yale University prägte dafür den Begriff der Inokulation, zu Deutsch: Impfung. Analog zum medizinischen Vorgang, so fanden McGuire und seine Mitarbeiter heraus, können wiederholte, schwache Argumente gegen unsere Position uns gegen stärkere Attacken immunisieren. Wichtig dabei: Die Gegenargumente müssen so stark sein, dass wir sie überhaupt einer Widerlegung würdig finden – aber dennoch nicht stark genug, um unsere Überzeugung ernsthaft zu erschüttern.

Was hängen bleibt – und was nicht

Einen ebenfalls subtilen Effekt, bei dem Argumente über die Zeit hinweg die genau gegenteilige Wirkung entfalten, hat Christina Peter selbst untersucht. "Oft gibt es ja solche Mythen- oder Faktenchecks in der Presse", erklärt Peter. Dabei werde häufig die falsche Information noch einmal wiederholt, à la: "Was ist dran am Mythos 'Impfen verursacht Autismus?'" Wenn Menschen das flüchtig lesen, bleibt oft nur die fehlerhafte Aussage hängen – nicht aber die Tatsache, dass diese eigentlich korrigiert wurde. Aus Sicht desjenigen, der die falsche Information richtigstellen wollte, geht der Schuss also nach hinten los, daher spricht man auch von einem "backfire effect". Zu ihm trägt bei, dass wir Fakten zuallererst in Kategorien wie "Das hab ich schon mal gehört" oder "Das ist mir vollkommen neu" einsortieren und dass wir prägnante Aussagen besser behalten als Kontextinformationen. "Eine Fehlinformation ist oft kurz und knackig, die Wahrheit dagegen eher dröge und kompliziert", so die Kommunikationswissenschaftlerin.

In der Studie, die Peter zusammen mit ihrem Kollegen Thomas Koch 2016 veröffentlichte, lasen die Probanden einen journalistischen Artikel, in dem Behauptungen über einen neuen Test zur Darmkrebsvorsorge aufgegriffen und entweder bestätigt oder korrigiert wurden. Dabei zeigte sich, dass die Teilnehmer fünf Tage später eher widerlegte Aussagen für zutreffend als dass sie zutreffende Aussagen für falsch hielten. Besonders anfällig für den Effekt waren Probanden, die sich eher oberflächlich mit dem Text beschäftigt und sich direkt danach noch keine starke Meinung zum Thema gebildet hatten. Diese Ergebnisse sollten allerdings nicht dazu führen, keine Mythen mehr öffentlich zu widerlegen, betont Peter. Denn natürlich würden sich viele Leser auch daran erinnern, dass der Mythos falsch ist. Dennoch sollte man, führt die Forscherin weiter aus, die Formulierung sorgfältig wählen – und am besten die Fehlinformation selbst nicht zu oft wiederholen.

Was hilft also gegen die Sturheit unseres Geistes? Zu denken wie ein Wissenschaftler, behauptet die Psychologin Priti Shah von der University of Michigan. Doch das ist harte Arbeit! In einem aktuellen Buchkapitel listen Shah und ihre Kollegen auf, welche Denkfallen dabei lauern, wenn Menschen die Qualität wissenschaftlicher Beweise evaluieren wollen. Wir müssen etwa lernen zu beurteilen, ob die präsentierten Daten wirklich die behauptete Hypothese stützen oder ob dies vielleicht nur den Anschein hat – wofür ein Grundverständnis von Forschungsmethoden und Statistik nötig ist. Zudem, so Shah, verlassen wir uns allzu oft auf Heuristiken: gedankliche Abkürzungen, dank derer wir uns schnell und ohne geistige Anstrengung ein Urteil bilden können. Und wir vertrauen zu stark auf persönliche Erfahrungsberichte und grafisch präsentierte Ergebnisse. Das wenig optimistische Urteil der Forscher: Angesichts der Vielzahl von Fehlschlüssen, denen Menschen aufsitzen, und Denkfallen, in die Menschen tappen, seien wir für pseudowissenschaftlichen Unfug geradezu prädestiniert.