Im letzten Beitrag dieser Kolumne habe ich dafür geworben, dass Journalisten Partei ergreifen dürfen, wenn sie von einer Sache überzeugt sind und ihre Haltung für das Publikum deutlich machen. In der Umfrage am Ende des Beitrags erhielt diese Position eine Mehrheit, doch in den Kommentaren – auch auf Facebook und Twitter – wurde mein Vorschlag abgelehnt. Der Journalismus verkomme so zum Gesinnungsjournalismus oder zur Propaganda, lautete ein Vorwurf. Meinungen gebe es schon genug, lautete ein anderer. Was heutzutage fehle, seien objektive und vertrauenswürdige Berichte. Dafür zu kämpfen sei wichtiger, als noch mehr Meinungen in die Welt zu setzen.

Ich erfasse natürlich nicht alle Aspekte der Kritiker, aber der Kern in vielen Argumenten scheint dieser zu sein: Im Journalismus – und erst recht im Wissenschaftsjournalismus – sollte es in erster Linie darum gehen, die Fakten richtig und umfassend darzustellen. Erst danach kann man sich ein Urteil bilden (und eigentlich könnten Journalisten dieses Urteil auch dem Publikum überlassen). Das sehe ich in Teilen auch so: Kommentare sollten nicht die saubere Recherche ersetzen und sie sollten auch nicht überhand nehmen. Doch ich sehe hierbei eine Schwierigkeit: Hinter manchen angeblich neutralen journalistischen Beiträgen steckt eine Haltung, die nicht genannt wird.

Reicht es festzuhalten, was man sieht?

Diesen Verdacht haben auch einige der Kritiker, denn mehrfach wird bemängelt, dass Journalisten nicht ausgewogen zitieren würden und in der Wortwahl tendenziös seien. Doch die Kritiker ziehen einen anderen Schluss daraus als ich: Sie fordern ein Ende der unterschwelligen Meinungen, während es mir lieber wäre, die Meinungen würden transparent gemacht. Ich glaube nämlich, dass man sie nicht immer vermeiden kann, auch wenn man sich darum bemüht. Und ich glaube, dass es das Vertrauen in den Journalismus stärken würde, wenn diese Werte thematisiert werden. Wenn ein Wissenschaftsjournalist zum Beispiel über eine Esoterik-Messe berichtet, dann tut er das vermutlich nicht wirklich ergebnisoffen. Doch was treibt ihn an? Will er verstehen, warum Esoteriker an ihren Theorien festhalten? Will er sie vielleicht sogar eines Besseren belehren? Das sollte er in seinem Beitrag deutlich machen.

Der Historiker Peter Galison hat rekonstruiert, wie der Gedanke der Objektivität in den Journalismus kam: Man hat ihn aus der Wissenschaft übernommen. Dort war im 19. Jahrhundert das Ideal entstanden, sich als Forscher möglichst aus der Datenerhebung und Interpretation herauszunehmen. Galison spricht von "mechanischer Objektivität", weil Daten zu sammeln und zu interpretieren nun weniger Kunst war und mehr Handwerk. Mancher Biologe am Mikroskop ging so weit, auch die optischen Artefakte abzuzeichnen, obwohl er wusste, dass sie nicht der Realität entsprechen. Er zeichnete eben, was er sah. An diesem Ideal haben sich auch Journalisten orientiert. Doch dieses Ideal ist nicht die ganze Geschichte.

Wie streng müssen Fakten geprüft werden?

Natürlich machen sich Wissenschaftler auch Gedanken darüber, ob sie etwas Echtes sehen oder getäuscht werden. Und sie lernen im Studium, ihr Auge zu schulen – etwa um Pflanzen zu bestimmen oder Gewebeproben zu analysieren. Hier können Forscher unterschiedlicher Meinung sein, und deshalb gehört das gegenseitige Überprüfen zur Wissenschaft. Aber die Sache mit der Objektivität ist noch komplizierter, denn manchmal kommen sogar moralische Überlegungen ins Spiel. Bei dieser These stürze ich mich auf die Philosophin Heather Douglas, die diese Position vor einigen Jahren in einem Aufsatz entwickelt (deutsche Übersetzung) – und kürzlich neu zusammengefasst hat. Sie fragt, wie streng man wissenschaftliche Hypothesen prüfen sollte. Klare Sache – so streng wie möglich!, mag man im ersten Moment denken. Das Ziel sind schließlich zuverlässige Erkenntnisse. Doch es gibt eine Kehrseite: Je strenger man prüft, umso größer wird das Risiko, etwas Wichtiges zu übersehen.

Die möglichst strenge Prüfung mag in der Teilchenphysik richtig sein. So galt das Higgs-Teilchen erst als nachgewiesen, nachdem die statistische Analyse eine Irrtumswahrscheinlichkeit von weniger als 1 zu 1,7 Millionen ergeben hatte. Das ist eine hohe Hürde, und man kann sich gut vorstellen, dass manches Higgs-Teilchen zuvor übersehen worden ist, weil die Daten nicht eindeutig genug waren. Aber ein Higgs-Teilchen zu übersehen, kann man leicht verschmerzen. Viel wichtiger ist den Physikern, sicher zu sein, dass ihr Teilchenmodell stimmt und das Higgs-Teilchen tatsächlich existiert.

Welche Risiken akzeptiert die Gesellschaft?

In anderen Bereichen fällt die Abwägung anders aus. Das Beispiel von Heather Douglas ist die Ermittlung von Gesundheitsrisiken toxischer Substanzen. Erst von einer Krebsgefahr zu sprechen, wenn die Irrtumswahrscheinlichkeit unter 1 zu 1,7 Millionen liegt, würde viele Risiken unterschlagen. Hier sind Wissenschaftler eher bereit, ein anderes Risiko einzugehen: das Risiko eines falschen Alarms. Denn wenn man die Anforderungen an die Irrtumswahrscheinlichkeit senkt, läuft man Gefahr, einen Effekt zu registrieren, der in Wirklichkeit keiner ist. Man kann aber nicht beides haben: Wenn man das Risiko eines falschen Alarms reduziert (in der Statistik sagt man: die Wahrscheinlichkeit eines Fehlers der 1. Art reduziert), dann steigt das Risiko, einen Effekt zu übersehen (also die Wahrscheinlichkeit eines Fehlers der 2. Art) – und umgekehrt.

Die Philosophin Douglas hat einen Tierversuch zur Frage, ob Dioxin Krebs auslöst, genauer untersucht. Es handelte sich um die erste Langzeitstudie zu diesem Thema; sie wird heute nach ihrem Leiter "Kociba-Studie" genannt. In den 1980er- und 90er-Jahren stritten die Pathologen darüber, wie sie mit Gewebeproben umgehen sollten, die sich nicht klar als normales Gewebe oder Tumorgewebe einordnen lassen. Zählt man die Grenzfälle zu den Tumoren oder nicht? Wenn man sie hinzuzählt, erscheint das Krebsrisiko durch Dioxin höher – und die Politik dürfte schärfere Regeln erlassen, die der Wirtschaft vermutlich höhere Kosten für die Umstellung oder Sicherheitsvorkehrungen aufbürden. Lässt man die Grenzfälle hingegen weg, erscheint das Krebsrisiko geringer – und es könnte sein, dass Menschen an Krebs erkranken, den man durch schärfere Regeln verhindert hätte.

Welche Meinung vertreten die Wissenschaftler?

Den Wissenschaftlern war klar, welche Folgen ihre Entscheidung haben kann, argumentiert Douglas. Daher spielte die Abwägung schon bei der Erhebung der Daten eine Rolle. Die Kociba-Studie wurde letztlich drei Mal ausgewertet – mit unterschiedlichen Ergebnissen. Bei den 50 Ratten, die die höchste Dioxin-Dosis erhielten, wurden anfangs in mehr als 30 Tieren Tumore diagnostiziert. Bei der dritten Auswertung waren es hingegen nur 18. Mindestens ein US-amerikanischer Bundesstaat hat daraufhin seine Regelungen gelockert. Douglas argumentiert nun so: Wenn Wissenschaftler wissen, welche Folgen ihre Entscheidungen haben können, dann müssen sie abwägen, welche möglichen Irrtümer eher zu akzeptieren sind und welche man unbedingt vermeiden muss. Deshalb stecken in ihren neutral erscheinenden Zahlen bereits moralische Prämissen. Und ich würde hinzufügen: Es lohnt sich für Journalisten, diese Prämissen aufzudecken und darüber zu diskutieren.

Eine Anmerkung: In den Tierversuchen steckt noch eine weitere Abwägung, denn man könnte die Zuverlässigkeit des Experiments erhöhen, indem man deutlich mehr Tiere untersucht. Wie viele Tiere genügen, ist aber auch eine Frage der Kosten – und eine des Leids, das man den Tieren zufügt. Meine Überzeugung, die diesem Beitrag zugrundeliegt: Ich sehe in der Wissenschaft einen ausgezeichneten Weg, zuverlässige Erkenntnisse zu erhalten, und setze mich dafür ein, dieses Wissen in gesellschaftlichen Debatten aufzunehmen. Ich finde aber auch, dass man von der Wissenschaft nicht mehr Objektivität verlangen darf, als sie liefern kann.

Die Moral von der Geschichte: In wissenschaftlichen Fakten stecken manchmal auch moralische Überlegungen. Ob es die richtigen sind, sollte öffentlich diskutiert werden.

Quiz Maker – powered by Riddle