Direkt zum Inhalt

Leseprobe »Grüne fahren SUV und Joggen macht unsterblich«: Denken in Daten

Das Verhältnis von Daten und Realität fordert uns heute besonders heraus, und nur allzu schnell fallen wir auf Fake News und Panikmache rein. Jeden Tag überbietet eine Schlagzeile die andere – oft auf Basis falscher Dateninterpretation. Eine Leseprobe
Verschiedene Grafiken und Diagramme, die Statistik symbolisieren

Warum statistisches Denken wichtig ist

Was kann man tun, um Menschen in ihren Entscheidungsprozessen zu unterstützen, damit dem Gemeinwohl dienende Ergebnisse dabei herauskommen? Dazu gibt es drei Visionen, die miteinander in Konflikt stehen: Paternalismus, das sogenannte »Nudging« und Risikokompetenz. Die klassische Vision autokratischer Systeme ist der Paternalismus. Man sagt den Bürgern, wie sie sich verhalten sollen, und belohnt und bestraft sie, je nachdem, ob sie folgsam sind oder nicht. Das ist das Modell China. »Nudging« ist eine sanfte Variante des Paternalismus und bedeutet, dass man Entscheidungen nicht vorschreibt und auch nicht belohnt oder bestraft, sondern mit psychologischen Mitteln versucht, unser Verhalten zu beeinflussen (von to nudge = stupsen, in eine bestimmte Richtung lenken). Man will Menschen zu ihrem Glück steuern, ohne sie zu ermächtigen, das selbst zu tun. Die britische Regierung unter David Cameron hatte beispielsweise einmal eine eigene Nudging-Einheit eingerichtet. Die deutsche Regierung dagegen unterhält eine Einheit »Wirksam regieren« zur Stärkung der Risikokompetenz in Gesellschaft und Verwaltung. Diese Risiko- und damit auch Entscheidungskompetenz ist eine Alternative zu beiden Formen von Paternalismus, hart und weich. Es geht darum, die Bürger kompetent zu machen, so dass sie Evidenz verstehen und selbst informiert entscheiden können, statt hart oder sanft vom Staat und anderen Interessen gesteuert zu werden. Die Fähigkeit zum statistischen Denken ist ein zentra­ler Baustein dieser Risikokompetenz. Ohne mitdenkende und informierte Bürger bleibt Demokratie ein leeres Wort.

Nichts für Warmduscher

Statistisches Denken ist also die Kunst, Risiken zu verstehen. Es ist eine zutiefst emotionale Kunst, und das in zweierlei Hinsicht. Zum einen muss man den Glauben an absolute Sicherheiten aufgeben und lernen, mit Ungewissheit zu leben. Ungewissheit kann Angst und Verunsicherung auslösen, aber auch das Bedürfnis, Sicherheiten zu suchen, wo es keine gibt. Zum Zweiten geht es darum, ein Lebensgefühl zu entwickeln, das sich an Fakten und Evidenz orientiert, zusammen mit einer gesunden Portion Skepsis gegenüber festen Überzeugungen und Behauptungen aller Art. Wer statistisch denkt, läuft Gefahr, Freunde zu verlieren und politisch und gesellschaftlich anzuecken. Und es kann noch schlimmer kommen. Der Chirurg und Geburtshelfer Ignaz Semmelweis fand Mitte des 19. Jahrhunderts mittels Statistik ­heraus, dass die durch häufiges Kindbettfieber in Krankenhäusern bedingte hohe Sterblichkeit der Mütter daran lag, dass die Ärzte sich nicht die Hände wuschen, wenn sie etwa von einer Obduktion in den Kreißsaal gingen. Semmelweis rettete so unzähligen Frauen das Leben. Aber dieser empirische Nachweis war seinen Kollegen so unwillkommen, dass sie seine Karriere mit Intrigen hintertrieben und ihn schließlich in eine Irrenanstalt einlieferten, wo er, nur 47 Jahre alt, verstarb.

Bis heute sind Menschen an den Schalthebeln der Macht, selbst Regierungen von demokratischen Staaten, nicht immer an der Wahrheit interessiert. Nachdem der Präsident der griechischen Statistikbehörde ELSTAT, Andreas Georgiou, aufgedeckt hatte, dass seine Vorgänger das griechische Haushaltsdefizit jahrelang zu niedrig angegeben hatten, um in die EU aufgenommen zu werden, wurde er vom obersten Gericht seines Landes zu zwei Jahren Haft auf Bewährung verurteilt: Er hätte damit dem griechischen Staat geschadet. Um nicht ins Gefängnis zu müssen, ist Georgiou dann in die USA ausgewandert. In einer nicht ganz so dramatischen Angelegenheit entließ die Bayerische Staatsregierung den Wirtschaftsethiker Christoph Lütge im Februar 2021 aus dem Bayerischen Ethikrat. Lütge hatte die Nullinfektionskampagne der Bayerischen Staatsregierung für »völlig illusorisch« und die geforderten Corona-Inzidenzen im Winter für unerreichbar erklärt und vor den Kollateralschäden gewarnt. Zu diesen Thesen kann man stehen, wie man will – die Staatsregierung jedenfalls hat die Nullinfektionsstrategie selbst bald zu den Akten gelegt.

Beginnen wir mit fünf wichtigen Grundprinzipien statistischen Denkens. Sie decken einen großen Teil der Denkfehler ab, mit denen wir uns in diesem Buch beschäftigen. In den folgenden Kapiteln werden weitere Prinzipien erklärt, wie etwa die häufige Verwechslung von Korrelation mit Kausalität. Jeder kann diese Prinzipien verstehen, auch wenn man vielleicht etwas Zeit aufwenden muss, um die Beispiele zum besseren Verstehen nochmals zu lesen. Eine Fremdsprache zu lernen ist wesentlich aufwendiger.

Grundprinzip Nr. 1: Sicherheit ist eine Illusion

Das Einmaleins der Skepsis beginnt mit der Erkenntnis: Sicherheit ist eine Illusion. Benjamin Franklin hat einmal gesagt: In dieser Welt ist nichts sicher außer dem Tod und den Steuern. Wir wissen inzwischen, dass auch Letztere nicht sicher sind (wenn man an die Wachstumsbranche Steuerhinterziehung denkt). Dennoch haben viele Menschen ein emotionales Bedürfnis nach Sicherheit und Gewissheit, selbst wenn es diese nicht gibt. Das kann durchaus für einen selbst und die Mitmenschen gefährlich sein. So ist zum Beispiel keine Impfung sicher. Dennoch waren viele überrascht, als während der Covid-19-Pandemie die ersten Fälle von vollständig geimpften Personen bekannt wurden, die sich dennoch infiziert hatten oder sogar ins Krankenhaus kamen. Diese Fälle wurden von Impfgegnern als Beweis angeführt, dass die Impfung nicht oder kaum wirksam sei. Dabei wurde von Anfang an klar vom Robert-Koch-Institut und anderen ­Organisationen kommuniziert, dass die Wirksamkeit der Impfstoffe bei 90 Prozent und eben nicht bei 100 Prozent liege. Also muss es Personen geben, die sich trotz Impfung infizieren.

Viel Misstrauen ist insbesondere zu Beginn der Corona-Krise gerade deshalb entstanden, weil die Daten und die Schlussfolgerungen daraus als gesichertes Wissen dargestellt wurden. Als sich später herausstellte, dass manche Entwicklungen ganz anders verlaufen sind und man sich korrigieren musste, hat das nicht gerade das Vertrauen in die Medien und in die Wissenschaft gestärkt. Es ist sicher keine leichte Aufgabe, Menschen ohne wissenschaftliche Ausbildung (und auch manchen Wissenschaftlern) klarzumachen, dass man auch aus unsicheren Daten richtige Entscheidungen ableiten kann, weil es oft genügt, die Richtung zu erkennen. Anders gesagt, der genaue Weg muss nicht bekannt sein, solange man sich an Leitplanken orientieren kann.

Auch medizinische Tests sind niemals sicher. Und auch hier kann der Irrglaube an absolute Sicherheit zuweilen tödlich sein. In den ersten Jahren der AIDS-Epidemie wurden 22 Blutspender in Florida benachrichtigt, dass sie im ELISA-Test HIV-positiv waren. Sieben davon begingen Selbstmord. Wenn damals Menschen mit geringem Risiko – wie Blutspender – positiv getestet wurden, war die Wahrscheinlichkeit, wirklich infiziert zu sein, kleiner als 50 Prozent. Aber das war offensichtlich diesen Unglücklichen nicht bekannt. Auch Jahre später haben einige medizinische Insti­tutionen immer wieder suggeriert, das Testergebnis sei sicher. Ein klassisches Beispiel ist das Illinois Department of Health. In seiner Broschüre zum HIV-Screening konnte man lesen: »Ein positives Ergebnis bedeutet, dass Antikörper in Ihrem Blut gefunden wurden. Das heißt, Sie sind mit HIV infiziert. Sie sind lebenslang infiziert und können andere anstecken.« Ein Mann aus Ohio verlor innerhalb von zwölf Tagen nach einem solchen positiven Test seine Arbeit, sein Haus und – fast – seine Frau. Am Tag, als er Selbstmord begehen wollte, erhielt er die Nachricht: Das Testergebnis war falsch-positiv. HIV-Tests sind inzwischen weit besser geworden, aber selbst die Kombination von modernen ELISA- und Westernblot-Tests gibt keine absolute Sicherheit, nur eine hohe Wahrscheinlichkeit.

Der Versuch, ein Risiko ganz zu vermeiden, kann sogar dazu führen, ungewollt ein höheres Risiko einzugehen. Das ist eine Variante der Illusion der Gewissheit. Als im Frühjahr 2021 die ersten Nachrichten über schwere Thrombosen nach Impfungen mit dem Impfstoff von AstraZeneca aufkamen, waren viele höchst beunruhigt. Die Bereitschaft, sich mit diesem Impfstoff impfen zu lassen, ging stark zurück und die Impfdosen blieben liegen, obwohl damals in Deutschland Impfstoff noch knapp war. Viele Menschen waren entschlossen, das Risiko einer schweren Thrombose auf null zu reduzieren und lieber Monate zu warten, bis genügend mRNA-Impfstoffe zur Verfügung stehen würden.

Doch durch diese Vermeidung eines Risikos gingen die Menschen ein neues Risiko ein, nämlich, sich während der Wartezeit mit Covid-19 zu infizieren und vielleicht auf der Intensivstation um ihr Leben zu kämpfen. Dieses Risiko war deutlich größer als das seltene Risiko einer Hirnvenenthrombose, und zwar für alle Altersgruppen mit Ausnahme der 20- bis 29-Jährigen, und auch bei diesen nur dann, wenn sie in einer Gegend mit niedrigem Infektionsrisiko lebten.

Oder nehmen wir die vielen Herzkranken, die aus Angst vor einer Ansteckung mit Covid-19 trotz akuter Beschwerden nicht oder zu spät ins Krankenhaus gingen. Während der Corona-Krise hat sich die Anzahl der Patienten, die mit schweren Herzproblemen ins Krankenhaus kamen, deutlich reduziert, zum Teil um ein Drittel. Statt die beiden Risiken gegeneinander abzuwägen, hatten viele einen Tunnelblick auf ein einziges Risiko – sich mit Covid-19 zu infizieren – und riskierten damit aus Angst vor dem Virus, an den Folgen eines Herzinfarkts oder Schlaganfalls zu sterben.

Grundprinzip Nr. 2: Prozent wovon?

Bei Prozentangaben gilt es immer zu fragen: Prozent wovon? Risiken werden in Wahrscheinlichkeiten gemessen und oft in Prozenten ausgedrückt. Um diese zu verstehen, muss man wissen, auf welche Grundgesamtheit (auch Referenzklasse genannt) sich ein Prozentwert bezieht. Also: Prozent wovon? In der Kommunikation von Risiken zwischen Experten und der Öffentlichkeit gibt es hier zweierlei Ursachen von Missverständnissen: Die Referenzklasse wird nicht genannt oder es wird eine falsche genannt.

Wird die Referenzklasse nicht genannt, entsteht ein Problem. Verschiedene Menschen denken intuitiv an verschiedene Klassen, meist ohne dies zu bemerken. Wenn der Wetterbericht sagt, morgen regnet es mit einer Wahrscheinlichkeit von 30 Prozent, dann glauben viele, dass sie verstehen, was das bedeutet. Aber 30 Prozent wovon? Eine Studie stellte diese Frage Hunderten von Passanten in den Stadtzentren von vier europäischen Metropolen und von New York.3 Die Mehrheit der Amsterdamer glaubte, dass »30 Prozent Regenwahrscheinlichkeit« bedeute, dass es morgen in 30 Prozent der Zeit regnen würde, also sieben bis acht Stunden. Das war auch die vorherrschende Meinung unter den Berlinern. In Mailand war dagegen die Mehrheit gespalten: Die einen dachten ebenfalls an Zeit, die anderen meinten, dass es morgen in 30 Prozent der Gegend regnen würde. In New York glaubten dagegen zwei Drittel, damit sei etwas ganz anderes gemeint: dass es an 30 Prozent der Tage regnen würde, für die diese Vorhersage gemacht wird – also morgen wahrscheinlich nicht.

Welche Referenzklasse ist nun gemeint? Zeit, Gegend oder Tage? Gemeint sind Tage, nämlich dass an 30 von 100 Tagen an der Messstation zumindest ein Mindestmaß von Regen fällt – genau wie die meisten New Yorker dachten. Nur wird diese Referenzklasse von vielen Meteorologen und Nachrichtensprechern nicht klar kommuniziert. Das wirklich Erstaunliche ist, dass es kaum jemandem auffällt, dass andere etwas anderes verstehen – und auch kaum jemand die Frage nach der Referenzklasse stellt.

Betrachten wir noch ein Beispiel. Sie fühlen sich leicht depressiv und Ihre Ärztin bietet Ihnen Antidepressiva an. Sie erklärt auch mögliche Nebenwirkungen wie den Verlust von sexuellem Interesse und Impotenz. Sie sagt: »Wenn Sie das Medikament einnehmen, haben Sie eine 30- bis 50-prozentige Wahrscheinlichkeit eines sexuellen Problems.« Das ist eine klare Aussage. Oder doch nicht? In einer Studie wurden 73 ältere Personen (60 bis 77 Jahre) und 117 jüngere Personen (18 bis 35 Jahre) gefragt, was diese Aussage bedeute.4 Von den Älteren meinte etwa ein Drittel, damit werde gesagt, dass 30 bis 50 Prozent der Patienten ein sexuelles Problem haben werden. Ein anderes Drittel meinte, dass jeder Patient in 30 bis 50 Prozent der sexuellen Begegnungen ein Problem haben werde. Das letzte Drittel meinte, dass Patienten die sexuellen Begegnungen 30 bis 50 Prozent weniger angenehm empfinden würden oder hatten noch ganz andere Interpretationen. Bei den Jüngeren waren dagegen 70 Prozent der Meinung, die Wahrscheinlichkeit beziehe sich auf Patienten, während sich der Rest gleichmäßig auf die anderen Interpretationen verteilte. Was ist nun die richtige Interpretation? Es ist die erste, in der sich der Prozentsatz auf die Anzahl der Patienten bezieht. Das kann man aus der Aussage der Ärztin jedoch nicht erkennen, man könnte aber nachfragen oder in der entsprechenden Studie nachlesen.

An welche Referenzklasse man intuitiv denkt, kann einen Unterschied machen. Wenn man an Patienten denkt und ein optimistisches Lebensgefühl hat, dann wird man sich kaum beeindrucken lassen – denn es sind ja die anderen 30 bis 50 Prozent, die das Problem bekommen werden. Wenn man an sexuelle Begegnungen denkt, dann hilft aller Optimismus nichts, denn man erwartet das Problem selbst immer wieder in 30 bis 50 Prozent der Begegnungen.

Die falsche Referenzklasse

Wer es noch nicht gewusst hat: Fußball bildet. Dieser Einsicht haben wir eine Unstatistik des Monats gewidmet. Der Konstanzer Südkurier hatte berichtet, 73,4 Prozent der Anhänger des SC Freiburg hätten einen Hochschulabschluss. Damit führt dieser Klub die Fußballbundesliga in dieser Hinsicht an. Selbst unter den Fans des HSV, der in diesem Bildungsranking auf dem drittletzten Platz landet, haben immer noch mehr als die Hälfte (63,5 Prozent) einen Hochschulabschluss. Das ist nachzulesen im norddeutschen Zeitungsportal shz.de.

Wer hätte gedacht, dass unsere Fußballstadien mit Akademikern gefüllt sind, die auf den Rängen singen und Bengalos zünden? Wie kann das sein? Deutschlandweit haben weniger als 20 Prozent der Bevölkerung einen Hochschulabschluss (Bachelor, Master, Diplom oder Promotion); die Organisation für wissenschaftliche Zusammenarbeit und Entwicklung (OECD) hat Deutschland wiederholt wegen seiner geringen Akademikerquote gerügt. Wenn aber selbst unter den HSV-Fans mehr als die Hälfte angeblich einen Hochschulabschluss haben, dann stimmt hier etwas nicht.

Beim zweiten Hinsehen wird auch sofort klar, was hier nicht stimmt: Die Referenzklasse ist falsch. Die Meldungen basierten auf einer Umfrage unter Nutzern des Internetportals Xing, das heißt, die berichteten Prozentzahlen beziehen sich nicht auf alle Fans der Vereine, sondern nur auf diejenigen davon, die zugleich Mitglied bei Xing sind. Da Xing, wie der Konkurrent LinkedIn, meist Akademiker als Mitglieder hat, haben auch die HSV-Fans bei Xing meistens einen Hochschulabschluss. Die Journalisten haben zwar die richtigen Prozentzahlen berichtet, aber die falsche Referenzklasse benutzt. Richtig wäre gewesen: 73,4 Prozent der SC-Freiburg-Fans unter den Xing-Mitgliedern haben einen Hochschulabschluss.

Leider endet die Leseprobe an dieser Stelle. Das Buch »Grüne fahren SUV und Joggen macht unsterblich: Über Risiken und Nebenwirkungen der Unstatistik« bietet den Rest des Kapitels und mehr.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.