Direkt zum Inhalt

Fehlurteile: Wie Sie Wahrscheinlichkeiten richtig deuten

Wer ein Testergebnis richtig interpretieren will, sollte sich nicht von seiner Intuition leiten lassen – denn sie führt häufig in die Irre. Zum Glück gibt es einen Rechenweg, der sicher zum Ziel führt.
Ein Mann studiert Statistiken auf dem ComputerLaden...

Im Jahr 1996 brachte die Engländerin Sally Clark einen Jungen zur Welt. Einige Wochen nach seiner Geburt starb er. Man ging von einem plötzlichen Kindstod aus. Rund ein Jahr später starb auch ihr zweiter Sohn kurz nach der Geburt. Wieder dieselbe Todesursache? Oder hatte die Mutter, Sally Clark, beide Kinder getötet? Vor Gericht behauptete ein medizinischer Experte, dass die Wahrscheinlichkeit dafür, dass zwei Geschwister beide am plötzlichen Kindstod sterben, 1 zu 73 Millionen beträgt. Wie wahrscheinlich wäre es demnach, dass Sally Clark unschuldig ist?

Vermutlich denken Sie: 1 zu 73 Millionen. Das jedenfalls schloss die Jury aus der Aussage des Experten und sprach die junge Mutter schuldig. Sally Clark wurde Opfer eines schrecklichen Justizirrtums. Denn die Geschworenen hatten die Daten falsch interpretiert.

Dass wichtige Entscheidungen von einer Wahrscheinlichkeitsschätzung abhängen, gibt es nicht nur in der Justiz, sondern ebenso in anderen Bereichen, etwa in der Medizin. Was ein Arzt aus einem Testresultat schließt, beeinflusst die Wahl der Therapie, die er seinem Patienten empfehlen wird. 2014 warnten die US-Gesundheitsbehörden vor dem Einsatz von PSA-Tests in der Prostatakrebsvorsorge (PSA = Prostata-spezifisches Antigen), denn weil deren Interpretation so schwierig ist, hielten Ärzte manchmal gutartige Tumoren für bösartig. Dann schlugen sie überflüssige Therapien vor, mit dem Risiko von Nebenwirkungen wie Inkontinenz oder Impotenz sowie psychischen Folgen für die Patienten.

Auf dem Gebiet der Wahrscheinlichkeiten sind wir zutiefst paradoxe Wesen. Auf der einen Seite glauben Kognitionswissenschaftler, dass wir geborene Statistiker sind, weil wir intuitiv vorhersagen können, ob ein Ereignis wahrscheinlich ist oder nicht. Wer etwa einen Freund um einen Gefallen bittet, weiß im Allgemeinen realistisch einzuschätzen, wie dieser Freund reagieren wird. Vielleicht wird er behaupten, dass er einen Termin hat, um nicht helfen zu müssen. Aber er wird nicht sagen, dass er keine Lust hat, denn das wäre nicht seine Art. Das intuitive Verständnis für das, was passieren könnte, ist zutiefst probabilistisch: Man beurteilt mehr oder minder bewusst, wie plausibel die Ereignisse sind – etwa dass der Freund zusagt, dass er offen Nein sagt oder einen Vorwand erfindet.

Dennoch sind wir bemerkenswert schlecht darin, explizite Angaben von Wahrscheinlichkeiten zu interpretieren. Das liegt daran, dass sich die beiden Aufgaben deutlich unterscheiden: halbwegs korrekt Plausibilitäten vorherzusagen oder aber ein mathematisches Problem zu lösen. Unsere statistische Intuition liegt manchmal falsch. Unser Innenohr führt permanent Fourier-Analysen der eintreffenden Schallwellen durch – zerlegt sie also in ihre einzelnen Frequenzen – und erlaubt uns damit, Musik zu interpretieren und die Tonhöhe wahrzunehmen. Und doch gilt das Rechnen einer Fourier-Analyse keineswegs als einfach.

Wir tun uns besonders schwer mit Problemen, für deren Lösung es die »bayesianische« Statistik braucht

Wir tun uns besonders schwer mit Problemen, für deren Lösung es die »bayesianische« Statistik braucht: Um die Wahrscheinlichkeit eines Ereignisses zu bestimmen, muss man die Wahrscheinlichkeit eines weiteren Ereignisses berücksichtigen. Auch wenn es nicht auf Anhieb ersichtlich ist, verhält sich eine große Menge von Problemen nach diesem Prinzip.

Ein Beispiel: In einem Land, wo 1 von 1000 Personen mit HIV infiziert ist (das entspricht einer Prävalenz von 0,1 Prozent), bekommt eine zufällig ausgewählte Person ein positives Testergebnis. Der Test ist zu 99 Prozent zuverlässig, das Ergebnis ist also in einem Prozent der Fälle falsch. Wie wahrscheinlich ist es, dass die positiv getestete Person tatsächlich mit HIV infiziert ist?

99 Prozent? Falsch. Die richtige Antwort lautet ungefähr 10 Prozent. Aber die meisten Menschen halten die Wahrscheinlichkeit intuitiv für viel höher. Das Problem lässt sich wie folgt mathematisch lösen: Von 1000 Personen ist nur eine infiziert, und ihr Test fällt sehr wahrscheinlich positiv aus. Aber 10 der übrigen 999 gesunden Personen erhalten auch ein positives Testergebnis, da der Fehleranteil bei einem Prozent liegt. Unter den insgesamt 11 Personen mit positivem Testergebnis sind also 10 gesunde (die falsch Positiven) und eine, die tatsächlich infiziert ist. Das macht eine Wahrscheinlichkeit von weniger als 10 Prozent, mit HIV infiziert zu sein, wenn man positiv getestet wird.

Die Wahrscheinlichkeiten für Unfall oder Misshandlung

Ein anderes Beispiel ist das so genannte Schütteltrauma. Wenn ein Säugling geschüttelt wird, entwickeln sich häufig subdurale Hämatome, also Blutergüsse unter der Schädeldecke und Blutungen in der Netzhaut. Manchen Medizinern erscheinen diese beiden Zeichen als so charakteristisch, dass es ihnen als Beweis für Kindesmisshandlung genügt, auch wenn die Eltern versichern, dass das Kind unglücklich gefallen ist.

Warum sind sie so sicher? Weil es sehr wahrscheinlich ist, dass diese Symptome auftreten, wenn man ein Kind gewaltsam schüttelt, und sehr unwahrscheinlich, wenn das Kind lediglich gestürzt ist. Auf den ersten Blick ein gutes Argument, doch es vernachlässigt eine wichtige Information: dass Kinder häufiger hinfallen und viel seltener so heftig geschüttelt werden, dass es zu solchen Symptomen kommt. Ein sehr kleiner Teil der Kinder, die hinfallen, entwickelt daraufhin die fraglichen Blutungen unter der Schädeldecke und in der Netzhaut. Da aber viele Kinder stürzen, kommt es eben doch zu einigen Fällen. Mathematiker schätzen auf Grund der verfügbaren Daten, dass es doch etwas wahrscheinlicher ist, dass ein Kind mit den Symptomen eines Schütteltraumas lediglich unglücklich gefallen ist. Doch das widerspricht der Intuition und überzeugt deshalb viele medizinische Experten nicht, die in Fällen von Kindesmisshandlung Stellung nehmen.

Die beiden Beispiele offenbaren einen entscheidenden Punkt: Wir neigen intuitiv dazu, die so genannte Basisrate zu vernachlässigen, etwa die Basisrate von Krankheiten oder Unfällen. Und da liegt der Hund begraben, denn sie ist ein wesentlicher Parameter, wenn man die Wahrscheinlichkeit eines Ereignisses richtig berechnen will.

Nur vier Prozent der Menschen geben spontan die richtige Antwort auf ein Problem, das allein mit bayesianischer Statistik zu lösen ist

Um ein Problem dieser Art ging es auch im Prozess von Sally Clark. Die Frage lautete: Mit welcher Wahrscheinlichkeit ist sie schuldig, wenn sich ein sehr unwahrscheinlicher Vorfall (plötzlicher Kindstod) zweimal ereignet haben soll? Dazu muss man eine Basisrate kennen: den Anteil an Frauen, die ihr Kind töten, ohne dass sie zuvor mit Gewalttaten auffällig geworden wären. Weil der Anteil verschwindend klein ist, ist ein Doppelmord sehr unwahrscheinlich.

Dennoch hält die Mehrheit der Menschen in solchen Fällen eine Schuld für wahrscheinlicher, als sie in Wirklichkeit ist – ein Bias oder Fehlschluss, den man auch Irrtum der Anklage nennt. Laut einer Metaanalyse von Michelle McDowell und Perke Jacobs geben bloß vier Prozent der Menschen spontan die richtige Antwort auf ein Problem, das nur mit bayesianischer Statistik zu lösen ist. Auch Fachleute – Juristen, Mediziner, Lehrer – unterliegen dieser Illusion. Sally Clark ist leider kein Einzelfall.

Ein simpler Trick macht die Sache wesentlich einfacher, wie die Psychologen Gerd Gigerenzer vom Max-Planck-Institut für Bildungsforschung und Ulrich Hoffrage von der Universität Lausanne in einer 1995 veröffentlichten Studie entdeckt und seitdem vielfach belegt haben: nämlich ein bayesianisches Problem in »natürlichen Häufigkeiten« zu formulieren, also die Zahl der betroffenen Personen zu betrachten. Wir übertragen das Vorgehen nun auf den geschilderten HIV-Test, Ausgangsinformation: »0,1 Prozent der Population ist betroffen, und 1 Prozent der gesunden Menschen werden positiv getestet.« In natürlichen Häufigkeiten bedeutet das: 1 von 1000 Personen ist betroffen (die Basisrate), und 10 gesunde von 1000 werden positiv getestet. So ist das Problem einfacher zu lösen: 24 Prozent der Menschen gelingt das, sechsmal soviel wie zuvor.

Bleiben allerdings 76 Prozent, die sich weiterhin täuschen. Drei von vier sind immer noch zu viel, angesichts der Bedeutung solcher Entscheidungen. Geht nicht noch mehr?

Patrick Weber und seine Kollegen von der Universität Regensburg haben einen Weg gefunden. Sie entdeckten hinter dem hartnäckigen Irrtum einen subtilen psychologischen Mechanismus: Wenn man ein Problem in natürlichen Häufigkeiten darstellt, wie »10 von 1000 gesunden Personen werden positiv getestet«, so interpretiert die Hälfte der Leute die Zahlen als Wahrscheinlichkeit: »1 Prozent der gesunden Menschen wird positiv getestet.« Sie kehren zu der Perspektive zurück, die eigentlich vermieden werden sollte.

Wie kommt das? Ein Grund ist, dass die meisten Matheaufgaben in der Schule probabilistisch formuliert sind, obwohl sie eigentlich bayesianisches Denken erfordern. Die Kinder lernen also, das Problem über eine fehleranfällige Methode zu lösen: Sie formulieren die natürlichen Häufigkeiten in Wahrscheinlichkeiten um, selbst wenn das nicht der beste Weg ist. Den Rest erledigt die geistige Unbeweglichkeit: Wenn wir eine Problemlösestrategie beherrschen, neigen wir dazu, sie automatisch und ohne nachzudenken immer wieder anzuwenden.

Das andere wichtige Ergebnis der Studie: Wenn Versuchspersonen einmal nicht in diese Falle tappen und tatsächlich in natürlichen Häufigkeiten rechnen, dann kommen sie zu besseren Ergebnissen. Sie geben in 61 Prozent der Fälle die richtige Antwort, mehr als doppelt so oft wie die oben genannten durchschnittlich 24 Prozent und 15-mal soviel wie die ursprünglichen vier Prozent, als das Problem in Form von Wahrscheinlichkeiten und ohne weitere Rechenvorgaben formuliert war.

Würde man Menschen das erklären, bevor sie auf Basis von Statistiken Entscheidungen treffen, so könnte das ihre Fehlerquote deutlich senken. Man müsste auch den Unterricht entsprechend anpassen und Kindern beibringen, sich konkrete Szenarien vorzustellen, anstatt abstrakt zu rechnen. Der Schlüssel liegt darin, in Etappen vorzugehen. Im Fall einer Krankheit: Man schätzt die Zahl der tatsächlich betroffenen Personen in der Population, dann die Zahl der positiven und den Anteil der falsch positiven Testergebnisse. Daraus kann man dann die Wahrscheinlichkeit berechnen, im Fall eines positiven Testergebnisses tatsächlich krank zu sein. Werkzeuge wie Entscheidungsbäume und Diagramme helfen dabei, das Vorgehen zu verstehen (siehe Grafik: »Vergleich von Risiken anhand natürlicher Häufigkeiten«).

Zwei Rechenwege zu Unfallrisiken am Beispiel von Trunkenheit am SteuerLaden...
Wie stark steigt das Unfallrisiko bei Trunkenheit am Steuer? | Laut französischen Verkehrsstatistiken ist Alkohol die Ursache von fast einem Drittel der tödlichen Verkehrsunfälle. Wie hoch ist die Wahrscheinlichkeit, dass ein betrunkener Mann einen solchen Unfall verursacht? Der beste Rechenweg arbeitet mit »natürlichen Häufigkeiten«, also mit der Zahl der betroffenen Personen. Dazu braucht es zwei weitere Informationen: die Zahl der Fahrer, die überhaupt einen Unfall verursachen, und den Anteil der Autofahrer, die Alkohol getrunken haben und unfallfrei ankommen. Der Entscheidungsbaum (links) ist ein gutes Hilfsmittel, um das Problem zu veranschaulichen: In diesem Beispiel sind 51 Personen alkoholisiert, aber nur eine von ihnen verursacht einen Unfall. Wenn man betrunken ist, beträgt das Risiko also 1/51, das heißt rund 2 Prozent. Nüchtern liegt das Risiko, einen tödlichen Unfall zu verursachen, bei ungefähr 0,2 Prozent (2/949), also fast zehnmal niedriger als nach Alkoholkonsum. Das Diagramm rechts stellt das Problem bildlich dar: Man sieht, dass es mehr alkoholisierte Autofahrer ohne Unfall als mit Unfall gibt, doch der Anteil der nüchternen Autofahrer mit Unfall ist noch wesentlich kleiner.

Wenn Medizin, Justiz und Politik immer häufiger mit Statistiken und Risiken argumentieren, steht viel auf dem Spiel. Ein Irrtum kann dramatische Folgen haben, wie der Fall von Sally Clark zeigt. Die junge Frau wurde zwar drei Jahre später freigesprochen – nachdem die Royal Statistical Society die Argumentation der Anklage für falsch erklärte und eine erneute Begutachtung der biologischen Indizien ihre Unschuld bestätigte. Aber das Unglück war geschehen. Drei Jahre Gefängnis, zusätzlich zum Tod ihrer Kinder, war mehr, als sie ertragen konnte. Sie hat sich davon nie wieder ganz erholt und starb 2007 an einer Überdosis Alkohol.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte