Schon 1997 boten Ärzte im Südwesten Koreas ein Ultraschallscreening zur Früherkennung von Schilddrüsenkrebs an. Die Nachricht verbreitete sich schnell, und schon bald beteiligten sich immer mehr Mediziner daran. Letzten Endes wurde das Screening landesweit als Teil einer Regierungsinitiative zur allgemeinen Krebsvorsorge eingeführt. Hunderttausende ließen sich so für umgerechnet 30 bis 50 US-Dollar untersuchen.

Dadurch stieg die Zahl aufgedeckter Schilddrüsenkrebsfälle rapide an: von 5 auf 70 pro 100 000 Einwohner zwischen den Jahren 1999 und 2011. Bei zwei Drittel der Patienten wurde die Schilddrüse entfernt und die lebenslange Einnahme von Schilddrüsenhormonen verordnet, was beides aber mit Risiken behaftet ist.

Zu erwarten wäre, dass ein kostspieliges und öffentliches Gesundheitsprogramm auch Leben rettet – doch das war hier nicht der Fall. Schilddrüsenkrebs ist inzwischen in Südkorea der am häufigsten diagnostizierte Krebs; doch die Rate der Todesfälle hat sich überhaupt nicht verändert und liegt nach wie vor bei einem von 100 000 Einwohnern. Auch als einige Ärzte in Korea dies realisierten und den Stopp des Screeningprogramms vorschlugen, pochte die koreanische Gesellschaft für Schilddrüsenerkrankungen auf das Recht des Einzelnen auf Screening und Behandlung.

Wie überall herrschte auch in Korea der unerschütterliche Glaube daran, dass die Früherkennung von Krebs Leben rettet. Dieses blinde Vertrauen in die Krebsvorsorge ist ein gutes Beispiel für das Phänomen, dass sich bestimmte Vorstellungen über medizinische und verhaltensbiologische Prozesse selbst unter Wissenschaftlern hartnäckig auch dann halten, wenn sie durch hinreichend viele Gegenbeweise widerlegt sind. "Viele Wissenschaftler überschätzen ihrer Objektivität und meinen, sie würden niemals auf Volksglauben und Mythen hereinfallen", sagt Nicholas Spitzer, der Direktor des Kavli Institute for Brain and Mind von der University of California in San Diego.

Wissenschaftliche Mythen, Märchen und Legenden gründen oft auf einem Körnchen Wahrheit – Früherkennung etwa rettet ja wirklich bei manchen Krebsarten Leben. Sie speisen sich dann aus dem Wunschdenken der Menschen und aus ihren Ängsten, beispielsweise denen vor dem Tod. Doch falsche Legenden können auch Schaden anrichten, wenn für unnötige Behandlungen oder Produkte ohne erwiesenen Nutzen Geld ausgegeben wird oder Wissenschaftler und Fördergelder allein auf ein Thema gesetzt werden und andere viel versprechende Forschung ins Hintertreffen gerät. Wissenschaftliche Mythen zu bekämpfen ist allerdings äußerst schwierig. Die Forschung sollte sie unbedingt entlarven und dabei verhindern, dass sich weitere entwickeln, meint Paul Howard-Jones, der als Professor für Neurowissenschaften und Lernen an der University of Bristol in Großbritannien forscht. "Wir müssen herausfinden, wie es überhaupt zu einem Mythos kommt und warum viele davon so hartnäckig bestehen bleiben."

Einige besonders oft kolportierte Legenden können enormen Schaden anrichten: Etwa die Ideen, Impfstoffe würden Autismus verursachen oder HIV sei nicht für AIDS verantwortlich. Daneben schwirren aber noch viel mehr Fehlinformationen herum, schaden den Menschen, ziehen ihnen das Geld aus der Tasche und beschädigen das Ansehen der Forschung. So manche davon gehen auch den Wissenschaftlern richtig auf die Nerven. Hier ein kurzer Abriss über die Entstehungsgeschichte von fünf besonders hartnäckigen Märchen aus Wissenschaft und Forschung – und den von ihnen verursachten Schaden.

Erste Legende: Für alle Krebsarten gilt, Screening rettet Leben

Regelmäßiges Screening mag bei manchen Bevölkerungsgruppen mit hohem Risiko für eine bestimmte Krebsart von Vorteil sein, wie bei Lungen-, Gebärmutterhals- und Darmkrebs. Das gilt aber nicht für alle Organe – und doch werden auch nachweislich ineffektive Screeningtests von vielen Patienten und Ärzten heftig verteidigt.

Die Überzeugung, dass Früherkennung Leben rettet, stammt noch aus den Anfängen des 20. Jahrhunderts. Damals hatten Ärzte die besten Behandlungserfolge bei Tumoren erreicht, wenn sie diese kurz nach Einsetzen der Symptome erkannt und behandelt hatten. Damit lag die Annahme nahe, je früher die Detektion, desto besser die Überlebenschance. "Schon unsere Mütter haben uns gelehrt, Krebs müsse man frühzeitig finden und herausschneiden", sagt der Vorsitzende der American Cancer Society Otis Brawley.

Perfekte Wissenschaft?
© fotolia / Yuri Arcurs
(Ausschnitt)
 Bild vergrößernPerfekte Wissenschaft?

Doch die Ergebnisse großer randomisierter Studien zu Schilddrüsen-, Prostata- und Brustkrebs zeigen etwas ganz anderes: Frühes Screening ist keineswegs der Lebensretter, für den es gehalten wird. So wird beispielsweise die Sterberate für Prostatakarzinom durch ein Screening nicht signifikant verringert, wie eine Cochrane-Analyse von fünf randomisierten, kontrollierten klinischen Studien mit insgesamt 341 342 Teilnehmern zeigte.

"Die Leute glauben anscheinend, dass schon allein das Auffinden von Krebs im so genannten Frühstadium von Vorteil sein muss. Aber das ist überhaupt nicht so", erklärt Anthony Miller von der University of Toronto in Kanada, der die Canadian National Breast Screening Study leitete. Laut dieser über 25 Jahre angelegten Studie mit 89 835 Frauen im Alter zwischen 40 und 59 Jahren senkte eine jährliche Mammografie keineswegs die Mortalität von Brustkrebs. Das könnte unter anderem daran liegen, dass manche Tumoren völlig unabhängig vom Zeitpunkt der Detektion und Behandlung zum Tod führen. Inzwischen werden sogar immer mehr negative Effekte eines aggressiven Frühscreenings bekannt: Viele Tumoren wachsen nämlich sehr langsam und schaden dem Menschen gar nicht, wenn man sie nur in Ruhe lässt. Durch das Screening werden letzten Endes Patienten auch unnötig an der Schilddrüse, der Brust oder der Prostata operiert. Auf Bevölkerungsebene wiegen die Vorteile (also die Rettung von Leben) die Risiken (also der Verlust des Lebens oder die Beeinträchtigung durch unnötige Behandlung) nicht auf.

Wird bei jemandem Krebs erkannt und entfernt, hat er natürlich das Gefühl, gerettet worden zu sein; und genau diese Einzelerfahrungen halten das alte Denken am Leben. Dabei wird von Onkologen immer wieder heftig diskutiert, in welchem Alter und bei welchen Risikofaktoren Patienten von einem regelmäßigen Screening wirklich profitieren.

Die ganze Fokussierung auf das gängige Screening geht auf Kosten der Forschung, meint Brawley. "Wir haben nun schon so lange darüber diskutiert, ob das Alter mit 40 oder mit 50 Jahren als Screeningzeitpunkt für Brustkrebs relevant ist; dabei hat aber keiner gefragt, ob wir nicht einfach bessere Tests bräuchten", beispielsweise um schnell wachsende Tumoren besser als langsam wachsende Tumoren zu erkennen. Auch die vorhandenen Behandlungsstrategien sollten rigoros auf den Prüfstand gestellt werden und zeigen, dass sie tatsächlich Leben retten, meint John Ioannidis vom Stanford Prevention Research Center in California. Der Epidemiologe hat gerade in einer Analyse beschrieben, wie wenige der vielen Screeningtests für 19 schwer wiegende Erkrankungen tatsächlich die Mortalität reduzierten.

Doch die gängige Praxis zu ändern, wird schwierig. Laut Gilbert Welch vom Dartmouth Institute for Health Policy and Clinical Practice in Lebanon in New Hampshire lassen sich die Leute eher dazu bringen, alle paar Jahre einen kurzen Test zu machen, als sich gesund zu ernähren und Sport zu treiben, um so Krebs vorzubeugen. "Screening ist die einfachere Variante für Arzt und Patienten, bei der beide meinen, etwas Gutes für die Gesundheit zu tun. Das Krebsrisiko wird damit aber überhaupt nicht verändert."

Zweite Legende: Antioxidanzien sind gut, freie Radikale böse

Im Dezember 1945 gab die Ehefrau des Chemikers Denham Harman ihrem Mann einen Artikel aus "Ladies’ Home Journal" mit dem Titel "Morgen bist Du vielleicht schon jünger" (Tomorrow You May Be Younger). Sein Interesse an der Alternsforschung war geweckt und Jahre später, als wissenschaftlicher Mitarbeiter an der University of California in Berkeley, brachte ihn dies auf eine neue Idee. Als Ursache des Alterns – des so genannten Aging – nannte er die freien Radikale, sprich radikale Moleküle, die sich im Körper als Stoffwechselprodukte ansammeln und die Zellen schädigen.

Viele Wissenschaftler untersuchten seitdem, inwiefern freie Radikale für das Altern verantwortlich sind und ob Antioxidanzien – jene Moleküle, die freie Radikale neutralisieren – eine positive Wirkung auf die Gesundheit des Menschen haben. In den 1990er Jahren nahmen deshalb viele Leute Antioxidanzien wie Vitamin C und Betacarotin zu sich. "Nur wenige wissenschaftliche Theorien erreichen wirklich die breite Öffentlichkeit, und dazu gehört neben der Schwerkraft und der Relativität auch der Zusammenhang von freien Radikalen und Aging. Folglich schworen alle Leute auf Antioxidanzien", erinnerte sich der Biologe Siegfried Hekimi von der McGill University in Montreal in Kanada.

Doch etwa ein Jahrzehnt später kamen Forscher zu erstaunlichen Ergebnissen. Gentechnisch veränderte Mäuse mit verstärkter Radikalbildung lebten genauso lange wie ganz normale Mäuse, und jene mit gesteigerter Bildung von Antioxidanzien lebten auch nicht länger als normal. Das war erst der Anfang einer ganzen Welle von Daten, die nicht gerade für die These sprachen und anfangs nur schwer zu publizieren waren. Die Theorie der freien Radikale war "eine Art Monster, das wir besiegen wollten. Doch so sehr wir auch dagegen angingen, es wollte einfach nicht verschwinden", berichtet David Gems vom University College London, der 2003 zum ersten Mal dagegen sprechende Ergebnisse veröffentlichen konnte. Eine anschließende Studie am Menschen zeigte dann, wie Antioxidanzien als Nahrungsergänzungsmittel den gesundheitsfördernden Effekt von Sport verhinderten, und in einer weiteren Untersuchung wurden diese sogar mit einer höheren Mortalität in Zusammenhang gebracht.

Lernen mit Gestenhilfe
© fotolia / Contrastwerkstatt
(Ausschnitt)
 Bild vergrößernLernen mit Gestenhilfe

Keines dieser Ergebnisse bremste den weltweit wachsenden Markt für Antioxidanzien, der inzwischen von Lebensmitteln und Getränken bis hin zu Nahrungsergänzungsmitteln für die Viehzucht reicht. Von den 2,1 Milliarden US-Dollar im Jahr 2013 soll er auf 3,1 Milliarden in 2020 wachsen. "Das ist ein Riesengeschäft", weiß Gems. "Weil sich damit viel Geld verdienen lässt, wird nach wie vor der Zusammenhang von Oxidation und Aging verbreitet."

Die meisten Forscher des Feldes sind sich darüber einig, dass freie Radikale die Zellen zwar schädigen, dass dies aber auch eine ganz normale Stressantwort des Körpers ist. So wurde letztendlich schon jede Menge Zeit und Geld vergeudet. Zahlreiche Ergebnisse zu möglichen positiven Effekten der freien Radikale sind auch noch gar nicht veröffentlicht, sagt der Metabolismusexperte Michael Ristow von der Eidgenössischen Technischen Hochschule in Zürich. "Viele Daten und Nachweise liegen in den Schubladen oder auf Festplatten und werden einfach nicht publiziert", weiß er. "Das ist immer noch schwierig."

So manche Wissenschaftler bezweifeln auch die These, dass jegliche Art von DNA-Schädigung das Aging fördere. "Unklar bliebt, ob wir wirklich die gesamte Theorie verwerfen müssen", kommentiert Gems. "Das Problem ist, dass damit die Zukunft eines ganzen Forschungsfeldes im Ungewissen liegt."

Dritte Legende: Der Mensch hat ein besonders großes Gehirn

Unser Gehirn – mit seiner bemerkenswerten Leistungsfähigkeit in der Disziplin "Denken" – wird oft als Gipfel der Evolution angesehen. Begründet wird dies meist mit seiner außergewöhnlichen Größe im Vergleich zum ganzen Körper oder mit der Dichte an Neuronen und unterstützenden Zellen, den so genannten Gliazellen.

Beides stimmt allerdings nicht. "Wir picken uns immer gerade das heraus, was uns gut dastehen lässt", sagt der Neurowissenschaftler Lori Marino von der Emory University in Atlanta in Georgia. Unser Gehirn ist etwa siebenmal größer als das eines vergleichbar großen Tieres. Doch Mäuse und Delfine haben in etwa dieselben Proportionen, und einige Vögel haben sogar ein noch höheres Verhältnis von Gehirn zu Körper.

"Wir picken uns immer gerade das heraus, was uns gut dastehen lässt" (Lori Marino)

"Unser Gehirn liebt Rankings, und im Vergleich haben wir ein etwas besseres Primatengehirn", sagt Chet Sherwood, ein Anthropologe der George Washington University in Washington DC. Auch bei der Anzahl der Zellen unseres Gehirns wird gerne übertrieben, und in Artikeln, Reviews und Lehrbüchern die Zahl von 100 Milliarden Neuronen genannt. Genauere Untersuchungen zeigten allerdings, dass es eher nur etwa 86 Milliarden dieser Zellen sind. Das hört sich erst einmal wie ein Fehler beim Runden an; 14 Milliarden Neuronen entsprechen aber in etwa dem Gehirn von zwei Makaken."

So unterscheidet sich das menschliche Gehirn wohl eher auf ganz andere Weise von dem der Primaten. Bei Homo sapiens hat sich ein größerer zerebraler Kortex gebildet – der Teil des Gehirns, der an Funktionen wie dem Denken und der Sprache beteiligt ist –, und auch in anderen Hirnregionen zeigen sich wichtige Veränderungen der neuronalen Struktur und Funktion.

Der Mythos, unser Gehirn sei auf Grund seiner außergewöhnlich großen Zahl an Neuronen so einzigartig, hat der Neurowissenschaft geschadet: Andere mögliche Unterschiede wurden daher seltener unter die Lupe genommen, glaubt Sherwood, und verweist dabei auf den Energiestoffwechsel, die Geschwindigkeit bei der Entwicklung der Gehirnzellen und die Verbindungen der Neuronen über sehr lange Strecken im Körper. "In all diesen Punkten unterscheiden wir uns von anderen Lebewesen, und diese Unterschiede haben anscheinend relativ wenig mit der Gesamtzahl der Neuronen zu tun", erklärt er.

Das Interesse an diesem Thema nimmt langsam zu, und Projekte wie das Human Connectome Project der US-National Institutes of Health wie auch das Blue Brain Project der École polytechnique fédérale de Lausanne untersuchen nun eher, wie die Verbindungen im Gehirn seine Funktionen beeinflussen.

Vierte Legende: Jeder lernt auf seine eigene Weise am besten

Die Größe unseres Gehirns wird aber auch mit anderen Eigenschaften in Zusammenhang gebracht. So besagt beispielsweise ein gängiger Mythos, dass jeder von uns auf seine ganz individuell bevorzugte Art und Weise am besten lernen würde. Dabei soll ein so genannter "verbaler Typ" am besten durch mündliche Instruktionen lernen und ein "visueller" Mensch am effektivsten anhand von Graphiken und Diagrammen.

Im Kern birgt dies sogar zwei Wahrheiten: Viele Leute bevorzugen eine bestimmte Art der Informationsvermittlung, und die besten Lernerfolge lassen sich erreichen, wenn Lerninhalte auf mehrere Arten präsentiert werden. Wenn man die Vorliebe der Menschen mit ihrem Lernwillen zusammenbringt und als individuell verschieden ansieht, ist der Mythos schon geschaffen.

"Für die Idee 'Lernstil' spricht ein wahrer Kern, ein wenig Wunschdenken und ein emotionaler Bias", sagt Howard-Jones. Doch wie bei Süßem, Pornografe und Fernsehen gilt auch hier: "Nicht alles, was wir möchten, ist auch gut oder richtig für uns", erklärt der Lernpsychologe Paul Kirschner von der Fernuniversität der Niederlande.

Schon 2008 verglichen vier Forscher der kognitiven Neurowissenschaften Pro und Kontra verschiedener Lernstile. Nur wenige Studien hatten bisher ernsthaft die Ideen hinterfragt – wo sie es taten, zeigte sich, dass eine von Probanden bevorzugte Art der Präsentation den Lernerfolg gar nicht beeinflusste. Die Autoren weisen auf ein "beunruhigendes Missverhältnis" hin zwischen der enormen Beliebtheit der Idee eines individuellen Lernstils und dem Mangel an glaubhaften Belegen, die sie stützen.

Das hat allerdings eine sehr lukrative Industrie nicht davon abgehalten, Bücher und Tests für etwa 71 verschiedene Lernmethoden auf den Markt zu werfen. Die Wissenschaftler selbst haben die Legende lange Zeit hochgehalten, indem sie die verschiedenen Lernstile in den vergangenen fünf Jahren in mehr als 360 Veröffentlichungen immer wieder zitierten. "Besonders in der Entwicklung von Fragebögen und Umfragen in der Bevölkerung sind die Ideen nach wie vor präsent, nicht zuletzt auf Grund des großen Eigeninteresses daran", sagt Richard Mayer, der als Lernpsychologe an der University of California in Santa Barbara forscht.

Wie die Forschung an Lerntechniken in den letzten Jahrzehnten gezeigt hat, gibt es natürlich schon Methoden zur Verbesserung des Lernerfolgs, wie das Zusammenfassen oder Erklären des Gelernten durch den Schüler. Abgesehen von Menschen mit Lernschwierigkeiten, lernen aber fast alle Leute am besten anhand einer Mischung aus Worten und Grafiken anstatt nur mit einer Darstellungsart alleine.

Doch der Mythos von individuellen Lernstilen macht es neuen, bewiesenen Konzepten schwer, in die Klassenzimmer überhaupt vorzudringen. Als Howard-Jones sich einmal daran versuchte, wollten ihm viele Lehrer gar nicht erst zuhören. "Es desillusionierte sie eher, weil sie schon so viel Hoffnung, Zeit und Anstrengung investiert hatten", sagt er. "Sie glauben inzwischen nicht mehr daran, dass die Wissenschaft Lern- und Lehrmethoden überhaupt unterstützen kann."

Fünfte Legende: Die Weltbevölkerung wächst exponentiell, und das wird unser Ende bedeuten

Als Reverend Thomas Malthus im Jahr 1798 prophezeite, dass unkontrolliertes, exponentielles Wachstum zu Hunger und Armut führen würde, schürte er die ersten Ängste vor Überbevölkerung auf der Erde.

Allerdings: Die Weltbevölkerung wuchs noch nie und wächst auch heute nicht exponentiell. Und sie wird es wahrscheinlich auch nie, meint der Populationsforschers Joel Cohen von der Rockefeller University in New York City. Derzeit steigt die Zahl der Menschen auf dem Globus gerade einmal halb so schnell wie vor 1965. Laut heutiger Schätzungen leben momentan 7,3 Milliarden Menschen und im Jahr 2050 sollen 9,7 Milliarden erreicht werden. Nichtsdestotrotz werden Schreckensszenarien ständig bestärkt: So hat beispielsweise der berühmte Physiker Albert Bartlett seit 1969 mehr als 1742 Vorlesungen über exponentielles Bevölkerungswachstum und die schlimmen Folgen gehalten.

Zudem hat die Weltbevölkerung auch genug zu essen. Nach Berechnungen der Welternährungsorganisation FAO übertrifft die zunehmende globale Nahrungsmittelproduktion sogar das Wachstum der Bevölkerung. Allein in Form von Getreide produzieren wir so viele Kalorien, dass sich davon zwischen zehn und zwölf Milliarden Menschen ernähren könnten. Hunger und Mangelernährung finden sich trotzdem weltweit, weil mehr als 55 Prozent der produzierten Nahrungsmittel im Viehfutter, in Kraftstoffen und in anderen Materialen oder gar im Müll landen, sagt Cohen. Was übrig bleibt, ist noch dazu ungleich verteilt, weil die Reichen viel davon haben und die Armen nur wenig. Auch Wasser ist auf unserem Globus eigentlich nicht knapp, doch trotzdem leben 1,2 Milliarden Menschen in Gegenden mit Wasserknappheit.

"Die so genannte Überbevölkerung ist keine – der Knackpunkt ist eher Armut", erklärt der Demograf Nicholas Eberstadt vom American Enterprise Institute, einer konservativen Denkfabrik in Washington DC. Anstatt zu untersuchen, warum Armut überhaupt existiert und wie wir nachhaltig eine wachsende Bevölkerung unterstützen könnten, reden seiner Meinung nach die Wissenschaftler und Biologen aneinander vorbei und diskutieren nur über Definitionen und Gründe für die Überbevölkerung.

Mit Blick auf ein ökonomisches System, welches nur die Reichen fördert, fügt Cohen noch hinzu: "Sogar jene, die all die Fakten kennen, nutzen das bestehende System als Ausrede dafür, sich nicht mit den aktuellen Problemen beschäftigen zu müssen".

Cohen und viele andere im Vorfeld dieses Beitrags befragte Forscher sehen nur wenig Chancen, weit verbreitete Mythen, wie den der Überbevölkerung, zu zerschlagen, er bekräftigt aber, dass wir weitere unbedingt verhindern müssen. Viele dieser Mythen konnten sich entwickeln, weil die engen Schlussfolgerungen einer bestimmten Arbeit von anderen Forschern extrapoliert wurden, wie beispielsweise bei den freien Radikalen geschehen. Diese "Unterwanderung der ursprünglichen Interpretation", wie Spitzer das Phänomen in etwa nennt, kann zu Fehlinterpretationen führen, die nur schwer wieder auszumerzen sind. Verhindern ließe sich so etwas, indem wir "immer sicherstellen, dass eine Extrapolation auch gerechtfertigt ist und dass wir über die bekannten Daten nicht zu weit hinausgehen", schlägt Spitzer vor. Außerdem müssen wir einfach miteinander reden, sagt Howard-Jones. Wissenschaftler müssen ihre Ideen gut kommunizieren und erklären, und nicht schlicht eingängige Botschaften verbreiten.

Wenn nämlich ein Mythos erst einmal geboren ist, bleibt er oft auch bestehen. Wie Studien aus der Psychologie zeigen, wird ein Mythos durch den Versuch, ihn zu zerstören, eher noch gestärkt. Bei einer Untersuchung in den USA wurden Eltern mit Aussagen konfrontiert, die für eine Impfung sprechen – ihre Bereitschaft, die Kinder impfen zu lassen, wurde hierdurch eher gesenkt. In einer anderen Studie führten irreführende Behauptungen von Politikern eher noch zur Bestärkung von falschen Annahmen. "Mythen lassen sich fast nicht ausrotten", sagt Kirschner. "Je mehr man das Gegenteil beweist, desto mehr glauben die Leute daran".


Der Artikel ist im Original "The science myths that will not die" in "Nature" erschienen.