Direkt zum Inhalt

Metaforschung: Kulturwandel in der Biomedizin

Biomedizinische Studien haben sich oft als methodisch unzuverlässig herausgestellt, was ihre Ergebnisse in Zweifel zieht. Viele Wissenschaftler sehen das Fach deshalb in einer Krise. Ein Umdenken ist nötig – und hat bereits eingesetzt.
Die komplexen Experimente heutiger biomedizinischer Forschung hängen von tausenden Variablen ab – und sind entsprechend schwer zu wiederholen.

Sind tatsächlich die meisten publizierten Forschungsergebnisse falsch, wie der weithin bekannte Epidemiologe John Ioannidis 2005 in der Fachzeitschrift »PLOS Medicine« schrieb? Warum verkünden Forscher so häufig Durchbrüche in der Behandlung wichtiger Krankheiten, von denen man später nichts mehr hört? Wo sind die versprochenen Heilungen durch Stammzelltherapien, Nanopartikel oder molekulargenetische »Designerdrogen« geblieben?

In der Tat mehren sich die Hinweise, dass die biomedizinische Forschung ein Problem hat. Es fing so um das Jahr 2010 mit Beschwerden aus der Pharmaindustrie an: Man könne viele Ergebnisse der universitären Forschung, die in renommierten Journalen erschienen sind, in eigenen Stu­dien nicht reproduzieren, also bestätigen. Die weltweit wohl angesehenste und älteste Fachzeitschrift der Medizin, »The Lancet«, äußerte 2014 die Ansicht, dass wohl 85 Prozent der biomedizinischen Forschung Müll seien. Und Ioannidis' Artikel zur mangelnden Korrektheit publizierter Arbeiten gehört seit Jahren zu den meistzitierten in der Biomedizin. Die Argumente des Epidemiologen sind bis heute nicht ernsthaft widerlegt worden.

Haben wir eine Reproduzierbarkeitskrise?

Mehrere systematische Untersuchungen der zurückliegenden Jahre haben belegt, dass es um die Robustheit und Verlässlichkeit biomedizinischer Forschungsergebnisse nicht zum Besten steht. Dies verunsichert Wissenschaftler mittlerweile deutlich. Bei einer Umfrage der Fachzeitschrift »Nature« im Jahr 2016 unter beinahe 1600 Forscherinnen und Forschern gab mehr als jede(r) Zweite an, die Versuchsergebnisse von Kollegen – sowie sogar die eigenen Resul­tate! – in Folgeexperimenten nicht reproduzieren zu können. Etliche Wissenschaftler sehen die biomedizinische Forschung derzeit in einer Reproduzierbarkeitskrise.

Aber wie passt das alles damit zusammen, dass die biomedizinische Forschung durchaus fantastische Erfolge feiert? Ihr verdanken wir Antibiotika, Insulinpräparate, Impfungen, Organtransplantationen, Antiepileptika, Antiparkinsonmittel, Blutdrucksenker, Blutreinigungsverfahren bei Nierenversagen, Arzneistoffe zur gezielten Beeinflussung der Immunfunktion, bildgebende Diagnoseverfahren wie Computertomografie und MRT und vieles mehr. Zudem Cholesterinsenker, magenschützende Protonenpumpen­blocker, HIV-Therapie, Antikörper und maßgeschneiderte Immunzellen für die Krebsbehandlung … Die Liste ließe sich noch lange fortsetzen. Auf die biomedizinische Forschung setzen wir weiterhin berechtigte Hoffnungen, wenn es um die Lösung akuter globaler Gesundheitsprobleme wie der aktuellen Covid-19-Pandemie geht.

Es mehren sich die Hinweise, dass die biomedizinische Forschung ein Problem hat

Die Resultate biomedizinischer Forschung haben es nicht nur ermöglicht, die Lebenserwartung drastisch zu erhöhen, sondern auch, unsere Lebensqualität im Alter zu verbessern. Allen Warnungen zum Trotz, dass wir wegen des demografischen Wandels mit einer massiven Zunahme altersbedingter Erkrankungen rechnen müssten, ist diese Prognose bisher nicht eingetreten. Im Gegenteil, die Krankheitslast und Sterblichkeit vieler Volkskrankheiten, etwa Schlaganfall und Herzinfarkt, hat aufs Lebensalter bezogen sogar deutlich abgenommen. Diese Erfolge beruhen ganz wesentlich auf einem vertieften Verständnis von Krankheitsmechanismen, aus dem sich effektive Maßnahmen zur Vorbeugung und Behandlung entwickeln ließen. Und nun schicken sich Big Data, personalisierte Medizin sowie künstliche Intelligenz an, uns noch älter werden und dabei gesünder bleiben zu lassen.

Die gefürchtete Hürde zwischen dem Labor und der Klinik

Warum steckt die Biomedizin dennoch in der Krise? Zunächst ist es ein generelles Problem vieler medizinischer Fächer, dass ihre Grundlagenforschung ständig neue, auf den ersten Blick viel versprechende und teils spektakuläre Ansätze für Diagnose- und Therapieverfahren findet, die aber scheitern, sobald sie in klinischen Studien an Menschen erprobt werden. Fachleute bezeichnen das als translationalen Block, weil die Umsetzung (Translation) der Ergebnisse aus den vorklinischen Experimenten in den klinischen Alltag häufig nicht funktioniert. Mediziner, die etwa in der Alzheimer- oder der Stammzellforschung arbeiten, kennen das zur Genüge: Grundlagenexperimente führen zu aufregenden Ergebnissen und tollen Publikationen, doch bei den Patienten kommt davon sehr wenig an.

Das liegt mitunter ganz einfach daran, dass die Mechanismen vieler Krankheiten immens komplex sind und unser Verständnis von ihnen nur sehr lückenhaft. Im vorklinischen Stadium arbeiten Forscher oft mit vergleichsweise einfachen Versuchsobjekten wie Zellen, im klinischen Alltag dagegen haben sie es mit dem ungleich komplizierteren menschlichen Organismus zu tun, der bei vielschichtigen Krankheitsprozessen ganz anders reagiert. Bildhaft ausgedrückt, sind viele bisherige Erfolge der biomedizinischen Forschung niedrig hängende Früchte gewesen, die wir vom Baum der Erkenntnis gepflückt haben. Nun, da wir uns immer komplexeren Erkrankungen zuwenden, müssen wir uns höher strecken; das ist schwieriger und gelingt seltener. Einen pathologischen Prozess zu verstehen und erfolgreich zu beeinflussen, ist bei Bluthochdruck oder Diabetes ein­facher als bei einer Alzheimerdemenz, von der wir nicht einmal wissen, was sie auslöst und auf welche Weise sie zum Verlust von Hirnfunktionen führt. Komplexität ist somit ein Grund dafür, warum wir bei vielen Krankheiten trotz weltweit massiver Anstrengungen immer noch auf den Durchbruch warten. Intensive weitere Forschung wird hier – hoffentlich – langfristig doch zum Erfolg führen. Aber gibt es noch andere Ursachen für den translationalen Block, die wir möglicherweise schon jetzt abstellen können?

Welcher Anteil publizierter Arbeiten auf Ihrem Gebiet ist reproduzierbar? | Diese Frage stellte »Nature« im Jahr 2016 fast 1600 Forschern. Physiker und Chemiker vertrauten ihrer Fachliteratur dabei am meisten.

Der bereits erwähnte Begriff »Reproduzierbarkeitskrise« gibt uns hier einen Hinweis. Versuchsergebnisse in Folgeexperimenten nicht bestätigen zu können, ist ein Problem, das neben der Biomedizin noch zahlreiche weitere Disziplinen betrifft. Als Reaktion darauf schließen sich Wissenschaftler weltweit zusammen, um die systematische Wiederholung von Schlüsselexperimenten zu fördern. Bei solchen systematischen Überprüfungen gelingt die Reproduktion häufig entweder gar nicht, oder die gefundenen Effekte sind viel kleiner als in der Originalpublikation. Das klingt zunächst beunruhigend, kann aber zahlreiche und oft banale Gründe haben. Die Wiederholungsstudie könnte ein falsch negatives Ergebnis gehabt haben. Oder der Wiederholungsversuch ist unter minimal anderen Bedingungen abgelaufen als das originale Experiment, ohne dass den Forschern das bewusst war.

Es ist nicht ganz klar, wie viele Studien unter idealen Bedingungen reproduzierbar sein müssten . Denn wenn Forschung hochgradig innovativ sein und keine Effekte übersehen will – etwa die Wirkung eines Arzneistoffkandidaten auf Krebs­zellen –, muss sie riskieren, zunächst viele falsch positive Ergebnisse zu erzeugen. In nachfolgenden Untersuchungen zu prüfen, inwieweit sich diese bestätigen lassen oder nicht, entspräche dem normalen Gang guter Wissenschaft. Leider hat es in der Vergangenheit zu wenige solcher konfirmatorischen Studien in frühen Forschungsphasen gegeben, weshalb die Wirkungslosigkeit eines Therapieansatzes häufig erst sehr spät zu Tage trat, sprich in klinischen Studien an Patienten.

Forscher, Forschungsförderer und Fachgesellschaften führen seit einiger Zeit eine intensive Debatte darüber, wie sich die Qualität der Wissenschaft sichern lässt. Das hat zur Entwicklung einer eigenen Wissenschaftsdisziplin beige­tragen, der Metaforschung. Diese Wissenschaft über die Wissenschaft hat eine weitere Ursache der momentanen Forschungskrise offengelegt: Vielen Grundlagenuntersuchungen mangelt es an interner Validität, das heißt, sie wenden zu wenige oder gar keine Methoden an, welche die Robustheit der Befunde sicherstellen. So laufen viele Stu­dien ohne Verblindung ab – die Forscher wissen also schon während der Untersuchung, zu welcher Behandlungsgruppe die jeweilige Zellkulturschale oder das Versuchstier gehören. Solche Kenntnis beeinflusst ihre Auswertung und kann die Ergebnisse verfälschen. Mitunter legen Wissenschaftler auch die Kriterien, nach denen sie beispielsweise Versuchstiere in ihre Studie ein- oder ausschließen, nicht sorgsam genug fest. Nur durch Vorkehrungen wie Verblindung und adäquate Einschlusskriterien lässt sich verhindern, dass Experimentatoren willkürlich Daten auswählen, um erwünschte Ergebnisse zu erzeugen. In klinischen Studien sind solche Maßnahmen Standard; in der präklinischen Forschung jedoch, der Grundlage für Studien am Menschen, leider nicht.

Fallstricke der Statistik: Sogar gestandene Professoren stolpern darüber

Ein großes Problemfeld stellt ferner die Statistik dar. In der präklinischen Forschung, egal welcher Fachrichtung, umfassen die Stichproben oft weniger als zehn Elemente. Die Folge davon ist ein sehr hoher Anteil an falsch positiven wie falsch negativen Befunden: Die Daten gaukeln eine Wirkung vor, die nicht existiert, beziehungsweise sie zeigen keine an, obwohl es sie tatsächlich gibt. Zudem führt die geringe Stichprobengröße häufig zu einem starken Überschätzen des Effekts.

Immer wieder interpretieren Forscher die statistische Auswertung ihrer Daten falsch. Sie glauben, das so genannte Signifikanzniveau zeige an, mit welcher Wahrscheinlichkeit ihr Versuchsergebnis falsch sei. Unterschreitet das Ergebnis des statistischen Tests (meist eines t-Tests) das weithin übliche Signifikanzniveau von 5 Prozent, meinen viele Experimentatoren, das Ergebnis sei nun mit einer Wahrscheinlichkeit von weniger als 5 Prozent falsch – sie könnten also im Umkehrschluss mit mindestens 95 Prozent Sicherheit davon ausgehen, mit ihrem Ergebnis richtigzuliegen. Eine »Fehlerrate« von 5 Prozent scheint ihnen durchaus akzeptabel, totale Sicherheit könne es ja ohnehin nicht geben. Die Forscher sitzen mit der Annahme aber einem Irrtum auf. Denn die 5 Prozent beziehen sich nur auf die Wahrscheinlichkeit eines falsch positiven Ergebnisses.

Box-Plots mit Standardfehlern für die gesamten p-Werte nach Journal-Jahres-Kohorten | Artikel in Fachjournalen stützen sich heute viel häufiger auf statistische Tests als noch vor 20 Jahren. Allerdings interpretieren sie die Ergebnisse dieser Tests oft falsch.

Um einzuschätzen, ob man möglicherweise einem falsch negativen Ergebnis aufsitzt, muss man auch dafür die Wahrscheinlichkeit kennen. Diese so genannte Power eines Experiments hängt ganz wesentlich von der Stichprobengröße ab. Und die ist, wie oben bereits erwähnt, häufig sehr klein – somit ist das Risiko eines falsch negativen Ergebnisses entsprechend hoch. Insbesondere in der präklinischen Forschung ignorieren viele Wissenschaftler die Power ihrer Experimente und fallen infolgedessen auf falsch negative Ergebnisse herein.

Es kommt noch etwas dazu, was es uns eigentlich unmöglich macht, mit entsprechenden Statistiken die Irrtumswahrscheinlichkeit zu bestimmen, wenn ein Experiment ein »statistisch signifikantes« Ergebnis liefert. Wir müssten nämlich zusätzlich wissen, wie wahrscheinlich die untersuchte Hypothese ist. Das wissen wir aber fast nie. Befragungen von Studenten, jungen Wissenschaftlern und sogar gestandenen Professoren haben gezeigt, dass den meisten Forschern die Bedeutung dieses Umstands gar nicht bewusst ist.

Wie wahrscheinlich eine Hypothese ist, hängt von vielen Faktoren ab. Unter anderem davon, wie viel schon vorher bekannt war über die Fragestellung oder ob der Forscher bereits relevante Vorbefunde erhoben hat. Sehr wahrscheinlich richtige Hypothesen sind in der Regel wenig interessant. Spannende Hypothesen, die auf wissenschaft­liches Neuland ausgreifen (und damit eher unwahrscheinlich sind), werden dagegen oft nicht zutreffen – vielleicht sogar in 90 oder mehr Prozent der Fälle, wie manche Fachleute vermuten. Das ist natürlich nur eine grobe Schätzung.

Um sich der Wahrscheinlichkeit zu nähern, mit der man beim Unterschreiten des 5-Prozent-Signifikanzniveaus ein richtiges Ergebnis vor sich hat, müsste man also zusätzlich die Power des Experiments und die Wahrscheinlichkeit der untersuchten Hypothese kennen. In der Praxis ist das fast nie der Fall. Untersucht man das aber in Modellrechnungen mit realistischen Werten für die Hypothesenwahrscheinlichkeit und die experimentelle Power, führt es zu einem beunruhigenden Resultat – dass nämlich in der vorklinischen biomedizinischen Forschung eher 50 als nur 5 Prozent der Ergebnisse falsch positiv sind. Unter anderem dieser Befund brachte den bereits zitierten John Ioannidis zu der drastischen Schlussfolgerung, es seien wohl die meisten publizierten Ergebnisse der biomedizinischen Forschung unzutreffend.

Erwähnen sollten wir in dem Zusammenhang noch ein weiteres Problem, das wir verborgene analytische Flexibilität nennen. Gemeint ist die Freiheit, die sich Forscher beim Auswählen von Datenpunkten, statistischen Methoden oder beim Interpretieren von Ergebnissen nehmen, ohne das offenzulegen. Dazu gehört etwa, Datenpunkte kurzerhand auszuschließen, die das erhoffte Ergebnis stören; so lange verschiedene statistische Tests durchzuführen, bis einer davon das gewünschte Resultat bringt; oder Hypothesen erst nach Auswertung der Ergebnisse zu formulieren, so dass diese als deren Bestätigung erscheinen.

Die seltsame Treffsicherheit der Hypothesen

Von Bedeutung ist allerdings nicht nur, wie man mit Hypothesen, Daten und Statistik umgeht, sondern auch, was man überhaupt publiziert. Hier regt sich ebenfalls Kritik, denn mehr als 95 Prozent aller Studien bestätigen die untersuchte Hypothese. Das hört sich im ersten Moment gut an, zeigt tatsächlich aber, dass hier etwas nicht stimmt: Wie kann es sein, dass Biomediziner fast immer richtigliegen mit ihren Hypothesen? Sollte das wirklich zutreffen, wäre es geradezu unverantwortlich, überhaupt noch Experimente und Studien durchzuführen. Das würde nur unnötig Ressourcen verschleudern und das Risiko bergen, falsch negative Ergebnisse zu erhalten!

Grund zur Skepsis: Fast alle publizierten Studien bestätigen die untersuchte These

Natürlich steckt etwas ganz anderes hinter dem absurd hohen Anteil an positiven Studien. Die »Negativ-Studien«, die also die untersuchte These nicht bestätigt haben, werden meist schlicht nicht veröffentlicht. Das Lesen von Fachliteratur kommt somit einem Blick durch die rosarote Brille gleich. Diese Verzerrung (»Publikationsbias«), die unter anderem dazu führt, die Wirksamkeit von Arzneistoffen zu überschätzen, betrifft leider nicht nur präklinische Untersuchungen. Auch klinische Studien, die »negativ« ausfallen, werden in vielen Fällen stark verzögert oder gar nicht publiziert. Meine Kollegen und ich haben gemeinsam mit Forschern aus Freiburg und Hannover festgestellt, dass von einem Drittel aller klinischen Studien, die an deutschen Universitätskliniken laufen, selbst fünf Jahre nach dem Abschluss noch kein Ergebnis veröffentlicht worden ist. Das gilt ebenso für Tierversuche.

Die Gesamtzahl der jährlich publizierten wissenschaftlichen Fachartikel allerdings nimmt nach wie vor stark zu und ist mittlerweile selbst für Experten kaum noch überschaubar. Woran liegt das? Vermutlich steckt hinter all den geschilderten Phänomenen ein ebenso einfacher wie wirkmächtiger Grund: das akademische Karriere- und Belohnungssystem. Wissenschaftler stehen unter immensem Druck, denn Erfolg haben sie vor allem mit spektakulären Befunden und Publikationen. An ein oder zwei Veröffentlichungen in hochrangigen Magazinen kann sich entscheiden, ob man in der Wissenschaft eine Zukunft und ein Auskommen hat, sogar ob man Professor wird. Arbeitsverträge, insbesondere beim wissenschaftlichen Nachwuchs, haben häufig Laufzeiten von nur einem Jahr; verlängert werden sie bei Erfolg, das heißt bei Publikation oder dem Einwerben externer Fördermittel. 85 Prozent aller Wissenschaftler in Deutschland arbeiten auf befristeten Verträgen. Klappt es nicht mit hochrangigen Publikationen, müssen es eben viele sein: Quantität statt Qualität.

Publikationen sind die Meilensteine wissenschaftlicher Karrieren. Graduierende müssen eine bestimmte Anzahl davon vorlegen, um den Titel zu erhalten. Dass sie auf qualitativ hochwertiger Forschung beruhen, wird unterstellt, aber kaum geprüft oder gar belohnt. In der Medizin fällt der Druck besonders hoch aus, denn Ärzte an Univer­sitätskliniken müssen sowohl forschen als auch Patienten behandeln als auch Studierende unterrichten – all das natürlich auf höchstem Niveau. Ein gängiges Bonmot unter Kollegen lautet: Der Tag hat 24 Stunden, und dann bleibt ja noch die Nacht. Viele Publikationen sind das Ergebnis von Feierabendforschung.

Fachliteratur zu lesen, kommt einem Blick durch die rosarote Brille gleich

Was kann man tun, um diesen Missständen entgegenzuwirken? Biomedizinische Forschung hat uns die fantas­tischen präventiven, diagnostischen und therapeutischen Möglichkeiten der modernen Medizin beschert, und sie verheißt nach wie vor spektakuläre neue Ansätze, etwa hochpräzise Gen- oder Immuntherapien gegen Tumorerkrankungen. Gerade die hier zusammengestellten Probleme in der biomedizinischen Forschung lassen erahnen, dass deren immenses Potenzial noch lange nicht ausgeschöpft ist. Denn gelänge es, die Forschung effektiver zu machen, würden Ressourcen besser genutzt und der medizinische Fortschritt beschleunigt.

Die gute Nachricht ist: Weltweit arbeiten Wissenschaftler intensiv daran, die Vertrauenswürdigkeit, Nützlichkeit und Ethik biomedizinischer Forschung zu verbessern. Eine wichtige Rolle, besonders in Deutschland, spielen hier Forschungsförderer wie das Bundesministerium für Bildung und Forschung (BMBF) oder die VolkswagenStiftung. Sie möchten sicherstellen, dass die von ihnen bereitgestellten Mittel möglichst effektiv eingesetzt werden. Darum verändern sie derzeit die Kriterien, die Antragsteller erfüllen müssen, um Fördermittel zu erhalten. Den Zuschlag werden künftig nur noch Wissenschaftler erhalten, die Methoden zur Qualitätssicherung einsetzen wie Verblindung und Randomisierung, mit hinreichend großen Stichproben arbeiten, detaillierte Analysepläne vorlegen, die Originaldaten nach Studienabschluss öffentlich machen und ihre Ergebnisse unabhängig davon publizieren, ob die Arbeitshypothese bestätigt wurde oder nicht.

Begutachten, schon bevor die Studie startet

Verlagshäuser und deren Journale haben ebenfalls bedeutenden Einfluss. Viele von ihnen verlangen mittlerweile eine genauere Beschreibung der Studiendetails. Sie legen bei der Auswahl der zu veröffentlichenden Artikel einen größeren Wert auf die Relevanz der Fragestellung und die Qualität der Arbeit als auf die Ergebnisse. Auch experimentieren sie mit neuen Artikelformaten. Der Begutachtungsprozess (»Peer-Review«) von Fachartikeln, wie ihn die Redaktionen seit vielen Jahrzehnten praktizieren, ist langsam, verhindert häufig die Publikation ungewöhnlicher Ansätze und Ergebnisse und wird zudem nicht selten von Interessenkonflikten beeinflusst. Eine Antwort hierauf, die gerade in der momentanen Covid-19-Pandemie große Bekanntheit und Bedeutung erlangt hat, sind die »Preprints«: Manuskripte, die ohne formale Begutachtung an die Öffentlichkeit gehen. Wissenschaftler erfahren so ohne Zeitverzögerung von neuen Erkenntnissen, müssen die Relevanz und Qualität der entsprechenden Arbeiten aber selbst bewerten. Häufig reagieren Fachkollegen auf einen Preprint mit Online-Kommentaren, E-Mails oder Posts in sozialen Medien, was Diskussionen und die Überarbeitung des Manuskripts nach sich zieht. Der dabei entstehende Artikel durchläuft dann oft noch ein klassisches Peer-Review und erscheint schließlich in einem traditionellen Fachjournal, daher der Name Preprint.

Eine weitere wichtige Neuerung sind die »Registered Reports«. Hier begutachten Experten eine Studie nicht, nachdem sie durchgeführt wurde, sondern bevor sie beginnt. Dadurch können ihre Hinweise schon ins Studiendesign einfließen. Das ist eine Verbesserung gegenüber der bisherigen Praxis, das Peer-Review erst dann durchzuführen, wenn sich nichts Grundsätzliches mehr an der Arbeit ändern lässt. Zudem ist beim Registered Report garantiert, dass die Veröffentlichung unabhängig vom Ergebnis erfolgt.

Kaplan-Meier-Plot über klinische Studien | Viele klinische Studien, die an deutschen Universitätskliniken laufen, bleiben unveröffentlicht (in die Auswertung oben flossen rund 1500 Untersuchungen ein).

Eine sehr wichtige Rolle beim Erhöhen der Qualität biomedizinischer Forschung kommt natürlich den Institu­tionen selbst zu, also etwa den medizinischen Fakultäten an den Universitäten, aber auch den außeruniver­sitären biomedizinischen Einrichtungen wie Max-Planck-­Instituten und Helmholtz-Zentren.

Das Berlin Institute of Health (BIH) hat 2017 das QUEST Center gegründet (für »Quality, Ethics, Open Science, Translation«). QUEST ist eine international viel beachtete und außergewöhnliche institutionelle Antwort auf die oben geschilderten Probleme. Die Initiative arbeitet darauf hin, Qualität, Reproduzierbarkeit, Verallgemeinerbarkeit und Validität der Forschung zu maximieren und so den Nutzen biomedizinischer Forschung zu steigern. QUEST fokussiert sich auf Forschungsarbeiten an der Charité-Universitätsmedizin Berlin und am Max-Delbrück-Centrum für Molekulare Medizin in Berlin-Buch, an denen mehr als 7000 Ärzte, Wissenschaftler und Doktoranden mitwirken. Das Center ist zudem in zahlreiche internationale Aktivitäten eingebunden, die zum Ziel haben, die Qualität biomedizinischer Forschung zu verbessern. Ganz grundsätzlich geht es der Initiative darum, Kompetenz und Motivation zu verantwortungsvoller Forschung zu fördern und Gelegenheiten zu schaffen, sie anzuwenden.

Zu diesem Zweck bietet QUEST beispielsweise allen beteiligten Wissenschaftlern die Einführung elektronischer Laborbücher an und übernimmt die dafür anfallenden Lizenzgebühren. Denn obwohl heute fast alle Daten digital anfallen, arbeiten Forscher an Universitäten rund um den Globus immer noch überwiegend mit traditionellen Laborbüchern aus Papier, die aussehen wie zu Zeiten Rudolf Virchows oder Robert Kochs. Mittlerweile haben sich bei dem Center schon 2000 Wissenschaftler für ein elektronisches Laborbuch angemeldet, mit dem sich Forschungsdaten strukturierter und besser reproduzierbar verwalten lassen.

Zu den QUEST-Aktivitäten gehört es ferner, Aus- und Weiterbildungsmodule für Studierende, Forscher, Ärzte und technisches Personal zu entwickeln und anzubieten. Darin geht es darum, experimentelle und klinische Studien kompetent durchzuführen, Verzerrungen (»Bias«) in der Forschung zu verringern oder neue Publikationsformen wie Preprint und Registered Report vorzustellen.

Derzeit belohnt das Karriere- und Anreizsystem der akademischen Biomedizin hauptsächlich Publikationen mit möglichst spektakulären Resultaten beziehungsweise das Publizieren möglichst vieler Arbeiten. QUEST entwickelt deshalb neue Anreizsysteme, etwa durch Auswählen neuer Indikatoren, um die Leistung von Forschern zu bewerten. So regt die Initiative an, dass die Charité ihre Professoren unter anderem daraufhin auswählt, ob sie Forschungsrohdaten öffentlich gemacht (»Open Data«), negative Studienergebnisse publiziert oder Studien zum Reproduzieren wichtiger Resultate durchgeführt haben. Nur wenige akademische Einrichtungen weltweit tun das derart konsequent. Ein von QUEST entwickelter Algorithmus identifiziert Arbeiten von Wissenschaftlern der Cha­rité und des Max-Delbrück-Centrums, die einen Link auf die Ori­ginaldaten enthalten, um sie öffentlich zugänglich zu machen. Die entsprechenden Wissenschaftler erhalten dann automatisch zusätzliche Mittel, die sie für ihre Forschung einsetzen können. Auch gibt es eine Auszeichnung für Forscher, die negative Resultate veröffentlichen.

Eingefahrene Denkmuster überwinden mit Hilfe von Angeboten und Anreizen

Daneben führt QUEST Metaforschung durch, also Forschung über Forschung. Das dient einerseits dazu, kontinuierlich Maßnahmen zu entwickeln, mit denen sich die Forschungspraxis verbessern lässt, soll andererseits aber auch die Wirksamkeit der eigenen Aktivitäten überprüfen. QUEST liefert ein Beispiel dafür, wie akademische Institu­tionen eingefahrene Denk- und Verhaltensweisen ändern können, indem sie ihre Wissenschaftler mit innovativen Angeboten unterstützen und Anreize für verantwortungsvolle Forschungspraktiken schaffen. Sollte sich dieser Kulturwandel international durchsetzen, werden wir in Zukunft wieder darauf vertrauen können, dass die meisten veröffentlichten Forschungsergebnisse der Biomedizin richtig und wertvoll sind.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.