Direkt zum Inhalt

Gefälschte Forschung: Wie Betrug die Wissenschaft überschwemmt

Manipulierte Forschungsarbeiten sind seit Jahren ein Problem. Verlage und Betrüger profitieren, während Ehrliche oft das Nachsehen haben. Nun lässt KI das Fälschungsproblem buchstäblich explodieren. Doch warum ist das so – und was wären Mittel dagegen?
Ein Auge blickt durch eine tropfenförmige Öffnung in einem aufgeschlagenen Buch. Die Seiten des Buches sind unscharf im Vordergrund, während das Auge im Fokus steht. Das Bild vermittelt den Eindruck von Neugier und Entdeckung.
Jedes Jahr erscheinen unzählige wissenschaftliche Veröffentlichungen, die begutachtet werden müssen. Ein Teil von ihnen enthält auch gefälschte Daten.

Am Montag, den 17. Juli 2023, blicken René Aquarius und drei Kolleginnen im Radboud University Medical Center im niederländischen Nimwegen auf ungefähr 200 Western-Blot-Bilder. Ein surrender Beamer wirft die Laborgrafiken an die Wand eines Besprechungsraums – Abbildungen, die sichtbar machen, ob bestimmte Eiweiße in einer Probe vorkommen und in welcher Menge. Schon nach wenigen Minuten entdecken Aquarius und die anderen, was nicht hätte sein dürfen: Unzählige Bilder in den Studien gleichen sich wie ein Ei dem anderen. Bilder, die einzigartig sein müssten, weil sie aus unterschiedlichen Experimenten mit verschiedenen Organismen stammen. Veröffentlicht in anerkannten Fachzeitschriften.

Aquarius, Forscher in der Abteilung für Neurochirurgie, erinnert sich gut an diesen Moment: »Es war einer der seltsamsten Tage meiner beruflichen Laufbahn. Wir sahen uns alle ungläubig an, und ich dachte: Das ist wirklich schlimm.«

Gemeinsam mit seiner Kollegin Kim Wever wollte er eine systematische Übersichtsarbeit zu Tierstudien schreiben. Ein Routineprojekt zur Prävention von Hirnschäden nach hämorrhagischen Schlaganfällen. Doch bald wurde daraus »das bislang wichtigste Forschungsprojekt meines Lebens«, sagt Aquarius. Ein Projekt, das unangenehme Fragen an internationale Forschungsteams sowie große Wissenschaftsverlage stellt: Wurde hier überhaupt geforscht?

Der sabotierte Erkenntnisprozess

Zwei Jahre lang sichteten Wever und Aquarius 608 präklinische Tierstudien mit Mäusen, Ratten und anderen Versuchstieren. Mit ausgefeilter Software, aber auch mit bloßem Auge durchforsteten sie die Studien nach Hinweisen auf Bildmanipulation.

Letztlich fanden sie viel mehr, als sie erwartet hatten.

Die Bilanz, veröffentlicht Ende Oktober 2025 im Fachmagazin »PLOS Biology«, ist vernichtend: In 243 der 608 untersuchten Publikationen, also jeder vierten, stießen Aquarius und Wever auf problematische Abbildungen. Manche Bilder waren manipuliert, etwa durch das Kopieren einzelner Bildabschnitte, Kontrastveränderungen oder das Verschieben von Banden, andere wurden mehrfach verwendet, teils in völlig anderem Kontext. So zeigte dasselbe Bild in einer Studie angeblich ein Gefäß im menschlichen Gehirn, in einer anderen das Hirnareal einer Maus.

Das allein sei schon alarmierend, sagt Aquarius, doch noch beunruhigender sei die Tatsache, dass angesehene Fachzeitschriften wie »Brain Research«, »Stroke« oder »Molecular Neurobiology« die klar fehlerhaften Artikel trotz interner Qualitätskontrolle und Peer Review veröffentlichten. Und dass kaum etwas geschah, nachdem die Herausgeber über die Probleme informiert worden waren. Bislang wurden nur 19 Artikel zurückgezogen und 55 korrigiert.

Das ist deshalb problematisch, weil Wissenschaft kumulativ funktioniert: Erkenntnisse bauen aufeinander auf. Wer falsche Daten veröffentlicht, egal ob aus Nachlässigkeit oder mit böser Absicht, bringt nicht nur die eigene Studie ins Wanken. Er sabotiert den gesamten Erkenntnisprozess. Wissenschaftsbetrug verschwendet Zeit, Geld und Vertrauen. Er kostet Ressourcen aus ohnehin knappen Forschungsbudgets. Er bremst Fortschritt und Innovation. Er verzögert die Entwicklung neuer Therapien. Und er untergräbt das Vertrauen, das Gesellschaft, Politik und Forschung in das Wissenschaftssystem setzen.

Der Fall von Aquarius und Wever ist kein Ausreißer. Er ist Symptom eines Systems, das zunehmend leidet. Unter Profitgier, struktureller Überforderung und fehlenden Anreizen, wirksam gegen Fehlverhalten vorzugehen. Zahlreiche Studien, die wachsende Zahl an Workshops und neue digitale Werkzeuge zur Qualitätssicherung zeigen, dass das Problem zwar erkannt, aber längst nicht gelöst ist.

Wie also umgehen mit einem System, das sich als selbstkorrigierend versteht, aber an seinen eigenen Schwächen scheitert? Welche Rolle spielt künstliche Intelligenz (KI), insbesondere im Zusammenspiel mit dem FAIR-Prinzip, das wissenschaftliche Daten für Mensch und Maschine besser nutzbar machen will? Und wie lässt sich ein Ausweg aus der Vertrauenskrise finden, in die die Wissenschaft immer tiefer schlittert?

Zwei Fächer sind besonders anfällig

Wissenschaftliches Fehlverhalten ist so alt wie die Wissenschaft selbst. Abbildungen in Studien werden seit jeher manipuliert, Daten geschönt, unterschlagen oder erfunden, um Hypothesen zu bestätigen, Fördermittel einzuwerben oder Karrieren zu beschleunigen. Doch nie zuvor waren die Versuchungen so groß, die Möglichkeiten zur Fälschung so einfach und die Kontrolle so schwach.

»Wenn das Vertrauen in die wissenschaftliche Literatur zerfällt, verlieren wir eine der letzten verlässlichen Quellen von Wahrheit, die wir als Gesellschaft noch haben«, warnt der britische Forscher Matt Spick, der an der University of Surrey in Großbritannien den Einfluss von künstlicher Intelligenz in der Gesundheitsforschung untersucht.

Besonders anfällig für Betrug sind die Biomedizin und die Materialwissenschaften. Dort lockt das große Geld, etwa durch neue Medikamente und Therapien, oder durch technische Anwendungen, die staatlich gefördert und wirtschaftlich vermarktet werden können.

Schon 2016 zeigte die Niederländerin Elisabeth Bik, dass in etwa vier Prozent der biomedizinischen Studien Abbildungen manipuliert wurden. Speziell in der Krebsforschung ist das Problem vermutlich noch gravierender. Eine im September 2025 veröffentlichte Studie der australischen Molekularbiologin Jennifer Byrne kommt zu dem Schluss, dass fast zehn Prozent der von 1999 bis 2024 veröffentlichten onkologischen Publikationen Ähnlichkeiten mit sogenannten Paper-Mill-Produkten aufweisen, also mit Fälschungen aus kommerziell agierenden Agenturen. In manchen Fachzeitschriften liegt der Anteil sogar bei über 30 Prozent. Auch deshalb sprechen Byrne und ihre Kolleginnen in der Studie von »organisierter Kriminalität«.

»Fälschungen sind dank Paper Mills inzwischen ein florierendes Geschäft«, sagt Anna Abalkina, Osteuropa-Expertin an der Freien Universität Berlin. Kaum jemand hat die Schattenindustrie der wissenschaftlichen Fälschung so detailliert untersucht wie sie. Das Prinzip ist simpel: Wie am Fließband verkaufen kommerzielle Agenturen fertige Manuskripte und Autorenschaften. Manche Beiträge sind schlecht gemacht, viele vollständig erfunden. Wer zahlt, wird Autorin oder Autor. Egal ob sie oder er mit dem Inhalt je zu tun hatte. Inzwischen umgehen sogenannte Review Mills auch den Peer-Review-Prozess, der eigentlich das zentrale Qualitätskriterium wissenschaftlicher Publikationen sein soll.

Hunderttausende betroffene Artikel

Geworben wird in Messenger-Gruppen, auf dubiosen Websites oder über persönliche Kontakte. Die Zielgruppe reicht von Nachwuchsforschenden, die Publikationen für ihre Karriere brauchen, bis hin zu erfahrenen Wissenschaftlerinnen und Wissenschaftlern. Je nachdem, wie viel gezahlt wird, dürfen die »Kunden« das Thema des Papers, ihre Position in der Autorenliste, das Publikationsdatum oder sogar die Datenbank bestimmen, in der die publizierende Zeitschrift gelistet wird. Fällig werden dann zwischen ein paar Hundert und mehreren Tausend Euro pro Artikel.

Erstmals öffentlich diskutiert wurde das Paper-Mill-Phänomen 2013, doch vermutlich begann das Problem früher. In einem Kommentar für die Fachzeitschrift »Nature« schreibt Abalkina im Januar 2025: »Mindestens 400 000 Artikel, die zwischen 2000 und 2022 erschienen sind, tragen Merkmale, die auf eine Paper Mill hinweisen.« Zum Vergleich: Laut der Plattform RetractionWatch wurden im selben Zeitraum nur 55 000 Studien offiziell zurückgezogen oder korrigiert.

Die Wissenschaftsverlage sind sich des Betrugsproblems bewusst. Doch das Ausmaß wird häufig heruntergespielt. Das zeigte sich in vielen Hintergrundgesprächen und E-Mail-Kontakten, die Spektrum im Rahmen dieser Recherche mit Verlagsvertreterinnen und -vertretern führte, etwa auf Konferenzen in Berlin und Halle an der Saale. Die von Forschenden genannten Zahlen über die Größe des Problems halten sie für übertrieben.

Wie dramatisch die Lage ist, zeigte sich 2023. In jenem Jahr erschütterte der bislang größte Paper-Mill-Skandal die Branche. Der US-amerikanische Wissenschaftsverlag Wiley musste über 8000 Studien aus dem Portfolio seiner Tochterfirma Hindawi zurückziehen – mehr als alle anderen Verlage weltweit zusammen in einem einzigen Jahr. Wiley hatte den Londoner Open-Access-Verlag Hindawi im Januar 2021 für 298 Millionen US-Dollar übernommen. Ende 2023 wurde die Marke Hindawi stillgelegt. Bis heute wurden über 15 000 Hindawi-Artikel zurückgezogen.

Diese Dimension ist bislang beispiellos und zeigt, wie tief sich der Betrug ins System gefressen hat. Dabei wird oft übersehen, dass es zwei grundlegend verschiedene Formen von Wissenschaftsbetrug gibt: den industriellen Betrug durch Paper Mills und den individuellen Betrug, bei dem einzelne Forschende absichtlich Daten manipulieren oder fälschen. Die Hindawi-Affäre gehört eindeutig zur ersten Kategorie. Trotz ihres Ausmaßes wurde sie außerhalb der Fachwelt kaum diskutiert. Stattdessen konzentriert sich die öffentliche Aufmerksamkeit meist auf spektakuläre Einzelfälle, während das strukturelle Versagen weitgehend unbeachtet bleibt.

Prominente Einzelfälle vernebeln das strukturelle Problem

Einer dieser prominenten Fälle ist der französische Mikrobiologe Didier Raoult, der während der Covid-19-Pandemie das Malariamittel Hydroxychloroquin als Therapie anpries. Acht seiner klinischen Studien verstießen gegen internationale Ethikstandards und das französische Biomedizinrecht. 2024 entzog ihm der französische Ärzteverband für zwei Jahre die Approbation. Inzwischen wurden 24 seiner Studien zurückgezogen und 243 weitere mit einem »expression of concern« versehen – einem Warnhinweis auf potenzielle Fehler oder Manipulationen.

Ein weiterer Fall: Eliezer Masliah, international bekannter Alzheimer- und Parkinsonforscher sowie langjähriger Leiter der Neurowissenschaftsabteilung am US-amerikanischen National Institute on Aging. 2024 befand ihn das National Institute of Health (NIH) offiziell des wissenschaftlichen Fehlverhaltens für schuldig. Zwischen 1997 und 2023 wurden in mindestens 132 seiner rund 800 Studien manipulierte Bilder entdeckt. 2023 trat der Neurowissenschaftler und ehemalige Präsident der Stanford University, Marc Tessier-Lavigne, zurück, nachdem in mindestens vier seiner Publikationen manipulierte Daten entdeckt worden waren.

Deutschlands erster großer Wissenschaftsskandal wurde bereits Ende der 1990er-Jahre bekannt. Die Onkologen Friedhelm Herrmann und Marion Brach hatten in 94 von 347 untersuchten Studien Daten gefälscht. Doch all diese Fälle verdecken eine andere Wahrheit: Viel verbreiteter als der große Skandal sind kleinere, alltäglichere Fälschungen. Sie ziehen sich quer durch die Disziplinen – von Medizin über Wirtschafts- und Rechtswissenschaften bis hin zu Agrar- und Ingenieurwesen.

Was ist noch echte Forschung?

Wie viele wissenschaftliche Studien tatsächlich gefälscht oder manipuliert wurden, lässt sich nicht genau sagen. Denn ein Großteil der Betrugsfälle bleibt unentdeckt und somit ungeahndet. Fest steht jedoch: Die Zahl der Publikationen steigt. Und mit ihr die Zahl der Fälschungen. Denn mithilfe von KI-Sprachmodellen lassen sich Fake-Studien heute schneller, billiger und überzeugender erzeugen als je zuvor.

Seit dem Aufstieg dieser Technologien ist die Zahl wissenschaftlicher Veröffentlichungen sprunghaft gestiegen. »Ich bin überzeugt, dass nahezu jede Paper Mill inzwischen KI einsetzt«, sagt Matt Spick, Gesundheitsforscher an der University of Surrey. Die Methoden, warnt er, würden dabei zunehmend perfider: »Immer mehr Fälschungen basieren inzwischen auf realen, öffentlich zugänglichen Gesundheitsdaten. Dadurch wirken sie besonders glaubwürdig, obwohl die beschriebenen Analysen oder Experimente nie stattgefunden haben.« In einer Untersuchung vom Juli 2025 zeigt Spick, dass fünf große Datenbanken besonders häufig missbraucht werden: die UK Biobank, FINNGen, Global Burden of Disease, FAER und NHANES. 2021 basierten etwa 4000 Studien auf diesen Daten. Im Jahr 2024 waren es über 11 500. Der Großteil der Beiträge stammt aus China, und viele Artikel ähneln sich stark im Aufbau, Stil und Titel.

Die Problematik zeigt sich inzwischen sogar in der Wortwahl wissenschaftlicher Texte. Dmitry Kobak, Datenexperte am Tübinger Hertie Institute for Artificial Intelligence in Brain Health, hat die Abstracts von 15,1 Millionen biomedizinischen Studien ausgewertet. Seit 2023 tauchen dort bestimmte Begriffe deutlich häufiger auf, etwa »delve«, »crucial« oder »promising«. Für Kobak ein klares Signal: Viele dieser Texte wurden mithilfe von KI-Sprachmodellen wie ChatGPT, Claude oder Gemini geschrieben. »Das eigentliche Risiko ist nicht, dass Forschende KI verwenden«, sagt er, »sondern dass niemand mehr weiß, was noch selbst erdacht ist.«

Wenn sich wissenschaftliche Texte durch automatisierte Formulierungen angleichen, könne der wissenschaftliche Diskurs verflachen, so Kobak. Studien klingen zunehmend gleich, Argumente wiederholen sich – nicht aus Überzeugung, sondern aus statistischer Reproduktion. Diese KI-generierten Arbeiten landen in den Trainingsdaten künftiger Modelle. So entsteht eine Abwärtsspirale, in der Maschinen vermeintliches Wissen erzeugen, das nie überprüft oder hinterfragt wurde, aber als Wahrheit gilt. Wissenschaftliche Vielfalt, Zweifel und echte Erkenntnis drohen auf der Strecke zu bleiben.

Angesichts dieser Entwicklung stellt sich eine zentrale Frage: Wer kontrolliert das alles? Denn jenseits technischer Tools fehlt es an Menschen, die systematisch und sorgfältig nach Betrug suchen.

Die Manipulations-Jägerin

Elisabeth Bik ist eine der wenigen, die das tun. »Wir erwischen eigentlich nur die dummen Betrüger«, sagt die niederländische Mikrobiologin am Rande einer Konferenz in Stockholm. »Wer sich wirklich Mühe gibt, den finden wir mit den heutigen Methoden nicht.«

An der Königlich Schwedischen Akademie der Wissenschaften haben sich rund zwei Dutzend Fachleute aus verschiedenen Disziplinen versammelt. Sie wollen Lösungen für das wachsende Integritäts- und Betrugsproblem in der Wissenschaft finden. Die Ergebnisse dieser Konferenz wurden am 5. November 2025 in Form der »Stockholm Declaration« veröffentlicht.

Dass Bik ebenfalls eingeladen ist, ist keine Überraschung. Sie gilt als Pionierin auf ihrem Gebiet und als eine der weltweit bekanntesten Expertinnen für das Aufdecken von Bildmanipulationen in wissenschaftlichen Arbeiten. Seit 2013 konnte sie 9220 problematische Artikel identifizieren und auf der Plattform PubPeer kommentieren, einem Forum für unabhängige Qualitätskontrolle nach der Veröffentlichung. Gut ein Drittel davon (3633) hat sie direkt bei Verlagen und Institutionen gemeldet. Davon wurden 1569 offiziell zurückgezogen. Eine wahnsinnige Zahl. »Doch dass fast 40 Prozent der Studien, die ich den Verlagen vor zehn Jahren gemeldet habe, noch nicht angefasst wurden, ärgert mich am meisten«, sagt Bik.

Der weltgrößte Wissenschaftsverlag Elsevier betont, dass die Bearbeitung solcher Hinweise Zeit brauche, vor allem wegen der vorgeschriebenen Prüfprozesse. Man handle so schnell, wie es die Komplexität einer gründlichen Untersuchung zulasse, heißt es aus dem Verlag. Jeder Fall werde sorgfältig geprüft, Autorinnen und Autoren müssten angehört, Stellungnahmen eingeholt und abgewogen werden.

Mehrere »science sleuths« (Wissenschaftsdetektive), mit denen Spektrum gesprochen hat, widersprechen dieser Darstellung. Sie vermuten, dass Verlage Betrugsfälle oft systematisch verzögern oder aussitzen, auch um deren Ausmaß möglichst aus der öffentlichen Wahrnehmung herauszuhalten.

Gegen den Betrug gibt es nur wenig Mittel

Springer Nature weist diesen Vorwurf zurück und betont, der Anteil klarer Fälschungen im eigenen Portfolio sei verschwindend gering: 2024 habe man über 482 000 Artikel veröffentlicht, nur ein sehr kleiner Bruchteil davon falle überhaupt unter den Begriff eindeutiger Betrugsfälle. Gleichzeitig verweist der Verlag auf gewachsene Anstrengungen bei der Qualitätssicherung: 2923 Studien wurden 2024 zurückgezogen, in der ersten Hälfte des Jahres 2025 weitere 566. Bis Ende des Jahres 2025 wird die Zahl weiter steigen. Zudem habe man 177 Millionen Euro in Technologie investiert, einen erheblichen Teil davon in Werkzeuge zur Verbesserung der Forschungsintegrität. Das zentrale Integrity-Team sei seit 2022 auf 55 Mitarbeitende angewachsen und habe sich mehr als verdreifacht.

Auch Elsevier tue mehr, sagt der Verlag. Allein im laufenden Jahr 2025 seien über 1000 Studien zurückgezogen worden. Man habe rund 20 Millionen Euro in Integritäts-Software sowie ein Research-Integrity-Team mit etwa 100 Mitarbeitenden investiert.

Beide Verlage betonen jedoch, dass wissenschaftliche Integrität nicht allein in ihrer Verantwortung liege. Die Ursachen des Problems seien systemisch. »Es ist schwieriger, unethische Akteure abzuschrecken, als es scheint«, sagt Elsevier. Man könne zwar Muster problematischen Verhaltens erkennen und Zugänge blockieren – doch die Möglichkeiten, gezielt gegen Einzelpersonen oder ganze Institutionen vorzugehen, seien begrenzt.

Aber warum ist Wissenschaftsbetrug überhaupt so verlockend?

Eine einfache Antwort gibt es nicht. Wie so oft kommen mehrere Faktoren zusammen: Fehlanreize in einem überforderten System, Karrieredruck vor allem beim Nachwuchs, das Ego und Machtstreben etablierter Forschender – und, das sagen zahlreiche Expertinnen und Experten, mit denen Spektrum gesprochen hat: das Profitstreben großer kommerzieller Verlage.

Forschung unter Publikationsdruck

Das Wissenschaftssystem verlangt immer mehr, bei gleichzeitig schwindenden Ressourcen. Gefordert werden vor allem Ergebnisse. Und das sind in erster Linie Publikationen. Das Prinzip dahinter schwebt über der Branche wie ein alter Fluch. »Publish or perish.« Wer nicht veröffentlicht, verschwindet in der akademischen Bedeutungslosigkeit. Wer viel publiziert, idealerweise in renommierten Fachmagazinen, hat bessere Chancen auf Stellen, Fördergelder, Auszeichnungen und Einfluss. Vor allem der Forschungsnachwuchs steht unter immensem Druck.

»Dieser Druck hat einen kommerziellen Markt geschaffen«, sagt Abalkina. »Und vielen Akteuren geht es in erster Linie längst nicht mehr um Erkenntnis, sondern um das Geschäft, das sich mit Wissenschaft machen lässt.«

Für etablierte Größen wie Masliah, Raoult oder Croce allerdings greift das »Publish or perish«-Argument nicht. Sie haben ihren Ruf, ihre Position und ihre Macht längst gesichert. Fälschen sie zum x-ten Mal Forschungsdaten für die Lust am Erfolg? Ist es die Gier nach Anerkennung oder die Selbstinszenierung als Genie?

Sicher sagen lässt sich das selten. Denn wer beim Betrügen erwischt wird, schweigt entweder oder streitet alles ab. Doch es gibt Ausnahmen. Eine davon ist der niederländische Soziologe Diederik Stapel – einst führender Soziologe, dann überführter Fälscher.

In einer Art autobiografischer Beichte beschreibt er, wie er seine Daten spätabends allein am Küchentisch oder im Büro erfand: »Ich habe Dinge getan, die schrecklich, vielleicht sogar widerlich waren. Ich habe Forschungsdaten gefälscht und Studien erfunden, die nie stattgefunden haben. Ich arbeitete allein und wusste genau, was ich tat.« Er hätte nichts empfunden, keinen Ekel, keine Scham, keine Reue. »Ich erfand ganze Schulen, an denen ich meine Forschung betrieben hatte, Lehrer, mit denen ich die Experimente besprochen hatte, Vorlesungen, die ich gehalten hatte, Sozialkundestunden, zu denen ich beigetragen hatte, Geschenke, die ich als Dankeschön für die Teilnahme verteilt hatte.«

Die Rolle der Kennzahlen

Stapel ist vermutlich ein Extremfall. Doch sein Verhalten wirft ein Schlaglicht auf ein System, das Quantität über Qualität stellt – und diese Qualität auch noch falsch misst.

Ein Beispiel: der Impact Factor. Diese wohl bekannteste Kennziffer im Wissenschaftsbetrieb gibt an, wie häufig Artikel in den vergangenen zwei Jahren durchschnittlich von anderen Forschern zitiert wurden. Je höher der Wert, desto angesehener das Journal. Und desto begehrter ein Platz darin.

Doch diese Zahl misst nicht unbedingt Qualität, warnt Reese Richardson, Metawissenschaftler an der Northwestern University in Evanston, Illinois. »Fachzeitschriften, Verlage und Autoren können verschiedene Methoden anwenden, um die Impact-Faktoren von Zeitschriften künstlich zu erhöhen. Impact-Faktoren sagen zudem wenig über die tatsächliche Qualität oder Glaubwürdigkeit der in einer Zeitschrift veröffentlichten Inhalte aus.«

Nicht nur Zeitschriften, auch Wissenschaftlerinnen und Wissenschaftler selbst werden zunehmend an Kennzahlen gemessen. Eine der wichtigsten: der h-Index. Er soll Produktivität und Einfluss sichtbar machen, lässt sich aber leicht manipulieren.

Larry | Mit Hilfe von insgesamt 24 fingierten Publikationen verschaffte der Forscher Reese Richardson dem flauschigen Agenten des Chaos einen h-Index von 11 – ein vergleichsweise hoher Wert in der Mathematik.

Wie leicht, zeigte Richardson 2024 mit der Katze seiner Großmutter. Gemeinsam mit dem Forscher Nick Wise legte er ein Fake-Profil für Katze Larry – angeblich ein Mathematik- und Physikgenie – auf der Website ResearchGate an. Dann luden sie zwölf fingierte Studien unter Larrys Namen hoch sowie zwölf weitere, die Larrys Arbeiten zitierten. Zwei Wochen später hatte Google Scholar die scheinbar atemberaubenden Errungenschaften von Larry Richardson erkannt und ihm auf seinem Online-Profil einen h-Index von 11 zugewiesen – so hoch wie bei manch anerkanntem Wissenschaftler.

»Wir wollten zeigen, wie kaputt unser System ist«, sagt Richardson. »Diese Gier nach Kennzahlen ist einer der Hauptgründe für die aktuelle Krise. Sobald Metriken, die Qualität messen sollen, selbst zum Ziel werden, ist das System krank.«

Wie krank, zeigte Richardson im August 2025 in einer weltweit viel beachteten Studie. Darin wies er Netzwerke nach, in denen Autorinnen und Autoren wissenschaftlicher Studien gezielt Redaktionsmitglieder bestimmter Journale kontaktierten – im Wissen, dass diese bei der Qualitätskontrolle beide Augen zudrücken würden.

Warum sich Betrug lohnt

»Wir müssen weniger publizieren und wieder mehr auf Qualität achten«, forderte Mandy Hill, Managing Director von Cambridge University Press, in einem Bericht zur Zukunft des akademischen Publizierens. Tatsächlich ist das Peer-Review-System, bei dem Forschende gegenseitig ihre Arbeit beurteilen, längst überlastet. Es wurde nie für diese Flut an Artikeln entwickelt. Zahlreiche Forschende berichten Spektrum, täglich mehrere Anfragen zur Begutachtung zu erhalten. Unbezahlt. Zum Wohle der Wissenschaftsgemeinschaft. Und zum Vorteil der Verlage.

Balász Aczél, Metawissenschaftler an der Eötvös-Loránd-Universität Budapest, hat nachgerechnet: Mehr als 100 Millionen unbezahlte Arbeitsstunden leisten Gutachterinnen und Gutachter jährlich für die Wissenschaftsverlage. Ein Geschenk im Wert von mehreren Milliarden Dollar.

Und das bringt uns zur dritten Antwort auf die Frage: Warum wird so viel betrogen?

Weil es sich lohnt, auch für die Verlage.

Wissenschaftsbetrug ist nicht nur ein moralisches Problem, sondern auch ein ökonomisches. Kommerzielle Wissenschaftsverlage – darunter Springer Nature, zu dem Spektrum der Wissenschaft gehört – sind die Hauptprofiteure des gegenwärtigen Systems. Sie sitzen an allen entscheidenden Schnittstellen: bei der Produktion wissenschaftlicher Inhalte, bei deren Qualitätssicherung sowie bei deren globaler Verbreitung. Und sie schaffen es, aus allen drei Phasen Gewinne zu ziehen: Die Artikel bekommen sie kostenlos von Wissenschaftlern, deren Arbeit meist öffentlich finanziert ist. Die Begutachtung übernehmen andere Forschende, ebenfalls unbezahlt. Für den Zugang zu den fertigen Artikeln zahlen dann staatlich finanzierte Bibliotheken und Institutionen, oft mit Millionenbeträgen. Selbst im vielfach gepriesenen Open-Access-Modell entfallen diese Kosten nicht. Sie verlagern sich nur. Dann zahlen die Autoren oder ihre Institutionen teils mehrere Tausend Euro pro Veröffentlichung an sogenannten »article processing charges«.

Ein perfektes Geschäftsmodell, das jährlich Milliarden einspielt. 2024 generierten die vier größten Verlage – Elsevier, Springer Nature, Wiley und Taylor & Francis – laut einer Anfang November 2025 veröffentlichten Analyse über 7,1 Milliarden US-Dollar allein mit Zeitschriftenveröffentlichungen. Zwischen 2019 und 2024 lagen die Gewinne bei mehr als zwölf Milliarden US-Dollar. Die Gewinnmargen liegen bei bis zu 38 Prozent – höher als bei Microsoft, Alphabet oder Saudi Aramco, der weltgrößten Erdölfördergesellschaft.

Angesichts des wachsenden Drucks mehren sich branchenübergreifende Initiativen, die Wissenschaftsbetrug künftig früher erkennen wollen. Eine davon ist der STM Integrity Hub, der im Mai 2022 von mehreren Verlagen gegründet wurde. Ziel ist es, eingereichte Manuskripte vor der Veröffentlichung zuverlässig auf Manipulation zu prüfen, damit die Arbeit ehrenamtlicher Forschungsdetektive wie René Aquarius, Elisabeth Bik, Anna Abalkina oder Jennifer Byrne überflüssig wird. »Unsere Mission ist es, vertrauenswürdige Forschung zu fördern – und Paper Mills sowie andere Bedrohungen für die Integrität der Wissenschaft stehen diesem Ziel im Weg«, sagt Joris van Rossum, Leiter des STM Integrity Hub. »Diese Plattform soll die wissenschaftliche Gemeinschaft mit Daten, Technologien und Wissen ausstatten, um sich besser gegen Fälschungen zu schützen.«

Es fehlt vor allem am Willen

Gelingen soll das mithilfe automatisierter Screening-Tools, die etwa typische Sprache und Struktur von Paper Mills, manipulierte Bilder oder Mehrfacheinreichungen erkennen sollen. Laut van Rossum werden derzeit rund 1000 verdächtige Manuskripte pro Monat durch die Systeme des STM-Hub identifiziert und aussortiert.

Doch wie gut das Frühwarnsystem langfristig funktioniert, bleibt abzuwarten. »Leider zeigt sich bislang, dass generative KI deutlich besser darin ist, Forschungsergebnisse zu fälschen, als sie zu entlarven«, sagt van Rossum. Zwar kommt KI auch in einigen der Tools des STM-Hub zum Einsatz – doch es gebe keine Anzeichen, dass sie allein zuverlässig wissenschaftliches Fehlverhalten erkennen könne.

Auch deshalb startete der Verband gemeinsam mit dem Committee on Publication Ethics (COPE) zusätzlich die Initiative United2Act, um Verlage, Fachgesellschaften und Forschungseinrichtungen enger zu vernetzen. »Wir brauchen das volle Engagement der Verlage und anderer Akteure im Wissenschaftsbetrieb«, sagt Guillaume Cabanac, Informatiker an der Universität Toulouse. Auch er gehört, wie Bik und Aquarius, zur informellen Gemeinschaft der »science sleuths«. In der Vergangenheit war Cabanac eine Handvoll Male pro bono als Berater für den STM Integrity Hub tätig.

2017 gründete er den Slack-Kanal »Collège Invisible«, in dem sich mittlerweile rund 200 Personen aus der internationalen Wissenschaftscommunity vernetzen, die sich für Forschungsintegrität engagieren. Viele von ihnen sind »science sleuths«, die zusammen mehr Betrugsfälle aufgedeckt haben als so mancher Fachverlag. Außerdem entwickelte Cabanac den Problematic Paper Screener (PPS), ein kostenloses Online-Tool, das wissenschaftliche Veröffentlichungen automatisiert auf auffällige Textpassagen, strukturelle Ähnlichkeiten mit Paper-Mill-Produkten, mögliche Plagiate und zweifelhafte Quellen in Literaturverzeichnissen – etwa zurückgezogene Studien oder Beiträge mit »expression of concern« – prüft. Der PPS scannt wöchentlich mehr als 160 Millionen Publikationen. Unterstützt wird das Projekt von der Universität Toulouse, dem Institut Universitaire de France sowie durch kostenfreie Daten von Digital Science – nicht jedoch von Verlagen. Trotzdem nutzen mittlerweile mehrere große Verlagshäuser das Tool, darunter Elsevier, Springer Nature, Wiley und Sage.

Dass trotz der Vielzahl an technischen Lösungen und Millioneninvestitionen in Betrugsprävention und -erkennung noch immer so viele problematische Studien veröffentlicht werden, kann Cabanac nicht nachvollziehen: »Die Werkzeuge, um Wissenschaftsbetrug wirksam und großflächig zu bekämpfen, sind da. Doch sie werden nicht konsequent genutzt. Es fehlt nicht an der Technik, sondern am Willen.«

Wissenschaft lebt vom Zweifel. Aber sie überlebt nur durch Vertrauen. Und dieses Vertrauen wird derzeit systematisch untergraben. Der Kampf gegen Wissenschaftsbetrug ist kein Rennen gegen Einzelne. Es ist ein Rennen gegen die Struktur. Genau das macht notwendige Veränderungen so schwierig. »Aus wirtschaftlicher Sicht funktioniert das System«, sagt René Aquarius. »Verlage machen Gewinne, Universitäten steigen in den Rankings und Forschende bauen Karrieren auf der Anzahl ihrer Veröffentlichungen auf. Aber wenn man nur auf die Zahlen schaut und nicht auf die Wissenschaft selbst, lassen sich gute und problematische Studien kaum noch unterscheiden. Auf dem Papier sehen sie gleich aus.«

Das eigentliche Problem, so Aquarius, sei nicht Technik oder Moral, sondern ein fehlgeleiteter Leistungsbegriff: »Kennzahlen sind zum Selbstzweck geworden. Das entspricht nicht der Realität wissenschaftlicher Arbeit. Manche Experimente dauern Monate oder Jahre. Wir können nicht erwarten, dass Forschende jedes Jahr mehrere veröffentlichen und dabei zugleich höchste Qualität liefern. Das gesamte akademische System basiert auf dieser Illusion. Das muss sich ändern.«

Veränderung ist möglich. Aber sie erfordert Mut und wahrscheinlich einige radikale Schritte. Vor allem von denen, die das gegenwärtige System finanzieren und am stärksten davon profitieren. Denn wenn Profit wichtiger bleibt als Erkenntnis, steht nicht nur die Wissenschaft auf dem Spiel – sondern unser Vertrauen in die Wahrheit selbst.

Diese Recherche wurde vom Peter-Hans-Hofschneider-Recherchepreis für Wissenschafts- und Medizinjournalismus der Stiftung Experimentelle Biomedizin unterstützt.

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

  • Quellen

Abalkina, A., Learned Publishing 10.1002/leap.1574, 2023

Aquarius, R. et al., PLOS Biology 10.1371/journal.pbio.3003438, 2025

Hanson, M. A. et al., Quantitative Science Studies 10.1162/qss_a_00327, 2024

Richardson, R. A. K. et al., PNAS 10.1073/pnas.2420092122, 2025

Scancar, B. et al., BioRxiv 10.1101/2025.08.29.673016, 2025

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.