Direkt zum Inhalt

Computermodelle: Wahrheit aus der Maschine

Computersimulationen werden in der Forschung immer wichtiger - erzeugen bald Algorithmen wissenschaftliche Fakten?
Simulation des Jetstreams

Die weiße Reaktorkuppel des englischen Kernkraftwerks Sizewell B leuchtet bei Sonnenschein weit über die flache, grüne Landschaft Suffolks. Auf der einen Seite der Anlage liegen Felder und Weiden, auf der anderen rollt die Nordsee an den Strand. Die ersten Häuser des Dorfs Leiston liegen zwei Kilometer entfernt, und direkt vor der Zufahrt zum Meiler wartet der Pub "Vulcan Arms" auf Gäste. Es ist fast eine Provinz-Idylle.

Eher ungewöhnlich aber ist, dass sich zuletzt Fachleute aus gut 30 Ländern mit dem englischen Meiler beschäftigt haben. Sizewell B mit seinem Schornstein, dem Rohr für abfließendes Kühlwasser im Meer und den Dörfern in der Umgebung lieferte den Schauplatz für einen Wettstreit der Simulationsrechnungen, um zehn Modelle zur Ausbreitung radioaktiver Stoffe zu testen.

Alle Simulationen starteten mit den gleichen Daten über eine fiktive Freisetzung von radioaktivem Jod, Zäsium oder Kobalt. Die Programme sollten dann kalkulieren, wie sich die Stoffe in der Umwelt verbreiten. Die entscheidende Frage war, welche Strahlendosis die Bewohner der Gegend erhalten würden, wenn sie Muscheln aus dem Meer essen, lokale Möhren verzehren, die Milch ihrer Kühe trinken und am Strand schon mal etwas Sand in den Mund bekommen.

Simulationen für die Drecksarbeit

So etwas kann niemand in einem Experiment testen: Es wäre unethisch und unpraktisch. Darum kommen Simulationsverfahren zum Einsatz; sie lieferten hier bis auf einen Ausreißer vergleichbare Ergebnisse. Die Belastung lag unter einem Prozent der erlaubten Dosis. Solche Modelle seien "unverzichtbare Werkzeuge für die Kontrolle von Routine-Freisetzungen und die Planung von Maßnahmen für Unfälle", stellte die Internationale Atomenergie-Organisation IAEA fest.

Die Strahlenschützer sind mit dieser Methodik nicht allein. Simulationen machen viele Projekte überhaupt erst möglich. Was in der Realität potenziell gefährlich ist wie Radioaktivität, kompliziert wie Rezeptoren in Nervenzellen, weit weg wie ein Komet, was in der Vergangenheit liegt wie der Biss eines Dinosauriers oder in der Zukunft wie das Klima am Ende des Jahrhunderts, das können Wissenschaftler ohne Computersimulation praktisch nicht mehr untersuchen.

"Computermodelle haben die wissenschaftliche Arbeitsweise radikal verändert", sagt die Wissenschaftsphilosophin Gabriele Gramelsberger von der Universität Witten/Herdecke. "Viele Fragen lassen sich ohne sie kaum noch untersuchen." Eine Online-Enzyklopädie ihres Fachs listet als eines von drei Einsatzgebieten der Simulation: Daten zu generieren, wo es keine gibt. Daraus ergibt sich sofort die Frage: Sind die Berechnungen zuverlässig, spiegeln sie die Realität wider? Oder knapper: Liefern Simulationen wissenschaftliche Fakten?

Diese simple Frage löst bei vielen Forschern Unbehagen aus, weil "Fakten" in der Alltagssprache einen Nimbus haben, den die Wissenschaftssprache nicht teilt. Die Wissenschaftler sprechen daher lieber über den Wert der gewonnenen Erkenntnisse und die Frage, ob Modellrechnungen Experimente ersetzen können. Im Vordergrund stehen dabei meist Sorgen über die Qualität der erzeugten Daten. "Fakten", das sind für Forscher eben am ehesten Datenpunkte.

Nützliche Fiktion

Zum Beispiel für Paul Gignac. Der Dinosaurier-Forscher von der Oklahoma State University hat vor Kurzem mit Computerhilfe einem Tyrannosaurus rex ins Maul geschaut. Für die Simulation versah Gignac den digitalisierten Schädel eines der Raubtiere mit virtuellen Muskeln und berechnete dann mit biomechanischen Methoden die Beißkraft sowie den Druck, den die Zähne ausübten. Das Modell warf konkrete Zahlen aus: 718 bis 2974 Megapascal – das ist in der Größenordnung des spezifischen Drucks, den ein Kilogramm des Sprengstoffs TNT bei der Explosion in einem Ein-Liter-Gefäß erzeugen würde.

Ob das Ergebnis stimmt, kann weder Gignac noch sonst jemand überprüfen; der Dino ist vor 66 Millionen Jahren ausgestorben. "Die Anordnung der Muskeln im Schädel ist unsere Hypothese, aber im Kontext dieses Modells sind die Werte für Beißkraft und Druck Fakten", erklärt der Forscher aus Tulsa. Immerhin bestätigte die Rechnung, was die Forschung von Funden weiß: T. rex konnte auch die stärksten Knochen seiner Beute sprengen und zermalmen.

Fakten mit Simulationen geschaffen hat bereits die Europäische Raumagentur ESA, als im August 2014 die Raumsonde Rosetta am Kometen P67/Tschurjumow-Gerasimenko ankam. "Ohne Modelle und Computer könnten wir überhaupt nichts machen", weiß der Flugdirektor Andrea Accomazzo von der ESA. "Sie liefern uns schon im Design eines Raumschiffs entscheidende Daten und auch noch beim Flug zum Ziel." Die Bahn durch das Sonnensystem, auf der das Raumschiff bei Vorbeiflügen an der Erde und dem Mars Schwung holte und zwei Asteroiden begegnete, hat das Team im Kontrollzentrum Darmstadt am Computer ausgetüftelt.

Vergleich Experiment mit Computermodellierung von schrägen Einschlägen | Im oberen Teilbild wurde eine Aluminiumplatte mit einem sechs Millimeter großen Projektil aus Aluminium unter einem Winkel von 15 Grad beschossen. Dabei entstanden eine Wolke aus verdampfendem Aluminium und kleine Partikel, welche über die Oberfläche der Aluminiumplatte schrammten und dabei Furchen aushoben. Im unteren Teilbild ist eine Computersimulation zu sehen, die den Einschlag eines rund 100 Kilometer großen Asteroiden auf der Mondoberfläche unter einem Winkel von 30 Grad modelliert. Das Verteilungsmuster der Schrammen ähnelt jenem aus dem Schussversuch.

Eine besondere Schwierigkeit bestand darin, dass die Experten für das Einschwenken in die Umlaufbahn um P67 Messwerte von Rosetta brauchten, die die Sonde erst kurz vor Ankunft liefern konnte. Wie schnell und zuverlässig das Team solche Daten würde verarbeiten können, hat die ESA darum vorab mit fiktiven Kometen in ihrem Computersystem erprobt – das war also sozusagen die Simulation einer Simulation. Diese Abhängigkeit vom Computer führe bei Raumfahrtplanern am Anfang der Karriere oft dazu, "dass sie Simulationen mehr vertrauen als der Realität", erläutert Accomazzo.

Erkenntnis statt Fakten

Den Bezug zur Wirklichkeit stellen viele andere Simulationsbetreiber mit zwei Techniken her, die sie Verifikation und Validierung nennen. Die erste prüft, ob das Modell die richtigen Gleichungen korrekt gelöst hat, ist also auf innere Konsistenz gerichtet. Die zweite aber testet, ob Ergebnisse der Simulation mindestens in Randbereichen zu Messwerten aus der Realität passen. Die Möglichkeit dazu ist oft sehr beschränkt. Eigentlich sei es sogar unmöglich, Simulationsrechnungen auf diese Weise zu bestätigen, stellte schon vor mehr als 20 Jahren die Wissenschaftshistorikerin Naomi Oreskes fest, die inzwischen an der Harvard University lehrt. Noch heute ist der Aufsatz vielen Modellbauern geläufig. Die Autorin hatte 1994 geschrieben, der Abgleich mit Messungen könne allenfalls ein Maß dafür liefern, mit welcher Wahrscheinlichkeit die Aussagen des Modells stimmen. "Darum glaube ich weiterhin nicht, dass Simulationen Fakten liefern", betont Oreskes noch heute.

Manche Wissenschaftler stellen darum statt des ohnehin unliebsamen Wortes "Fakten" lieber die "Erkenntnis" in den Vordergrund. Sie kann in der Forschung aus einer Wahrscheinlichkeitsaussage erwachsen, aus einem Korridor möglicher Werte, aus einer Reihe von Szenarien, selbst aus einem Fehlschlag. Dann weiß man immerhin: So geht es nicht.

Auch Messungen enthalten in der Wissenschaft ja meist eine Wahrscheinlichkeitsaussage. Wer zum Beispiel eine Länge mit einen Zollstock bestimmt, der kann das vielleicht plus/minus einen Drittel Millimeter genau tun, und in diesem Plus/Minus steckt eine Aussage darüber, wie wahrscheinlich die Messung mit dem wahren Wert übereinstimmt. Aus Daten nicht mehr herausholen zu wollen, als in ihnen stecken kann, ist eine frühe Lektion für angehende Wissenschaftler. Über Erkenntnisse statt über Fakten nachzusinnen, bestimmt dann auch den Umgang mit den Resultaten von Simulationen.

Erkenntnisgewinn statt Faktenproduktion – so sieht es auch Jochem Marotzke vom Max-Planck-Institut für Meteorologie in Hamburg. Das übersetzt sich in den Sprachgebrauch seiner Disziplin, der Klimaforschung: Hier betonen Wissenschaftler stets, dass sie "Projektionen" liefern, keine "Vorhersagen". Sie berechnen also nicht, ob es am Heiligabend 2087 in Nürnberg schneit, sondern höchstens, wie wahrscheinlich Schnee Ende Dezember in Franken in den 2080er Jahren ist. Generell geht es um Muster des Wetters, der Temperaturen, der Niederschläge – Klima eben. Die Berechnung ist ein mühsamer Prozess, bei dem ein Supercomputer über Myriaden von Zeiteinheiten und Raumelementen immer wieder die gleichen meteorologischen Zustandsgleichungen löst.

Realitätscheck

Ein wichtiger Test für Klimamodelle ist das so genannte Hindcasting: Die Simulationen bekommen Anfangswerte aus einem Jahr weit in der Vergangenheit und müssen dann ohne weitere Hilfe die Entwicklung bis zur Gegenwart im Detail nachvollziehen. Versagt die Simulation dabei, trauen die Forscher auch dem Ausblick auf die Zukunft nicht und machen sich daran, ihr Modell zu verbessern. Doch selbst wenn der Test gelingt, so Marotzke selbstkritisch, "ist eigentlich nicht überprüfbar, ob die Aussagen für eine Zeit 80 Jahre in der Zukunft noch stimmen. Wir wissen ja nicht einmal, ob wir richtige Ergebnisse auch aus den richtigen Gründen bekommen haben." Und 80 Jahre zu warten, um dann zu erfahren, ob die Simulation von 2017 korrekt war, sei ja auch sinnlos.

Darum testen die Klimaforscher sich zum einen mit Rechnungen über nur ein Jahrzehnt Zukunft, die umso schneller mit der Realität abgeglichen werden können. Zum anderen vergleichen sie ihre Resultate mit Kollegen aus vielen anderen Ländern, die die Aufgabe ganz anders gelöst haben. So teilen zum Beispiel viele Gruppen die Atmosphäre in lauter eckige Kästchen, die von Höhenlinien, Längen- und Breitengraden begrenzt werden. Die Hamburger hingegen rechnen mit Kugelschalen und sphärischen Gleichungen. Liefern derart unterschiedliche Ansätze ähnliche Ergebnisse, steigt das Vertrauen genau wie bei den Raumfahrern der ESA und den Strahlenschützern der IAEA.

"Wir sollten Simulationen wie Experimente behandeln", fordert Marotzke. "Wir müssen damit herumspielen, Randbedingungen variieren, die Umgebung der Parameter erkunden, herausfinden, was mögliche Messfehler oder Lücken in den Daten bewirken." Der Klimaforscher schlägt sich damit eindeutig auf eine Seite der Debatte in der Wissenschaftsphilosophie, die sich seit Langem fragt, ob Modellrechnungen eher zur Theorie oder zur Empirie gehören. Einerseits werden im besten Fall bekannte Gleichungen gelöst, wenn nötig numerisch und iterativ, andererseits erkunden viele Forscher genau wie Marotzke das Verhalten ihrer Modelle unter Hypothesen und mit planmäßiger Variation von Größen und Variablen.

Gabriele Gramelsberger, die Philosophin von der Universität Witten/Herdecke, schlägt darum einen sprachlichen Kompromiss vor: "Simulationen sind Theorie, mit der sich numerisch experimentieren lässt." Die Modellrechnung ist damit eine Art Zwitterwesen und dringt von der einen Seite in den Graben zwischen Theorie und Empirie vor. Von der anderen Seite aber dehnen sich auch die Daten und Messwerte zur Mitte hin aus. Was Satelliten zur Erde funken oder was die turnhallengroßen Detektoren an einem Teilchenbeschleuniger wie dem LHC am CERN in Genf liefern, sind schon längst keine direkten Messwerte mehr. Es sind oft mit vielen Verarbeitungsschritten verfeinerte und gefilterte Zahlenkolonnen, in denen Annahmen und Rechenschritte stecken. "Modelldaten werden dann mit Datenmodellen verglichen", schildert Gramelsberger.

Besser als das Experiment?

Angesichts rapide wachsender Computer-Power ist auch nicht verwunderlich, dass manche Disziplinen beginnen, Simulationen nicht nur wie Experimente, sondern auch als Experimente zu behandeln. Die Biochemie ist ein Beispiel, wenn es um die Funktion von Membranrezeptoren geht. "Inzwischen kommen wir mit Simulationen näher an die biologische Wirklichkeit als mit unseren Messverfahren", teilt Timothy Clark von der Universität Erlangen-Nürnberg mit. Das liegt am Sujet: Rezeptoren sind komplizierte Eiweißmoleküle in der Zellwand zum Beispiel von Neuronen. Eine Verbindung wie der Serotoninrezeptor, der für den Seelenhaushalt des Menschen sehr wichtig ist, ragt in den synaptischen Spalt zwischen Nervenzellen und wartet auf Neurotransmitter. Passt einer genau in sein aktives Zentrum und bindet sich an ihn, verändert sich die dreidimensionale Struktur des Rezeptors und löst so ein Signal im Inneren der Nervenzelle aus.

Dieser Mechanismus hängt entscheidend von der Form des Rezeptors ab. Wenn Chemiker diese experimentell bestimmen wollen, müssen sie erst eine Möglichkeit finden, eine große Zahl der (oft empfindlichen) Zielmoleküle in einem Kristallgitter zu verankern, und dieses dann mit Röntgenstrahlen untersuchen. Doch viele der so genannten g-Protein gekoppelten Rezeptoren (GPCR) lassen sich nicht in einer Form kristallisieren, die sie jemals in der Zelle annehmen würden, berichtet Clark. Die Röntgenanalyse wäre also praktisch wertlos für biochemische Fragestellungen. "Im Computer hingegen können wir das Verhalten eines Rezeptors während der Reaktion nachvollziehen. Und die Modellrechnung liefert uns Vorhersagen etwa für die freie Energie, die wir im Experiment überprüfen können."

Der nächste Schritt ist, mögliche Arzneimittel-Moleküle virtuell an den simulierten Rezeptoren zu testen. Das könnte die Prüfung möglicher Wirksubstanzen in der Pharmaforschung deutlich beschleunigen. Wenn Präparate dann in klinischen Tests einen therapeutischen Nutzen zeigen und als Arzneimittel zugelassen werden, ist allerdings noch nicht unbedingt bewiesen, ob die Simulation am Anfang korrekt war.

Das zeigt gerade der Serotoninkreislauf. Er ist seit Jahrzehnten das Ziel von Medikamenten gegen Depression, zum Beispiel unter dem Handelsnamen Prozac. Sie wurden noch ohne Simulationen entwickelt, damals lag eine Idee für den Ansatzpunkt zu Grunde, aber ihr genauer Wirkmechanismus ist bis heute umstritten. So könnten Simulationen selbst dann Fakten schaffen, wenn kein Mensch wissen kann, ob sie korrekt sind.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.