Computersimulationen: Sind Computer bald die besseren Physiker?

Illinois, 2021: Als das dort ansässige Fermilab seine ersten Messungen an einem Elementarteilchen veröffentlichte, war die Aufregung in der Teilchenphysik groß. Denn das untersuchte magnetische Moment des Myons, einer schweren Version des Elektrons, fiel deutlich größer aus, als Berechnungen es vorhergesagt hatten. Von Hinweisen auf bisher unbekannte Physik war die Rede: Endlich schienen die Grenzen des Standardmodells entdeckt!
Vier Jahre später steht das endgültige Ergebnis fest; die Überschriften fallen jedoch deutlich weniger spektakulär aus. Im Vordergrund steht nun die unglaubliche Präzision, mit der die Fachleute das magnetische Moment gemessen haben: Das Ergebnis ist bis auf die neunte Stelle nach dem Komma genau – ohne Frage ein großer Erfolg. Von grenzensprengender Physik spricht allerdings niemand mehr.
Anders, als man zunächst vermuten könnte, sind nicht neuere Messungen für die Ernüchterung verantwortlich. Denn diese bestätigen die erste Veröffentlichung von 2021. Stattdessen ist die Hoffnung auf eine bahnbrechende Entdeckung dahingeschmolzen, weil sich die theoretische Vorhersage geändert hat und nun doch mit dem Experiment übereinstimmt.
Die Berechnung des magnetischen Moments ist so komplex, dass man das Ergebnis nur näherungsweise angeben kann. In den letzten Jahrzehnten hatten Physikerinnen und Physiker dafür eine »datengetriebene« Methode verwendet, bei der Messungen aus anderen Experimenten eine entscheidende Rolle spielen. Die ermittelte theoretische Vorhersage wich dabei so stark vom vorläufigen Messwert ab, dass viele Fachleute auf einen Durchbruch bei der Suche nach neuer Physik hofften. Doch zeitgleich wurde, zunächst nahezu unbemerkt, eine weitere theoretische Vorhersage veröffentlicht, die mit dem Experiment übereinstimmte. Statt mit Messdaten zu arbeiten, hatten die Forschenden den Wert durch eine Computersimulation ermittelt. Weitere Teams folgten diesem Ansatz, reduzierten Unsicherheiten und bestätigten schließlich das endgültige experimentelle Ergebnis am Fermilab.
Durch die wachsende Leistung von Computern sind Simulationen auf dem besten Weg, traditionelle Forschungsansätze zu ersetzen. Was aber bedeutet es für die Wissenschaft, wenn Computer da weitermachen, wo Fachleute selbst nicht mehr weiterkommen? Wie viel der Physik verstehen wir, wenn wir uns nur noch auf Zahlen stützen, die uns Maschinen übergeben?
Eine etwas andere Anomalie als erwartet
Die magnetischen Eigenschaften des Myons haben in den letzten Jahrzehnten viel Aufmerksamkeit erregt. Das Myon ist ein instabiles Elementarteilchen, das nach nur wenigen Mikrosekunden zerfällt. Es wird als schwerer Bruder des Elektrons bezeichnet, da es die gleiche negative Ladung und den gleichen Eigendrehimpuls (Spin), aber 200-mal mehr Masse besitzt. Unter anderem der Spin verleiht beiden Teilchen auch eine magnetische Eigenschaft: das magnetische Moment, das sie wie eine Kompassnadel mit sich tragen. Sowohl beim Elektron als auch beim Myon sollte nach der klassischen Erwartung das magnetische Moment eigentlich 2 betragen. Doch Teilchen-Antiteilchen-Paare, die laut Quantenphysik jederzeit im Vakuum auftauchen und sich sofort wieder gegenseitig auslöschen (und daher »virtuell« genannt werden), beeinflussen das Moment.
Sie führen zu einer Anomalie, einer Abweichung von 2. Beim Elektron wurde sie bereits Ende der 1940er Jahre experimentell gemessen und kurz darauf theoretisch erklärt. Doch beim Myon haben sich die Fachleute lange die Zähne ausgebissen: Sowohl Messung als auch Berechnung sind hier viel komplexer. Das Problem hat sich über Jahrzehnte zu einem der wichtigsten in der Teilchenphysik entwickelt. Wie stark der tatsächliche Wert von 2 abweicht, sagt nämlich etwas darüber aus, welche virtuellen Teilchen um das Myon herum ihr Unwesen treiben. Forschende wollen herausfinden, ob uns all diese Teilchen bekannt sind – oder nicht.
»Wir wissen, dass das Standardmodell unvollständig ist«Aida El-Khadra, theoretische Teilchenphysikerin
Um die Anomalie zu berechnen, beziehen Physikerinnen und Physiker zunächst alle Effekte bekannter Teilchen mit ein. Würden sich am Ende der gemessene und der berechnete Wert deutlich unterscheiden, könnten bislang unbekannte Teilchen dahinterstecken, also neue Physik, nach der schon lange verzweifelt gesucht wird.
»Wir wissen, dass das Standardmodell unvollständig ist«, sagt die theoretische Teilchenphysikerin Aida El-Khadra von der University of Illinois. »Es erklärt nicht die Dunkle Materie, es erklärt nicht die Dunkle Energie, es erklärt nicht wirklich die Neutrinomassen und auch nicht die beobachtete Asymmetrie zwischen Materie und Antimaterie. Die Anomalie des magnetischen Moments hat das Potenzial, indirekte Beweise für neue Physik aufzudecken.«
Von Anfang an taten sich Physiker aber schwer damit, sich auf einen mathematischen Wert festzulegen. Als das Experiment am Fermilab 2017 an den Start ging, habe jede Gruppe noch an ihrer eigenen theoretischen Vorhersage gebastelt, so El-Khadra. Sie gründete daher mit Kolleginnen und Kollegen die sogenannte Theory Initiative, welche die theoretischen Bemühungen auf einen Nenner bringen sollte. Denn hinter jedem virtuellen Teilchen, das zur Anomalie beiträgt, steckt eine Feldgleichung, die zwar simpel aussieht, aber alles andere als einfach zu berechnen ist. »Auch wenn wir die Gleichung auf ein T-Shirt drucken können – unsere Quantenfeldtheorien sind so komplex, dass sie nicht exakt gelöst werden können«, sagt El-Khadra.
Das Standardmodell der Teilchenphysik
Das Standardmodell enthält alle bisher bekannten Elementarteilchen. Links oben sind die sechs Quarks Up (u), Down (d), Charm (c), Strange (s), Top (t) und Bottom oder auch Beauty (b) verzeichnet. Sie können jeweils drei verschiedene Farbladungen besitzen (Rot, Grün oder Blau). Diese Ladung bestimmt, wie sie an Gluonen (g) koppeln, die selbst zwei Farbladungen tragen. Neben der durch die Gluonen vermittelten starken Kernkraft unterliegen die Quarks der schwachen Kernkraft und dem Elektromagnetismus. Ihre elektrische Ladung beträgt entweder 2/3 oder –1/3 der Elektronenladung. Die Masse der sechs Quarks variiert stark, vom leichtesten Up-Quark mit 2,2 MeV/c2 bis zum schweren Top-Quark mit über 170 GeV/c2.
Außerdem gibt es sechs verschiedene Leptonen: das Elektron (e), das Myon (μ), das Tauon oder Tau (τ) und für jedes dieser Teilchen ein dazugehöriges Neutrino (ν). Sie unterliegen alle der schwachen Wechselwirkung, und bis auf die drei Neutrinos haben sie eine negative Elektronenladung. Wie bei den Quarks schwankt auch ihre Masse: von 511 keV/c2 des leichten Elektrons bis zu mehr als 1,7 GeV/c2 des schweren Tauons. Die Masse der Neutrinos ist tatsächlich so klein, dass sie bisher noch nicht bestimmt werden konnte.
Quarks und Leptonen bilden zusammen drei Teilchenfamilien, die sich bis auf ihre Massen nicht voneinander unterscheiden. Sie wirken damit wie drei praktisch identische Kopien; diese Symmetrie lässt sich durch die Gruppentheorie beschreiben.
Neben den Gluonen befinden sich in der rechten Spalte die übrigen Teilchen, welche die drei Grundkräfte des Standardmodells übermitteln. Das W+-, das W–- und das Z-Boson sind für die schwache Kernkraft verantwortlich, die radioaktive Zerfälle bewirkt. Das Photon übermittelt die elektromagnetische Kraft. Für die vierte Grundkraft, die Gravitation, wird vermutet, dass ein Graviton existiert. Das Higgs-Boson unterscheidet sich von seinen Artgenossen. Es hängt nicht mit einer fundamentalen Kraft zusammen, sondern verleiht den Teilchen ihre Masse. Außerdem unterliegt es der schwachen Wechselwirkung.
Um das Standardmodell zu vervollständigen, kommen noch die Antiteilchen der Quarks und der Leptonen hinzu, die sich lediglich durch das Vorzeichen ihrer elektrischen Ladung von den ursprünglichen Partikeln unterscheiden.
Besonders knifflig ist beim Myon der Anteil, der den virtuellen Teilchen entspricht, die der starken Kernkraft unterliegen, wie Quarks und Gluonen. Diese Elementarteilchen kommen niemals isoliert vor. Unter anderem tun sie sich als Teilchen-Antiteilchen-Paare zusammen, die sich sogleich wieder vernichten. »Und darin liegt der ganze Ärger«, so El-Khadra. Zum einen gibt es bei der starken Kernkraft, der Quarks und Gluonen gehorchen, anders als bei der elektromagnetischen Kraft, gleich drei Ladungen statt bloß Plus und Minus: die »Farbladungen« Rot, Grün und Blau. Zum anderen sind nicht nur die Quarks geladen, sondern auch die Gluonen, welche die starke Kernkraft übertragen. Und zu allem Überfluss ist diese Wechselwirkung, wie es ihr Name schon nahelegt, sehr stark. Dadurch versagen viele Berechnungsverfahren, die für andere Teilchenprozesse entwickelt wurden.
Die Gleichungen der starken Kernkraft werden zu einem unlösbaren Wirrwarr. Statt vergeblich an diesem gordischen Knoten herumzuzerren, entwickelten Physikerinnen und Physiker die datengetriebene Methode. Sie ersetzt einige der schwer lösbaren Teile des theoretischen Problems mit Daten, die bei anderen Experimenten gesammelt wurden. Je nach Datensatz und Messmethode kamen die Gruppen jedoch zu unterschiedlichen Ergebnissen. Durch den Einsatz der Theory Initiative konnte sich die Gemeinschaft im Jahr 2020 schließlich auf einen ungefähren Wert einigen, indem sie gemeinsame Standards für Berechnungsmethoden und Referenzwerte einführte.
Ein Jahr später gab das Fermilab seine ersten Resultate bekannt, die sich um etwa zwei Millionstel von der theoretischen Vorhersage unterschieden. Was nach wenig klingt, war für die Fachwelt eine Sensation, denn die Standardabweichung beim Experiment betrug 4,2 – das heißt, die Wahrscheinlichkeit, dass es sich um eine zufällige Abweichung handelte, lag bei etwa 1 zu 37 500. Ab fünf Standardabweichungen geht man in der Teilchenphysik von einer neuen Entdeckung aus. Selbst im Rahmen der Unsicherheiten war das also ein Ergebnis, das man nicht ignorieren konnte. Während sich alle Augen in der Teilchenphysik auf diese verheißungsvolle Lücke richteten, fand eine noch nicht begutachtete Arbeit, die eine Forschungsgruppe aus Budapest, Marseille und Wuppertal 2020 online zur Verfügung gestellt hatte, zunächst wenig Beachtung.
Der Siegeszug der Computersimulation
Die »BMW-Gruppe« hatte den Anteil der starken Kernkraft mit einer Simulation berechnet, die sie auf dem Supercomputer im Forschungszentrum Jülich ausgeführt hatte – ohne zusätzliche experimentelle Daten. Stattdessen hatte der Computer Schritt für Schritt mathematische Gleichungen gelöst, die den Anteil der starken Kernkraft näherungsweise beschreiben. Es war nicht die erste Berechnung dieser Art, aber die erste, die der datengetriebenen Methode Konkurrenz machte. Anders als beim Ergebnis der Theory Initiative stimmte der Wert der Computersimulation mit den experimentellen Messungen überein.
»Die Leute glaubten das erst nicht. Unsere Methode hat auf unerwartete Weise das Experiment vom Fermilab bestätigt«, sagt der Physiker Zoltán Fodor von der Pennsylvania State University und Bergische Universität Wuppertal und Sprecher der BMW-Gruppe. Somit widersprach ihr Ergebnis als einziges dem damals herrschenden Konsens unter Theoretikern. In den Folgejahren entwickelten weitere Teams eigene Computersimulationen.
»Die Leute glaubten das erst nicht«Zoltán Fodor, Physiker
Sie konnten das erste Ergebnis der BMW-Gruppe nicht nur untermauern, sondern auch die Unsicherheiten so weit reduzieren, dass die Skepsis gegenüber der neuen Methode verflog. »Diese Rechnungen muss man inzwischen ernst nehmen«, bekräftigt der theoretische Teilchenphysiker Hartmut Wittig von der Johannes Gutenberg-Universität Mainz. »Und wenn sie etwas anderes sagen als das, was die traditionelle Methode hergibt, dann ist das mittlerweile ein Anlass dafür zu schauen: Was ist möglicherweise an der traditionellen Methode falsch?«
In der Zwischenzeit geriet die datengetriebene Methode nicht nur von außen immer mehr unter Druck. Ein neuer Datensatz aus einem Labor in Novosibirsk führte 2023 mit der herkömmlichen Strategie zu einem theoretischen Wert, der auch nach gründlicher Überprüfung allen anderen widersprach. Plötzlich kam man in der Theory Initiative zu keinem konsistenten Ergebnis mehr. »Es ist klar, dass die datengetriebene Methode uns im Augenblick keine quantitative Vorhersage liefern kann«, resümiert El-Khadra. »Warum sich die Ergebnisse widersprechen, weiß ich nicht. Niemand von uns weiß es.«
Das Fermilab konnte sein endgültiges Messergebnis indes sogar mit noch geringerer Unsicherheit als erwartet präsentieren. Sie liegt bei nur eins zu 127 Milliarden. »Sie haben ihre Arbeit getan. Das ist ein überaus erfolgreiches Experiment«, so El-Khadra. »Aber die Theorie hat noch nicht die Präzision erreicht, die wir brauchen.« Inzwischen greift auch die Theory Initiative für ihre neueste theoretische Vorhersage auf die Ergebnisse der Computersimulationen zurück. El-Khadra will nicht ganz ausschließen, dass am Ende vielleicht doch noch eine nennenswerte Diskrepanz zwischen Theorie und Experiment bestehen bleibt: »Es ist noch alles möglich.«
Die vorläufigen Ergebnisse deuten allerdings darauf hin, dass die Theorie verträglich mit dem gemessenen Wert ist. »Das Standardmodell hat den Kopf wieder mal aus der Schlinge gezogen und ist eben doch immer noch quicklebendig«, sagt Wittig.
»Jeder wusste, dass es eigentlich die beste Methode ist«Zoltán Fodor, Physiker
In den vier Jahren zwischen erster und letzter Messung am Fermilab haben Computersimulationen einen beispiellosen Siegeszug hingelegt. Den Forschenden hat das ein gewisses Selbstbewusstsein gegeben. »Jeder wusste, dass es eigentlich die beste Methode ist«, sagt Fodor im Rückblick. Denn sie führt im Gegensatz zur datengetriebenen Methode nicht nur zum passenden Ergebnis, sondern kommt auch ohne Messdaten aus. »Es ist ein bisschen suboptimal, wenn man eine theoretische Berechnung machen möchte und gleichzeitig von tausenden experimentellen Messungen abhängig ist«, so der Physiker. Um eine Theorie wirklich überprüfen zu können, braucht man eine von Messungen unabhängige Vorhersage. »Sonst verwässert man das Konzept von Theorie und Experiment«, meint auch Wittig.
Eine Theorie, die nur der Computer versteht?
Aber wie genau lösen Supercomputer die eigentlich unlösbaren Gleichungen? Und wie können sich Physikerinnen und Physiker so sicher sein, dass sie dem Ergebnis trauen können?
Simulationen basieren in der Regel auf einer etablierten Theorie. Die BMW-Gruppe und auch die Fachleute in Mainz haben zum Beispiel Modelle genutzt, die auf der sogenannten Gitter-Quantenchromodynamik fußen, kurz Gitter-QCD: eine vereinfachte Version der Quantenfeldtheorie der starken Kernkraft. Der renommierte Physiker Kenneth Wilson hat diesen gitterbasierten Ansatz in den 1970er Jahren begründet, indem er die Raumzeit durch regelmäßig angeordnete Punkte ersetzte und so die Gleichungen vereinfachte. Zum Beispiel bleiben durch diesen Schritt viele der lästigen Unendlichkeiten aus, die sonst die quantenphysikalischen Berechnungen plagen und sehr mühsam entfernt werden müssen.
Trotz dieser Vereinfachung ist es nahezu unmöglich, Lösungen mit Stift und Papier zu erarbeiten. Deshalb stellten Computer von Anfang an ein unverzichtbares Werkzeug in der Gitter-QCD dar. Lange beschränkten allerdings die Kapazitäten der Hardware, was überhaupt möglich war. Noch im Jahr 1989 habe Wilson auf einer Konferenz verkündet, dass er die Gitter-QCD wegen ihrer Komplexität nicht weiterverfolgen würde, und so alle anderen Teilnehmenden vor den Kopf gestoßen, erzählt Wittig. Doch nur 15 Jahre später waren Computer leistungsstark genug, um erste relevante Simulationen zu bewältigen, beispielsweise um die Massen von allen Teilchen aus Quarks und Gluonen zu berechnen, die zuvor nur als Messungen bekannt waren.
Die Theorie hinter den Berechnungen der Anomalie des magnetischen Moments ist also gut bekannt, aber im Detail so komplex, dass Computersimulationen nötig sind, um überhaupt Ergebnisse aus ihr ableiten zu können. »Damit hat die Simulation einen gewissen experimentellen Status, weil man sich anguckt: Was kommt jetzt dabei raus? Ich weiß es noch gar nicht«, sagt der Wissenschaftsphilosoph Florian Boge von der Technischen Universität Dortmund. Doch während Beobachtungen Erkenntnisse liefern, die sich zu einer Theorie verallgemeinern lassen, läuft dieser Prozess bei Computersimulationen eigentlich umgekehrt ab: Computerprogramme erforschen die Theorie auf einer abstrakten Ebene und kommen so zu Ergebnissen, die sich anschließend mit Vorgängen in der Natur vergleichen lassen.
Was Simulationen auskochen, hat somit nur indirekt etwas mit dem realen Phänomen zu tun. Das gilt auch für die Anomalie des magnetischen Moments. Die Konfigurationen von Quantenfeldern, die der Computer in den Simulationen der Gitter-QCD berechnet, habe keine Entsprechung in der realen Welt, erklärt Wittig. Der Begriff »Simulation« sei daher ein bisschen irreführend: »Diese Berechnung, die wir anwenden, ist nicht als die Simulation einer physikalischen Realität von Quarks und Gluonen zu verstehen.« Man darf sich das Ganze also nicht wie eine digitale Nachbildung des Fermilab-Experiments im Computer vorstellen, bei der wie in einer Animation eine Quark-Blase um ein Myon herumwabert. Es ist eher wie die schriftliche Lösung einer mathematischen Gleichung, welche in der Theorie den Anteil der starken Kernkraft beschreibt. Damit diese abstrakte Rechnerei trotzdem mit der physikalischen Realität verbunden bleibt, gibt es reale Parameter als Ankerpunkte. Bei der Gitter-QCD sind das die Quarkmassen, die als feste Messgrößen einfließen.
Simulationen in der Teilchenphysik
In der Teilchenphysik sind Computersimulationen oft eine zusammengeschusterte bunte Mischung aus mehreren Einzelteilen: aus abstrakten (und meist vereinfachten) mathematischen Modellen, die teilweise durch schlichtes Ausprobieren angepasst wurden, und aus Parametern, die immer wieder auf den neuesten Stand der Forschung gebracht werden müssen. Besonders gut lässt sich das am Teilchenbeschleuniger CERN beobachten, wo Computersimulationen in nahezu allen Bereichen zum Einsatz kommen.
Jeder Lauf durch den Beschleuniger kostet wahnsinnig viel Zeit und Geld, vor allem wenn er misslingt. »Bevor ich jetzt das Experiment 1000-mal mache und gucke, ob das überhaupt klappt, lasse ich das einfach erstmal in der Simulation laufen«, sagt der Wissenschaftsphilosoph Florian Boge von der TU Dortmund. Forschende simulieren daher zunächst jeden Schritt – das Verhalten von Detektoren, von überschüssigen Teilchen, der Kollision und so weiter –, bevor sie ein Teilchen tatsächlich in den Ring schicken. Simulationen bestimmen zu großen Teilen, wie ein Experiment am CERN am Ende abläuft. All das bildet ein riesiges Geflecht aus verschiedenen Teilmodellen, die von vielen verschiedenen Teams über Jahrzehnte gebaut, ausprobiert, aktualisiert wurden. »Da kommen viele Faktoren zusammen: viele Personen, sehr viel Code, komplizierter Code, neue Versionen, neue Parameter-Fits, sodass am Ende keiner mehr so ganz den Überblick hat«, sagt Boge. Selbst die Schnittstellen seien nicht einheitlich, weshalb es teilweise Übersetzungsschwierigkeiten gebe. »Je komplizierter der Sachverhalt ist, desto komplizierter wird in der Regel auch die Simulation.«
Es ist nicht selbstverständlich, dass Forschende sich auf die Ergebnisse von Simulationen verlassen können. Wenn keiner mehr so ganz den Überblick hat, kann sich auch niemand so ganz sicher sein, dass alles mit rechten Dingen zugeht. Indem man den Computer als neuen Kollegen hinzubittet, gibt man zu einem gewissen Grad die Kontrolle an ihn ab. »Theorien können falsch sein, Experimente können falsch interpretiert werden, und genauso können Simulationen Fehlerquellen haben«, erklärt Boge. »Dessen sind sich die Forschenden aber bewusst.« Es gebe daher Mechanismen, die die Robustheit der Ergebnisse von Simulationen überprüfen.
Wie groß ist der Erkenntnisgewinn?
Beim magnetischen Moment des Myons können die Fachleute durchaus nachvollziehen, was ihr Algorithmus Schritt für Schritt macht, und entsprechende Unsicherheiten transparent angeben. Die Theory Initiative griff nicht ohne Grund erst auf deren Ergebnisse zurück, als genügend Forschungsgruppen unabhängig voneinander ausreichend sichere Berechnungen liefern konnten. »Wir wollen paranoid sein, um sicher zu gehen, dass wir wirklich unsere Fehler verstehen«, erklärt El-Khadra.
Das allein reiche aber nicht aus, um zu wissenschaftlichen Erkenntnissen zu gelangen, meint Boge. »Am Ende steht immer noch die Frage: Wie viel Weltverstehen generiere ich damit, dass ich den Code verstanden habe?« Denn nicht nur die Kontrolle kann verloren gehen. Wenn der Computer übernimmt, wo die Menschen nicht weiterwissen, kann auch jene Einsicht abhandenkommen. Die Philosophie spricht in Fällen, in denen man Erkenntnisprozesse nicht mehr vollständig nachzuvollziehen kann, von »epistemischer Opazität« – und Computersimulationen sind anfällig für diese Undurchsichtigkeit. Sie können mit ihren Berechnungen nicht das wissenschaftliche Verständnis ersetzen, das Forschende in ihrer theoretischen Arbeit erreichen wollen.
Diese Schwierigkeit kennt auch Zoltán Fodor. 2008 hatte er mit seinem Team eine enorm wichtige Vermutung mit einer Simulation bestätigt: die Yang-Mills-Masselücken-Vermutung, die vereinfacht ausgedrückt besagt, dass es in der Natur keine ungebundenen, masselosen Gluonen gibt. Dieses Problem aus der mathematischen Physik gehört zu den sieben bedeutendsten Forschungsfragen des Fachs, den »Millennium-Problemen«, für deren Lösung das Clay Mathematics Institute im Jahr 2000 ein Preisgeld von jeweils einer Million US-Dollar ausgeschrieben hat. Der Physiker und seine Kollegen konnten mit ihrer numerischen Berechnung zwar die Vermutung bestätigen: »Die Million haben wir aber nicht bekommen, weil das mathematisch betrachtet kein Beweis ist.«
Etwas nachrechnen zu lassen, heißt eben nicht, dass man es auch analytisch durchdrungen und somit mathematisch rigoros bewiesen hat – und nur für einen solchen sauberen Beweis ist die Million ausgeschrieben. »Bei dem magnetischen Moment des Myons ist es ebenfalls so, dass es mathematisch betrachtet keine saubere Lösung ist, doch es ist mit an Sicherheit grenzender Wahrscheinlichkeit eine richtige Rechnung.« Und die Welt habe nun mal nicht auf einen mathematischen Beweis gewartet, sondern auf dieses Ergebnis, um es mit dem experimentell gewonnenen Wert vergleichen zu können, so Fodor.
»Simulationen übernehmen nicht die Teilchenphysik. Sie ersetzen keine Theorie – erweitern die Methoden, mit denen wir die Theorie studieren können«Aida El-Khadra, theoretische Teilchenphysikerin
»Es gibt Leute in der Teilchenphysik, die sagen: Mir ist es nicht so wichtig, eine Zahl herauszubekommen, sondern ich will verstehen, warum etwas so ist, wie es ist«, erklärt Hartmut Wittig. Beim Myon bedeutet diese Zahl allerdings einen großen Fortschritt, da man nun weitestgehend ausschließen kann, dass sich in ihr die gesuchten unbekannten Teilchen verstecken. Computersimulationen seien daher ein wichtiges neues Werkzeug, meint auch El-Khadra. Sie verändern aber nicht im Kern, wie theoretische Physik gemacht werde. »Simulationen übernehmen nicht die Teilchenphysik. Sie ersetzen keine Theorie – erweitern die Methoden, mit denen wir die Theorie studieren können.«
Genau hier sieht auch Florian Boge die Stärke von Computersimulationen. Mit ihnen könne man unklare Bereiche in einer Theorie überbrücken und Verbindungen für neues Verständnis schaffen. »Da gibt es eine verlässliche Methode, um auf ein Ergebnis zu kommen, und ich verstehe zwar vielleicht nicht im Detail, was passiert, aber ich verstehe, dass diese Verbindung besteht«, führt der Wissenschaftsphilosoph aus, »und das hilft mir auch weiter, etwas Neues zu verstehen.« Computersimulationen können eine wichtige dritte Säule neben Theorie und Experiment bilden, solange sie diese Neugier, die am Anfang einer jeden wissenschaftlichen Idee steht, nicht ersetzen. »Es gibt jetzt die Möglichkeit zu sagen: Es ist mir egal, wie die Welt funktioniert – Hauptsache, ich kann sie kontrollieren. Dann könnte man den Computer einfach machen lassen, der gibt mir ein Ergebnis aus, und ich bin zufrieden. Die meisten Forschenden haben aber mit all dem angefangen, weil es sie einfach interessiert. Sie wollen wissen, was dahintersteckt.« Ob es sich dabei um grenzensprengende neue Physik handelt oder um die Bestätigung dessen, was wir schon kennen, spielt für den Erfolg der Wissenschaft am Ende gar keine Rolle.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.