Direkt zum Inhalt

Quantenfeldtheorie: Die Grundkräfte der Welt

Seit mehr als 90 Jahren fußt die Teilchenphysik auf Quantenfeldtheorien, allerdings bereitet der Ansatz Fachleuten viele Probleme. Deshalb haben sie ausgeklügelte Tricks entwickelt, um den hartnäckigen Gleichungen doch noch einige Geheimnisse zu entlocken.
Quantenwelt

Anfang des 20. Jahrhunderts geriet die Physik ins Schwanken. Prinzipien, die unantastbar schienen, wurden verworfen, und das herkömmliche Weltbild nahm völlig neue Züge an: So schockierte Albert Einstein mit seinen Relativitätstheorien, wonach Raum und Zeit keineswegs statisch sind, sondern sich dehnen und krümmen lassen. Etwa zur selben Zeit wandelte sich mit der Entstehung der Quantenmechanik auch die Vorstellung vom Mikrokosmos. Die Grenzen zwischen Teilchen und Wellen verschwammen, zudem wirkte die Natur nicht mehr länger deterministisch, sondern vom Zufall bestimmt. Handfeste Beobachtungsgrößen wie die Geschwindigkeit oder der Aufenthaltsort eines Objekts mussten einer Wahrscheinlichkeitsverteilung weichen.

Obwohl die neuen Konzepte unserer alltäglichen Erfahrung widerstreben, beschreiben sie das Universum erstaunlich gut. Doch schnell fiel Fachleuten auf, dass sich einige Phänomene nicht auf diese Weise erklären lassen. Ein Beispiel dafür ist die spontane Emission, die Albert Einstein bereits 1917 vorhersagte und die Grundlage für Laser bildet: Ein angeregtes Atom strahlt irgendwann ein Energiepäckchen aus, ein so genanntes Photon, um in den Grundzustand überzugehen. Dieser Vorgang lässt sich mit der reinen Quantenmechanik nicht erklären, denn diese setzt eine feste Teilchenzahl voraus. Bei der spontanen Emission ist das jedoch nicht der Fall. Während es anfangs bloß ein angeregtes Teilchen gibt, besteht der Endzustand aus einem Atom und einem Photon.

Da die bisherige Quantenphysik nicht genügte, um alle Teilchenphänomene zu beschreiben, entwickelte Paul Dirac in den 1920er Jahren einen umfangreicheren Formalismus. Dabei orientierte er sich an der Vorgehensweise, die seine Kollegen nutzten, um aus der klassischen Mechanik die Quantenmechanik abzuleiten, und weitete die Prinzipien für elektromagnetische Felder aus. Dieser Vorgang wird daher oft als zweite Quantisierung bezeichnet.

Möchte man eine klassische Theorie wie die Mechanik »quantisieren«, ersetzt man Beobachtungsgrößen wie Ort, Impuls oder Energie durch so genannte Operatoren. Diese entsprechen Matrizen, die unter Umständen unendlich viele Zeilen und Spalten besitzen können. Damit spiegeln sie die Tatsache wider, dass Teilchen mehrere Zustände gleichzeitig annehmen können: Ein Elektron hat beispielsweise überall im Raum eine gewisse Aufenthaltswahrscheinlichkeit. Aus der Schrödingergleichung lässt sich bestimmen, wie sich ein System zeitlich entwickelt. Die berühmte Formel enthält Wellenfunktionen, die den Zustand eines Systems wiedergeben. Hieraus lassen sich etwa die Orbitale des Wasserstoffatoms berechnen.

Das physikalische Weltbild im Wandel

Dirac erweiterte dieses Bild, indem er die elektromagnetischen Felder und die Wellenfunktionen durch mathematische Operatoren ersetzte. Das war der Anfang der Quantenfeldtheorie des Elektromagnetismus, der Quantenelektrodynamik (kurz: QED), die das Weltbild abermals wandelte: Nun standen nicht mehr Teilchen und Kräfte im Fokus, sondern Quantenfelder, die unsere gesamte Raumzeit durchziehen.

Solche Felder können miteinander und sogar mit sich selbst wechselwirken, wodurch Partikel wie Elektronen oder Quarks entstehen – und wieder verschwinden. Weil der neue Formalismus viele bis dahin unverstandene Phänomene erklärte, fand er schnell zahlreiche Befürworter. Doch wenige Zeit später offenbarten sich die ersten Schwierigkeiten, und die Begeisterung ebbte ab. Solche Höhen und Tiefen haben sich in den folgenden Jahrzehnten häufig wiederholt. Selbst heute noch birgt der Ansatz hartnäckige Probleme – vor allem wenn starke Wechselwirkungen beteiligt sind.

Durch die zweite Quantisierung gelang es Dirac, die spontane Emission zu erklären. Bis dahin verlangten die physikalischen Gesetze ein äußeres elektromagnetisches Feld, damit ein angeregtes Atom ein Photon ausstrahlt. Spontane Emission findet hingegen im Vakuum statt. Indem man elektromagnetische Felder quantenphysikalisch betrachtet, ergeben sich dafür Prinzipien wie die heisenbergsche Unschärferelation. Demnach ist es nicht möglich, Energie und Zeit beliebig genau zu messen – das heißt, die Stärke eines Felds kann kurzzeitig um winzige Werte schwanken. Diese reichen aber schon aus, damit ein angeregtes Atom ein Photon ausstrahlt, um in den Grundzustand zurückzukehren.

Spontane Emission | Ein angeregtes Atom kann auch ohne äußeres elektromagnetisches Feld irgendwann in den Grundzustand übergehen, indem es ein Photon ausstrahlt. Um diesen Vorgang theoretisch zu beschreiben, braucht man eine Quantenfeldtheorie.

Die anschauliche Erklärung konnte Dirac mit mathematischen Berechnungen unterfüttern. Doch die Gleichungen, die sich durch die zweite Quantisierung ergeben, erwiesen sich als zu komplex, um sie exakt lösen zu können. Daher traf er eine Vereinfachung: Er nahm an, dass das Atom nur sehr schwach mit dem elektromagnetischen Feld wechselwirkt. Das ermöglichte es ihm, auf ein nützliches Rechenverfahren zurückzugreifen, das eine komplizierte Funktion in der Nähe eines Punkts vereinfacht.

Das lässt sich zum Beispiel auf die Sinusfunktion anwenden. Diese kann unter Umständen schwer zu bestimmen sein – gerade, wenn man keinen Taschenrechner hat, um ihre Werte zu berechnen. Ist man aber nur an Ergebnissen interessiert, die der Sinus für kleine x annimmt, kann man die Funktion in dieser Umgebung durch eine Gerade nähern: f(x) = x. Die Werte von sin(x) und x unterscheiden sich in diesem Bereich kaum voneinander (sin(0) = 0, sin(0,05) = 0,04997…). Um genauere Resultate zu erzielen, kann man weitere Terme hinzuziehen: f(x) = x – x3/6 (für x = 0,05 ergibt das 0,04997…). Einer einfachen Vorschrift folgend kann man immer mehr Terme finden, wodurch das Ergebnis in der Umgebung des betrachteten Punkts zunehmend genauer wird.

In der Physik lässt sich mit komplizierten Ausdrücken auf ähnliche Weise verfahren. Wenn sich ein Teil einer Gleichung beispielsweise nicht exakt lösen lässt, kann man ihn – sofern er nur kleine Beiträge liefert – durch einfachere Terme annähern. Dieser Ansatz ist als Störungstheorie bekannt und hat sich in vielen Bereichen als äußerst nützlich erwiesen.

Taylorreihe | Die einfachste Methode, sich einer komplizierten Funktion zu nähern, ist das Taylor-Verfahren, auf dem auch die in der Physik genutzte Störungstheorie basiert. Damit lassen sich Funktionen wie der Sinus (schwarz) nähern. Je mehr Terme man berücksichtigt (rot: einer, orange: zwei, gelb: drei und so weiter), desto besser bildet der Ansatz die gesamte Lösung ab.

Dirac behandelte in seinen Berechnungen die Wechselwirkung zwischen dem elektromagnetischen Quantenfeld und dem Atom als kleine Störung und ersetzte den komplizierten Ausdruck daher zunächst durch den ersten Teil einer Näherung. Damit konnte er die spontane Emission beschreiben. Als seine Kollegen allerdings weitere Terme hinzuziehen wollten, um mehr Genauigkeit zu erlangen und vielleicht noch unbekannte Prozesse vorherzusagen, stießen sie auf Probleme. Denn einige der dabei entstehenden Ausdrücke nahmen unendliche Werte an. Das stürzte die Quantenfeldtheorie in ihre erste Krise, viele Physiker wandten sich in der Folge von ihr ab und verfolgten andere Ansätze, um unsere Welt zu beschreiben.

Das Vakuum ist nicht leer

Ein Term, der beispielsweise zu Schwierigkeiten führt, beschreibt die so genannte Vakuumpolarisation: Ein freies Photon kann spontan in ein Elektron-Positron-Paar zerfallen, das sich gleich darauf wieder zu einem Lichtteilchen zusammenfügt. Während ihres kurzen Daseins können das Teilchen und das Antiteilchen allerdings jede beliebige Energie annehmen – sie sind nicht durch die Eigenschaften des ursprünglichen Photons begrenzt. Grund dafür ist wieder die heisenbergsche Unschärferelation, wonach sich Energie und Zeit niemals genau auflösen lassen. Die Natur kann sich also kurzzeitig Energie »borgen«; je kürzer der Zeitraum, desto höher fällt der verfügbare Betrag aus. Das macht eine quantenphysikalische Berechnung aber fast unmöglich: Denn darin berücksichtigt man alle möglichen Energiebeiträge, indem man sie gewichtet addiert. In diesem Fall konvergiert die Summe nicht gegen einen festen Wert, sondern wird unendlich. Neben der Vakuumpolarisation gibt es viele weitere störungstheoretische Terme, die solche Unendlichkeiten verursachen.

Vakuumpolarisation | Ein Photon zerfällt kurzzeitig in ein Elektron-Positron-Paar, das sich schnell wieder vernichtet – übrig bleibt wieder ein Photon. Dieser Prozess findet in der Natur offenbar statt, doch wenn man die Wahrscheinlichkeit dafür berechnen möchte, stößt man auf Unendlichkeiten.

Doch in den 1950er Jahren fanden die Physiker Julian Schwinger, Richard Feynman, Freeman Dyson und Shinichiro Tomonaga einen Ausweg, um mit den problematischen Termen umzugehen: Sie entwickelten ein Verfahren, das inzwischen als Renormierung bekannt ist. Der Grundgedanke ist dabei, dass die Konstanten einer Theorie wie Teilchenmasse oder elektrische Ladung, die in den Gleichungen auftauchen, in Wirklichkeit nicht den experimentellen Messwerten entsprechen. Denn die Masse und die Ladung, die man in einem Versuch beobachtet, werden ebenfalls durch Prozesse auf quantenphysikalischer Ebene beeinflusst.

Ein Punktteilchen wie ein Elektron erzeugt durch seine Ladung ein elektrisches Feld, das in kleinen Abständen riesige Werte annimmt. Dadurch wird das Vakuum in diesem Bereich angeregt, es entstehen ständig Teilchen-Antiteilchen-Paare, die sich schnell wieder vernichten. Während ihrer Existenz richten sie sich aber ihrer Ladung entsprechend aus. Das Positron schirmt dann einen Teil des Felds ab. Dieser Effekt führt dazu, dass die gemessene Elektronenladung von außen betrachtet niedriger erscheint, als sie im »nackten« Zustand (ohne Quanteneffekte) wäre.

Da die Gleichungen der Quantenfeldtheorie aber genau solche Prozesse enthalten, müsste man die nackten Größen wie Ladung und Masse in die ursprünglichen Formeln einsetzen – also die Werte, die sie ohne Wechselwirkungen haben. Diese wird man jedoch niemals durch ein Experiment bestimmen können: Dafür muss man unendlich nah an ein Teilchen herankommen, was unbegrenzte Energiereserven erfordert.

Renormierung | Messgrößen wie die Ladung eines Teilchens entsprechen nicht ihren tatsächlichen (»nackten«) Werten. Weil das Vakuum nicht leer ist und aus vielen kurzzeitig erscheinenden Teilchen-Antiteilchen-Paaren besteht, schirmen diese die Ladung eines Elektrons ab. Je mehr man sich dem Teilchen nähert, desto größer erscheint sie. Solche Effekte muss man berücksichtigen, wenn man die Gleichungen der Quantenfeldtheorien auswertet.

Was auf den ersten Blick wie ein weiteres Problem erscheint, ist aber tatsächlich Teil der Lösung. Dafür hilft man sich mit einem einfachen Trick. Da die Werte einer Theorie bei bestimmten Abständen oder Energieskalen bekannt sind, formuliert man die Gleichungen gemäß dieser Größen um – und zieht entsprechende Terme ab, so genannte Gegenterme, damit das Ergebnis so ausfällt, als würde man die nackten Größen kennen. Im Prinzip fügt man eine »intelligente Null« ein, zum Beispiel indem man a2 + b2 durch (a + b)2 – 2ab ersetzt.

Die Gleichung der Quantenfeldtheorie besteht somit aus einem ersten Teil, der nur von den bekannten Messgrößen abhängt, und einem Gegenterm, den man davon abzieht. Nähert man Ersteren durch die Störungstheorie, entstehen die bereits angesprochenen Unendlichkeiten. Indem man aber auch die Gegenterme auf diese Weise behandelt, heben sich die problematischen Gleichungen des ersten Teils auf. Die unendlichen Beiträge verschwinden also, sobald man berücksichtigt, dass die Größen, die wir im Labor messen, nicht den nackten Parametern der Theorie entsprechen.

Insofern funktioniert Renormierung wie eine Art Mikroskop. Abhängig von der Auflösung (der Energie- beziehungsweise Längenskala) sehen die »Konstanten« einer Theorie (die in Wirklichkeit veränderlich sind) unterschiedlich aus. Die Störungstheorie gepaart mit der Renormierung führte zu Ergebnissen mit erstaunlicher Genauigkeit: Unter anderem ist es dadurch möglich, die Stärke der elektromagnetischen Wechselwirkung bis zur zehnten Nachkommastelle zu berechnen. Tatsächlich stimmen die Resultate bis in dieses Detail mit den experimentellen Messwerten überein. Das – und viele andere beeindruckende Ergebnisse – macht die Quantenelektrodynamik zur am besten überprüften Theorie der Naturwissenschaften.

Die meisten Physikerinnen und Physiker zeigten sich begeistert. Dank der Renormierung konnten sie nicht nur die lästigen Unendlichkeiten loswerden, sondern sie hatten auch eine Erklärung dafür, warum sie überhaupt auftreten. Dennoch behagte einigen ein entscheidender Punkt nicht: Wie der renommierte Physiker Richard Feynman betonte, kann man auf diese Weise nicht die Details eines Systems, etwa die Masse oder Ladung eines Teilchens, berechnen. »Es gibt keine Theorie, die diese Werte adäquat erklärt. Wir verwenden die Zahlen in all unseren Modellen, aber wir verstehen sie nicht: was sie sind oder woher sie kommen«, schrieb Feynman 1985.

Welche Größen haben die »nackten« Eigenschaften von Teilchen?

Doch nicht nur das: Nimmt man die QED ernst, müssten sowohl die nackte Ladung als auch die Masse des Elektrons unendlich groß sein. Selbiges ergibt sich für die Stärke der elektromagnetischen Wechselwirkung auf sehr kleinen Skalen. Davon ließen sich die meisten Fachleute aber nicht beunruhigen. Denn es war von Anfang an klar, dass die Quantenelektrodynamik unsere Welt nicht vollständig beschreibt. Schließlich enthält die Theorie bloß elektromagnetische Prozesse und lässt alle anderen Grundkräfte außer Acht.

Einige Forscherinnen und Forscher befürchteten jedoch, die QED sei in dieser Hinsicht keine Ausnahme und die Werte nackter Größen würden in allen Quantenfeldtheorien unendlich. In einem solchen Fall hätte man zwar eine passende theoretische Beschreibung gefunden, wäre aber immer auf Experimente angewiesen, um etwas konkret zu berechnen.

Glücklicherweise waren die Befürchtungen unbegründet. 1974 bewiesen Frank Wilczek, David Politzer und David Gross, dass die starke und die schwache Kernkraft bei winzigen Abständen immer schwächer wird. Je höher die Energie, desto mehr ähnelt das System einer freien Theorie ohne Wechselwirkungen. Dieses Ergebnis, für das die drei Physiker 2004 den Nobelpreis erhielten, erscheint auf den ersten Blick äußerst überraschend. Die starke Kernkraft zeichnet sich dadurch aus, dass sie ihren größten Einfluss auf kleinen Abständen entfaltet. Sie hält die Protonen und Neutronen (genauer genommen die Quarks, aus denen sie bestehen) im Inneren von Atomkernen zusammen und ist dafür verantwortlich, dass Atome überhaupt existieren. Damit wirkt sie der elektromagnetischen Kraft entgegen, welche die Nukleonen auseinandertreibt. Auf größeren Distanzen hat die starke Kernkraft hingegen keinerlei Einfluss mehr – nicht einmal innerhalb von Molekülen ist sie spürbar.

Demnach nimmt die Kraft eine ungewöhnliche Form an: Zwei Quarks, deren Abstand erheblich kleiner ist als der Radius eines Protons, sind kaum von ihr betroffen; entfernen sie sich voneinander, kleben sie ab einer bestimmten Distanz regelrecht zusammen, so dass es unmöglich wird, sie zu trennen. Tatsächlich gibt es für dieses Verhalten eine anschauliche Erklärung, die auf den Bausteinen der starken Kernkraft fußt.

Der große Unterschied zwischen dieser Grundkraft und dem Elektromagnetismus besteht in den Teilchen, welche die entsprechenden Wechselwirkungen übermitteln. In der Quantenelektrodynamik sind Photonen dafür verantwortlich, dass sich gleiche Ladungen abstoßen, während in der Quantenfeldtheorie der starken Kernkraft, der so genannten Quantenchromodynamik (kurz: QCD), Gluonen die Atomkerne zusammenhalten.

Protonen und Neutronen bestehen aus jeweils drei Quarks, die neben einer elektrischen Ladung auch eine von drei Farbladungen besitzen: rot (r), grün (g) oder blau (b); Antiquarks haben »Antifarben«, antirot, antigrün, antiblau. Sie bilden das Analogon zur elektrischen Ladung in der Elektrodynamik. Alle beobachtbaren Teilchen, die aus Quarks aufgebaut sind, haben eine neutrale Farbladung, das heißt, sie bestehen entweder aus einem roten, einem blauen und einem grünen Quark oder aus einem Quark und einem Antiquark entgegengesetzter Farbladung.

Während Photonen elektrisch neutral sind, besitzen Gluonen Farbladungen – sogar zwei gleichzeitig: eine Farbe und eine Antifarbe, etwa rot und antiblau. Um die nackten Eigenschaften eines Quarks zu bestimmen, muss man also nicht nur die Teilchen-Antiteilchen-Paare berücksichtigen, die in seiner Nähe entstehen und es abschirmen, sondern auch die dort befindlichen Gluonen. In der QED spielten die Photonen bei einem nackten Elektron keine Rolle, da sie weder Ladung noch Masse haben und somit die Merkmale des Teilchens nicht unmittelbar beeinflussen. Genau wie Elektron-Positron-Paare schirmen Quark-Antiquark-Paare ebenfalls die Farbladung eines nackten Quarks ab.

Gluonen hingegen verstärken und verändern sie. Ein blaues Quark erscheint dann zum Beispiel rot. Wie Wilczek, Politzer und Gross herausfanden, ist der Effekt so stark, dass die Farbladung eines Teilchens kleiner wird, je weiter man sich diesem nähert. Das heißt im Umkehrschluss: Je mehr Energie man aufbringt, um beispielsweise zwei Atomkerne aufeinanderzuschießen und die darin befindlichen Quarks dazu bringt, sich sehr nahezukommen, desto schwächer ist der Einfluss der starken Kernkraft.

Das unterscheidet die QED und die QCD grundlegend voneinander. Während sich elektromagnetische Prozesse auf größeren Distanzen und bei niedrigen Energien besser berechnen lassen, ist es bei der starken Kernkraft genau umgekehrt. Man kann die Störungstheorie nur bei enorm hohen Energien anwenden, zum Beispiel im Innern von leistungsstarken Teilchenbeschleunigern, die Partikel mit großer Wucht aufeinandertreffen lassen. Damit erzeugt man extreme Zustände, wie sie kurz nach dem Urknall in unserem Universum herrschten: Ähnlich wie stark erhitzte Materie, die unter Druck ein Plasma bildet, bei dem sich die Atomhülle von dem Kern löst, können am LHC in Genf Atomkerne ihre Struktur verlieren, wodurch die darin befindlichen Gluonen und Quarks fast frei herumfliegen.

Jenseits der Störungstheorie

Ist man hingegen an Phänomenen bei niedrigerer Energie interessiert, etwa dem so genannten Confinement, wonach Quarks immer nur als farblose Trios oder Duos auftauchen, versagt der störungstheoretische Ansatz. Die Wechselwirkungen sind in diesem Bereich so stark, dass man sie nicht mit einem solchen Näherungsverfahren behandeln kann. Es ist, als würde man die Sinusfunktion für kleine x nähern (sin(x) = x), aber dann für x = π auswerten: sin(π) = 0 – man erhält dadurch unsinnige Resultate.

Zwar ist die Störungstheorie ein überaus nützliches Werkzeug, das bereits erstaunlich präzise Ergebnisse geliefert hat. Doch zahlreiche Phänomene unserer Welt lassen sich damit nicht erklären. Daher haben Physikerinnen und Physiker weitere Methoden entwickelt, um sich den für sie bisher verschlossenen Bereichen starker Wechselwirkungen auf andere Weise zu nähern.

Möchte man beispielsweise im Rahmen der Quantenelektrodynamik untersuchen, was bei extrem hohen elektrischen Feldstärken passiert, verwendet man häufig eine so genannte semiklassische Näherung: Anstatt das gesamte System durch eine Quantenfeldtheorie zu beschreiben, nutzt man in diesem Fall eine klassische Formulierung des elektrischen Felds. Indem der deutsch-österreichische Physiker Fritz Sauter 1931 diese Betrachtungsweise wählte, stieß er auf einen erstaunlichen Effekt, der inzwischen nach Julian Schwinger benannt ist, der ihn 1951 vollständig berechnete. Bei derartigen Feldstärken, die künftige Laser in den kommenden Jahren erzeugen könnten, entstehen Teilchen gewissermaßen aus dem Nichts.

Denn das Feld erzeugt zahlreiche Elektron-Positron-Paare, wie in der Nähe eines nackten Partikels. Überschreitet die Feldstärke einen gewissen Wert, treibt sie die Paare auf Grund ihrer unterschiedlichen Ladung beschleunigt auseinander, wodurch sich die Teilchen nicht mehr gegenseitig vernichten können.

In der Folge verliert das elektrische Feld an Energie – denn diese bleibt im Gesamtsystem erhalten –, bis es zu schwach ist, um weitere Paare zu generieren. Physiker hoffen, schon bald durch den Schwinger-Effekt verursachte Schwankungen in der Feldstärke von leistungsstarken Lasern, wie sie gerade am europäischen X-Ray Free-Electron Laser (XFEL) in Hamburg entwickelt werden, messen zu können.

Der semiklassische Ansatz berücksichtigt zwar, wie ein äußeres Feld seine Umgebung beeinflusst, aber nicht, wie die Umgebung auf das Feld selbst einwirkt und es womöglich verändert. Daher verlieren solche Modelle schnell an Gültigkeit, insbesondere wenn man die starke Kernkraft damit beschreiben möchte. Denn dort sind die gegenseitigen Einflüsse von Feldern und Teilchen meist so hoch, dass eine solche Vereinfachung nicht gültig ist.

Möchte man die Quantenchromodynamik genauer im nicht störungstheoretischen Bereich untersuchen, wenden sich Fachleute daher anderen Methoden zu. Ein viel versprechendes Werkzeug ist auch in diesem Fall die Renormierung, die sich bereits bei der Störungstheorie als überaus nützlich erwiesen hat. Denn daraus lässt sich ein Ansatz entwickeln, der für starke Wechselwirkungen funktioniert: die funktionale Renormierungsgruppe, die eine Theorie wie eine Art Mikroskop bei verschiedenen Längen- und Energieskalen untersucht.

1993 entwickelte der Physiker Christof Wetterich, heute an der Universität Heidelberg, eine bemerkenswerte Formel, die angibt, wie sich die Gleichungen einer Theorie gemäß ihrer Skala ändern. Je nachdem, wie tief man in ein System hinein- oder herauszoomt, erhält man so die entsprechenden »effektiven« Beschreibungen. Möchte man zum Beispiel einen Atomkern untersuchen, ist es einfacher, Protonen und Neutronen als Grundbausteine zu behandeln (anstatt die vielen Gluonen und Quarks aufzulösen) und eine Kraft zwischen ihnen zu modellieren, die weniger kompliziert ist als die tatsächliche Kernkraft.

Bemerkenswerterweise ist die Wetterich-Formel exakt, das heißt, im Prinzip ließe sich damit für alle Skalen ein genaues Ergebnis berechnen. Jeder noch so kleine Effekt, der sich auf der Mikroebene abspielt, findet durch veränderte Parameter in der betrachteten effektiven Theorie seinen Platz. Der Zerfall eines Gluons in ein Quark-Antiquark-Paar kann beispielsweise den Wert der modellierten Kraft zwischen Neutronen und Protonen auf höherer Ebene leicht modifizieren.

In der Praxis ist die Wetterich-Gleichung jedoch zu kompliziert, um sie genau auszuwerten. Daher muss man auch in diesem Fall Vereinfachungen treffen. Anders als bei der Störungstheorie haben diese aber nichts mit der Stärke der Wechselwirkung zu tun. Stattdessen grenzt man zum Beispiel die möglichen Werte ein, welche die Parameter einer Theorie annehmen können. Ein Nachteil ist aber, dass es schwierig ist, den Fehler abzuschätzen, den die Vereinfachungen mit sich bringen. Daher gleichen Physikerinnen und Physiker die Ergebnisse der Methode mit experimentellen Messungen ab. Im Bereich der Quantenchromodynamik konnte die funktionale Renormierungsgruppe beispielsweise erklären, warum Nukleonen etwa zehnmal so schwer sind wie die Gesamtmasse der drei Quarks, aus denen sie bestehen. Ähnlich wie beim Higgs-Mechanismus, der einigen Elementarteilchen des Standardmodells ihre Masse verleiht, ist die Brechung einer bestimmten Symmetrie zwischen den Quarks dafür verantwortlich.

Standardmodell der Teilchenphysik | Die bekannteste Quantenfeldtheorie, das Standardmodell, beschreibt drei der vier bekannten Grundkräfte: den Elektromagnetismus (Photon, Elektron) sowie die starke (Quarks, Gluonen) und die schwache Kernkraft (Neutrinos, Muon, Tauon, Elektron, W- und Z-Bosonen). Zudem enthält es das Higgs-Boson, das über einen bestimmten Mechanismus einigen der Elementarteilchen ihre Masse verleiht.

Ein diskretes Modell von Raum und Zeit

Ein weiterer beliebter Ansatz, um stark wechselwirkende Quantenfeldtheorien zu untersuchen, ist die so genannte Gittereichtheorie. Dabei nähert man die kontinuierliche Raumzeit durch ein vierdimensionales Gitter an. Das Modell beschreibt dann Materieteilchen wie Quarks oder Elektronen, die sich auf den Gitterpunkten befinden, und kräftevermittelnde Partikel wie Photonen oder Gluonen, die sich entlang der Seiten bewegen. Dadurch ist sichergestellt, dass sich Teilchen nicht unendlich nahekommen können. Somit fallen die Unendlichkeiten weg, die sonst bei der Berechnung wechselwirkender Felder entstehen würden.

Auch diese Methode hat ihre Nachteile. Um solche Systeme zu untersuchen, müssen Physikerinnen und Physiker auf leistungsfähige Rechner zurückgreifen. Oftmals kann man dabei nur wenige Gitterpunkte in Betracht ziehen – und dennoch laufen die Simulationen häufig mehrere Tage bis Wochen lang. Zudem sind die zu Grunde liegenden Gleichungen zwar mathematisch wohldefiniert, doch man konnte bisher noch nicht beweisen, dass der Grenzfall eines sich immer stärker verdichtenden Gitters wirklich die kontinuierliche Theorie wiedergibt.

Möchte man mit dieser Methode Prozesse der Quantenchromodynamik untersuchen, fallen weitere Probleme an: Wenn ein System beispielsweise aus zahlreichen, dicht beieinander befindlichen Teilchen besteht, ergeben sich bei der Berechnung viele positive und negative Beiträge. Dadurch schwankt das Ergebnis stark mit jedem zusätzlichen Term.

Weil ein Computer nur eine begrenzte Rechenkapazität hat, macht das eine zuverlässige Auswertung unmöglich. Eine Lösung des Problems besteht darin, nur zwei statt drei Farbladungen zuzulassen – in diesem Fall gibt es keine derartigen Schwankungen. Allerdings lässt sich durch eine solche Vereinfachung nicht abschätzen, wie weit die Resultate von der Realität entfernt sind. Wie unterscheidet sich unsere Welt von einer, in der die starke Kernkraft eine Farbladung weniger besitzt?

Trotz dieser Einschränkungen hat sich die Gittereichtheorie bisher als die erfolgreichste Methode erwiesen, um die Quantenchromodynamik zu untersuchen. Man kann sowohl die Massen von Protonen vorhersagen als auch das geheimnisvolle Confinement, wonach sich nur Teilchen ohne Farbladung beobachten lassen: Versucht man beispielsweise ein Quark-Antiquark-Paar (q, aq) mit sehr viel Kraft auseinanderzuziehen, führt die starke Anziehung dazu, dass zwischen den ursprünglichen Partikeln ein weiteres Quark-Antiquark-Paar (q', aq') entsteht und ihre Farbladung abschirmt. Damit hat man zwei neue farblose Paare (q, aq') und (q', aq). Dieser Prozess lässt sich in Computersimulationen der Gittereichtheorie beobachten.

Confinement | Quarks tauchen meist nur im Doppelpack als Quark-Antiquark-Paar oder als Dreierkombination auf. Wenn man versucht, ein solches Teilchen-Antiteilchen-Duo voneinander zu trennen, muss man so viel Energie entgegen der starken Kernkraft, die sie zusammenhält, aufbringen, dass ein neues Quark-Antiquark-Paar entsteht.

Dennoch fehlt eine Erklärung, welche Aspekte einer Quantenfeldtheorie das Confinement verursachen. Zudem möchte man weitere offene Fragen beantworten: Warum haben Quarks verschiedene Massen? Weshalb unterscheiden sich die Stärken der Grundkräfte voneinander? Und allem voran: Wie passt die Schwerkraft in das Bild?

Obwohl Quantenfeldtheorien schon seit Jahrzehnten die Grundlage der Physik bilden, ist man weit davon entfernt, sie vollständig zu verstehen. Noch immer feilen Forscherinnen und Forscher an Methoden, um die komplizierten Gleichungen, die man bereits kennt, zu lösen – oder zumindest verlässlich zu nähern. Gerade wenn man stark wechselwirkende Systeme wie Quarks und Gluonen betrachtet, ist es extrem aufwändig, genaue Vorhersagen zu treffen.

Das verdeutlicht ein im September 2021 erschienenes Forschungsergebnis des CERN in Genf: Demnach sind bei einer Kollision von extrem schnellen Protonen im größten Teilchenbeschleuniger der Welt Tetraquarks entstanden, die aus zwei Charm-Quarks und zwei leichteren Antiquarks bestehen. Dass sich Quarks auch kurzzeitig in Viererkonstellationen zeigen, ist seit den frühen 2000er Jahren bekannt. Doch bisher kannte man nur die Kombinationen aus extrem schweren und extrem leichten Teilchen. Charm-Quarks besetzen hingegen eine mittlere Gewichtsklasse. Das stellt Physikerinnen und Physiker vor Probleme, denn die Berechnungen der Gitter-Quantenchromodynamik verbieten ein solches Tetraquark. Das heißt, durch die Annäherung der Raumzeit durch Gitterpunkte gehen wesentliche Details der Theorie verloren. Womöglich müsste man ein feineres Gitter für die Simulationen wählen. Dennoch zeigen sich Fachleute optimistisch, denn das Ergebnis kann ihnen den Weg weisen, welche Annäherungen berechtigt sind – und vor allem, welche nicht.

Den wohl härtesten Knackpunkt bildet jedoch die Schwerkraft. Erste Versuche, die Gravitation durch eine Quantenfeldtheorie auszudrücken und störungstheoretisch anzugehen, sind gescheitert. Denn die Unendlichkeiten, die sich durch diesen Ansatz ergeben, lassen sich anders als bei den übrigen Grundkräften nicht durch Renormierung lösen. Wie sich herausstellt, bräuchte man unendlich viele Gegenterme, damit sich die unphysikalischen Werte aufheben. Deshalb sind einige Fachleute davon überzeugt, Quantenfeldtheorien böten nicht den richtigen Rahmen, um die Schwerkraft zu beschreiben.

Andere zeigen sich optimistischer: Sie hoffen, ein nicht störungstheoretischer Ansatz könne das Problem aus der Welt räumen. Und tatsächlich gibt es Hinweise darauf, dass sich eine Quantengravitationstheorie mit Hilfe der funktionalen Renormierungsgruppe aufstellen ließe.

Ein besseres mathematisches Verständnis von Quantenfeldtheorien könnte auf jeden Fall dabei helfen, einige der offenen Fragen zu beantworten. Auch aus praktischer Sicht wäre eine formale Herangehensweise sinnvoll: Damit ließe sich wahrscheinlich besser abschätzen, wie zuverlässig nicht störungstheoretische Näherungen sind – gerade wenn man keine Experimente zur Hand hat, um die Vorhersagen zu überprüfen.

Schreiben Sie uns!

2 Beiträge anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Quellen

Haymaker, R. W.: Confinement studies in lattice QCD. Physics Report 315, 1999

LHCb collaboration: Observation of an exotic narrow doubly charmed tetraquark. ArXiv 2109.01038, 2021

Niedermaier, M., Reuter, M.: The asymptotic safety scenario in quantum gravity. Living Review Relativity 9, 2006

Wetterich, C.: Exact evolution equation for the effective potential. Physical Letters B 301, 1993

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.