Direkt zum Inhalt

Neutrinos - die perfekte Welle: Hinein in die Wildnis der Teraskala

Seit dem 3. Juni 2015 produziert der Large Hadron Collider (LHC) – die größte von Menschenhand erbaute Maschine aller Zeiten ‒ Teilchenkollisionen mit 13 TeV Schwerpunktsenergie.
Der Tunnel des LHC

Seit dem 3. Juni 2015 produziert der LHC – die größte von Menschenhand erbaute Maschine aller Zeiten ‒ Teilchenkollisionen mit 13 TeV Schwerpunktsenergie.

Die Energie der ersten Laufzeit mit 7 bzw. 8 TeV wird damit nahezu verdoppelt. Wie die Pioniere des amerikanischen Westens betreten wir damit Neuland: eine Wildnis, von der wir nicht wissen, was genau uns erwartet, aber in der wir hoffen, spannende neue Physik zu finden. Das Hierarchieproblem und die Frage nach der dunklen Materie liefern dafür starke Indizien.

Besonders interessant ist dabei sicher eine genauere Vermessung des Higgs-Sektors. Da das Higgs–Feld anderen Teilchen die Masse gibt, koppelt das dazugehörige Higgs-Boson mit schweren Teilchen besonders stark. Das macht die Suche z. B. nach Dunkle-Materie-Teilchen in Higgs-Zerfällen besonders vielversprechend.

Aber besteht dabei ein Zusammenhang mit Neutrinos? Für diese Vermutung gibt es gute Gründe, und diese folgen direkt aus einem 700 Jahre alten Leitsatz, der als »Ockhams Rasiermesser« oder »Ockhams Skalpell« bekannt ist: »Entia non sunt multiplicanda praeter necessitatem« oder »Dinge sind nicht ohne Not zu vervielfachen«. William von Ockham, ein englischer Franziskanermönch im 14. Jahrhundert, der wegen seiner Aufmüpfigkeit vom Papst exkommuniziert wurde, wollte damit sagen, dass unter vielen möglichen Lehren die einfachste die beste sei – diejenige also, welche die wenigsten Dinge zur Erklärung eines Sachverhalts einführt. Dieses Prinzip wird bis heute in der Wissenschaft hochgehalten und es hat zentrale Bedeutung für die zu erwartende Rolle der Neutrinophysik am LHC. Denn einerseits liefern Neutrinos den bisher einzigen Hinweis auf neue Physik jenseits des Standardmodells. Und andererseits erwarten wir neue Physik jenseits des Standardmodells am LHC. Nach Ockham ist es also nur natürlich anzunehmen, dass die neue Physik bei den Neutrinos und am LHC etwas miteinander zu tun haben werden.

Ein weiterer Hinweis, dass die Physik der Neutrinomassen-Erzeugung am LHC eine Rolle spielen könnte, folgt aus dem Theorem, das Martin Hirsch von der Universität Valencia zusammen mit Sergey Kovalenko und Ivan Schmidt von der Universität Federico Santa Maria im chilenischen Valparaiso 2006 hergeleitet hat: Die Existenz von Majorana-Neutrinos und das Vorkommen von neutrinolosem Doppelbetazerfall haben automatisch auch andere die Leptonzahl verletzende Prozesse zur Folge, z. B. die Erzeugung von zwei Leptonen gleicher Ladung am LHC, das sog. Like-Sign-Dilepton-Signal. Auch wenn die genaue Rate der Prozesse nicht vorhersagbar ist, ist damit ihre bloße Existenz doch auf jeden Fall schon einmal eine ermutigende Tatsache.

Und konkretere Vorstellungen, wie sich Neutrinophysik am LHC zeigen könnte, gibt es durchaus auch. Man kann dabei von fünf Wissensgrenzen sprechen, die wir am LHC auskundschaften können (Abb. 16.1, in dieser Leseprobe nicht enthalten).

Die Vereinheitlichungs-Grenze

Typischerweise liegen die Energieskalen, an denen sich eine GUT-Theorie oder gar eine Quantengravitationstheorie wie die Stringtheorie zeigen würden, bei Energien von 1016 bis 1019 GeV, also 13 bis 16 Zehnerpotenzen über der TeV- oder Teraskala, die jetzt vom LHC erforscht wird. In Modellen mit Extra-Dimensionen oder bei Stringtheorien, die die Äquivalenz (Dualität) von Theorien mit einer verschiedenen Anzahl von Raumdimensionen ausnutzen, kann diese Skala aber durchaus niedriger liegen. Wenn Neutrinomassen mit der Physik einer solchen Skala verknüpft wären, könnte man den zugrunde liegenden Mechanismus der Neutrinomassen-Erzeugung dann direkt am Beschleuniger untersuchen. Aber auch in Theorien, bei denen die Vereinheitlichung an einer großen Energieskala realisiert wird, kann die Neutrinomassen-Erzeugung an der TeV-Skala stattfinden.

Ein Beispiel dafür wären Neutrinomassen, die durch Teilchenschleifen oder Loops mit Leptoquarks (siehe Kap. 11) erzeugt werden, den Teilchen, die Quarks und Leptonen ineinander umwandeln können. Dabei können die beteiligten Leptoquarks zusätzlich auch für andere Prozesse verantwortlich sein, u. a. für eine Verletzung der sog. Leptonuniversalität, also eine – im Gegensatz zur Standardmodellvorhersage – Messung unterschiedlicher Raten bei der Produktion von Teilchen aus verschiedenen Generationen. Solche Prozesse könnten experimentelle Anomalien im LHCb -Experiment erklären, wie zuerst 2014 von Gudrun Hiller und Martin Schmaltz gezeigt wurde. Die Beziehungen zur Neutrinophysik wurden dann von meinem Doktoranden Erik Schumacher untersucht.

Ein anderes Beispiel ist das 1978 von Yoav Achiman und Berthold Stech von der Uni Heidelberg vorgeschlagenen Trinification-Modell, das im Gegensatz zu typischen GUTs jeweils drei identische Urteilchen und Urkräfte vorhersagt. In SUSY-Modellen heben sich solche Quantenfluktuationen – wie bei der Higgs-Masse zur Lösung des Hierarchieproblems auch gewünscht – oberhalb der Energieskala weg, an der SUSY-Teilchen erzeugt werden können. Derartige Theorien benötigen also einen Mechanismus zur Erzeugung von Neutrinomassen an oder unterhalb der Massenskala der SUSY-Teilchen, wie den inversen Seesaw. Ein solches Modell habe ich 2010 zusammen mit Sören Wiesenfeldt von der Helmholtz-Gesellschaft und meinem Doktoranden Christophe Cauet untersucht.

Die Majorana-Grenze

Ist das Neutrino nun ein Majorana-Teilchen oder nicht? Die beste Möglichkeit, das herauszufinden, besteht in der Suche nach neutrinolosem Doppelbetazerfall. Aber sobald man neutrinolosen Doppelbetazerfall misst, weiß man zwar – nach dem Schechter-Valle-Theorem –, dass Neutrinos Majorana-Teilchen sind. Man kann aber noch nicht sagen, welche die Leptonzahl verletzende Physik den Zerfall ausgelöst hat und wie sie mit dem Mechanismus der Neutrinomassen-Erzeugung zusammenhängt – daran hat z. B. Silvia Pascoli in ihrem Vortrag auf einem Workshop 2006 im indischen Bhubaneswar, abgehalten in einem Institut inmitten von Slums, erinnert. Um darüber Aufschluss zu gewinnen, kann man Doppelbetazerfall in verschiedenen Isotopen messen, wie ich zusammen mit Frank Deppisch (damals Universität Manchester) und kurz darauf auch Steve Elliott und Victor Gehman vom Los Alamos Labor untersucht haben. Aber das ist experimentell schwierig und nur in wenigen Fällen Erfolg versprechend. Eine möglicherweise bessere Methode besteht darin, die Like-Sign-Dilepton-Zerfälle, die in dem jeweiligen Modell am LHC auftreten müssten, zu studieren und mit einem Signal für neutrinolosen Doppelbetazerfall zu vergleichen.

Zusammen mit Ben Allanach und seinem Doktoranden Steve Kom von der Cambridge University haben wir diese Signale in einem Supersymmetriemodell untersucht und vielversprechende Ergebnisse gefunden. In einer modellunabhängigen Studie zusammen mit Martin Hirsch, Sergey Kovakenko und Juan Carlos Helo Herrera konnten wir später zeigen, dass in Fällen, wo der Prozess durch die Produktion schwerer Teilchen verursacht wird, der LHC meistens sogar noch empfindlicher als neutrinoloser Doppelbetazerfall ist.

Ein besonders interessante Entdeckung in diesem Zusammenhang machten 2014 auch Frank Deppisch, Julia Harz und Martin Hirsch: Sollte man eine solche Leptonenzahlverletzung am LHC entdecken, müsste der Prozess auch im frühen Universum so wirksam sein, dass er eine in der Leptogenese erzeugte kosmologische Leptonasymmetrie auswaschen würde. Leptogenese wäre damit als Kandidat für eine erfolgreiche Baryogenese ausgeschlossen. Aber damit nicht genug:

Wie Wei-Chih Huang und ich kurz darauf zusammen mit Deppisch, Harz und Hirsch zeigen konnten, würden die in Kap. 11 diskutierten Sphaleronprozesse kombiniert mit der Leptonenzahlverletzung dann sogar eine beliebig erzeugte Baryonasymmetrie auswaschen. Die Idee selbst beruht dabei auf der Verallgemeinerung einer Arbeit von Fukugita und Yanagida von 1990, die allerdings weitgehend in Vergessenheit geraten war.

Die Konsequenz des Ganzen ist: Eine Entdeckung von Leptonenzahlverletzung am LHC oder (durch den Austausch schwerer Teilchen vermittelt) im neutrinolosen Doppelbetazerfall würde jeden beliebigen Mechanismus zur Erzeugung der Baryonasymmetrie unwirksam machen, zumindest wenn er bei den sehr hohen Energien im frühen Universum ablaufen würde. Damit stehen Doppelbetazerfall, LHC-Physik und Kosmologie in einer ungeahnt engen Beziehung!

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.