Die fabelhafte Welt der Mathematik: Die bekanntesten Millennium-Probleme suchen noch eine Lösung

Im Jahr 1900 hielt der Mathematiker David Hilbert eine der berühmtesten Reden der Mathematikgeschichte. Auf dem Internationalen Mathematiker-Kongress in Paris stellte er 23 Probleme vor, die den Lauf der mathematischen Forschung im neuen Jahrhundert vorgeben sollten. Einige dieser Probleme wurden inzwischen gelöst, andere sind bis heute offen.
In Anlehnung an diese Jahrhundertrede stellte das Clay Institute of Mathematics 100 Jahre später, zur Jahrtausendwende, sieben Mathematik-Probleme vor – und lockte die Forschungsgemeinschaft mit Preisgeldern in Höhe von einer Million US-Dollar. In der vergangenen Woche habe ich die drei eher unbekannteren Aufgaben vorgestellt. In dieser Kolumne widme ich mich nun den »Stars« der Millennium-Probleme: der riemannschen Vermutung, dem P-versus-NP-Problem, der Yang-Mills-Existenz und der Lösbarkeit der Navier-Stokes-Gleichungen.
Sieben hartnäckige Rätsel
Am 24. Mai 2000 veröffentlichte das Clay Mathematics Institute eine Liste mit sieben mathematischen Problemen, deren Lösung es mit einer Million US-Dollar belohnt. Selbst nach einem Vierteljahrhundert sind sie ungelöst geblieben – bis auf eines.
2002 gelang es dem russischen Mathematiker Grigori Perelman, die Poincaré-Vermutung zu beweisen. Über die Fachwelt hinaus erstaunte jedoch seine darauf folgende Reaktion: Der Eigenbrötler lehnte das Preisgeld ab, genauso wie die ihm dafür verliehene Fields-Medaille, eine der größten Auszeichnungen der Mathematik.
Das wohl bekannteste der noch offenen Millennium-Probleme ist die riemannsche Vermutung, aus der unter anderem folgen würde, wie sich die Primzahlen auf dem Zahlenstrahl verteilen. An dieser etwa 160 Jahre alten Aufgabe haben sich bereits etliche Experten und Laien versucht, doch bisher sind alle Anläufe gescheitert.
Die Vermutung von Birch und Swinnerton-Dyer ist weniger verbreitet. Sie handelt von den Eigenschaften einer wichtigen Art von mathematischen Funktionen. Die so genannten elliptischen Funktionen ermöglichten es beispielsweise Andrew Wiles in den 1990er Jahren, Fermats letzten Satz zu beweisen.
Ein weiteres eher unbekanntes Problem ist die Hodge-Vermutung. Ähnlich wie die Poincaré-Vermutung beschäftigt sie sich mit dem Ordnen von geometrischen Figuren und fällt damit in den Bereich der Topologie.
Zwei der Millennium-Probleme hängen eng mit der Physik zusammen. Das eine dreht sich um Flüssigkeiten und Turbulenzen, die durch die so genannten Navier-Stokes-Gleichungen beschrieben werden. Das zweite handelt von den Grundbausteinen der Materie, den Quarks, und ihren Wechselwirkungen untereinander, welche die Yang-Mills-Theorie erklärt.
Schließlich lautet beim P-NP-Problem aus der theoretischen Informatik die Frage: Gibt es für bestimmte Probleme keine effizienten Algorithmen, oder kennen wir sie einfach nur noch nicht?
Die riemannsche Vermutung
Seit mehr als 160 Jahren ist die riemannsche Vermutung eines der wichtigsten Probleme der Mathematik. Hilbert nahm sie bereits im Jahr 1900 in seine 23-teilige Liste auf. Damit ist sie das einzige Problem, welches das Clay Institute von Hilbert übernommen hat.
Benannt wurde sie nach dem Mathematiker Bernhard Riemann, der hauptsächlich auf dem Fachgebiet der Analysis tätig war – ein Bereich, der sich um Funktionen und ihre Ableitungen dreht. Er veröffentlichte eine einzige Arbeit zur Zahlentheorie, und dort findet sich die berühmte Vermutung. Durch diese Arbeit ließ sich später beweisen, dass Primzahlen in kleinen Bereichen des Zahlenstrahls zwar willkürlich verstreut sind, aber für genügend große Intervalle regelmäßig angeordnet erscheinen.
Diese Ordnung spiegelt sich in der von Riemann gefundenen Primzahlfunktion π(x) wider, die alle Primzahlen zählt, die kleiner als eine gegebene Zahl x sind. Die Funktion hängt von der so genannten Zetafunktion ζ ab. Allerdings ist die Primzahlfunktion nicht exakt – die Verteilung der Primzahlen schwankt um einen Wert, der durch die Nullstellen der Zetafunktion bestimmt ist. Anders ausgedrückt: Kennt man all die Werte z, für die ζ(z) gleich null ist, kann man daraus sehr genau auf die Verteilung der Primzahlen schließen.
Riemann fiel auf, dass die Nullstellen der Zetafunktion einem bestimmten Muster zu folgen scheinen. Einerseits gibt es die »trivialen« Nullstellen: Die Zetafunktion verschwindet für sämtliche negativen geraden Zahlen. Allerdings besitzt sie weitere Nullstellen, die alle auf einer Geraden zu liegen scheinen. Diese Beobachtung ist nun als »riemannsche Vermutung« bekannt.
P versus NP
Anders als die bisher vorgestellten Probleme handelt es sich beim P-versus-NP-Problem nicht um ein rein mathematisches. Stattdessen gilt es als das größte Rätsel der modernen Informatik. Der US-amerikanische Computerwissenschaftler Scott Aaronson hält es für die »tiefschürfendste Frage, die sich Menschen je gestellt haben«: Wie schnell kann ein Computer Aufgaben bestimmter Komplexität lösen?
In der Informatik unterscheidet man dabei unter anderem zwischen P- und NP-Problemen. Erstere lassen sich in polynomieller Zeit berechnen; das heißt, der Aufwand für die Berechnung der Lösung nimmt mit wachsender Eingabe in vertretbarem Ausmaß zu. Ein Beispiel für ein solches P-Problem ist die Frage, ob ein Wert eine Primzahl ist. Das können moderne Algorithmen in vergleichsweise wenigen Rechenschritten prüfen.
Anders sieht es hingegen aus, wenn der Aufwand für die Lösung exponentiell wächst, wie es bei NP-Problemen der Fall ist. Solche Aufgaben werden teilweise so umfangreich, dass sie kein Rechner der Welt mehr mit vertretbarem Zeitaufwand lösen kann. Die NP-Klasse zeichnet sich aber dadurch aus, dass sich immerhin eine vorgegebene Lösung zu dem NP-Problem schnell überprüfen lässt. Ein Beispiel für ein NP-Problem ist die Zerlegung einer großen Zahl in ihre Primteiler: Die Berechnung der Primteiler ist sehr aufwändig, doch die Prüfung eines Ergebnisses – die Multiplikation der vermeintlichen Primteiler – ist schnell erledigt.
Das P-versus-NP-Problem dreht sich um die Frage, ob P und NP wirklich unterschiedlich sind. Schließlich könnte es ja sein, dass es einen extrem schnellen Algorithmus für die Primfaktorzerlegung gibt – nur bisher ist noch niemand darauf gekommen. Informatiker halten das für ziemlich unwahrscheinlich. Doch die Folgen wären gewaltig! Falls P gleich NP wäre, ließen sich beispielsweise gängige Verschlüsselungsverfahren knacken – denn diese fußen auf NP-Problemen.
Yang-Mills-Existenz und das Massenlückeproblem
Die letzten beiden Millennium-Probleme haben ihren Ursprung in der Physik, die Yang-Mills-Existenz speziell in der Teilchenphysik. Die Theorien, welche die Wechselwirkungen von Elementarteilchen beschreiben, fußen alle auf bestimmten Symmetrien. Die starke Kernkraft lässt sich beispielsweise durch die Symmetrie der drei Farbladungen erklären, welche Quarks und Gluonen besitzen. Beim Elektromagnetismus gibt es analog eine Symmetrie der elektrischen Ladung. Die Yang-Mills-Existenz dreht sich um die Frage, ob es zu jeder Art von Symmetrie eine dazugehörige Quantenfeldtheorie gibt. Solche werden in der Regel als Yang-Mills-Theorien bezeichnet.
Quantenfeldtheorie
Anfang des 20. Jahrhunderts entstand die Quantenmechanik – und revolutionierte die Vorstellung von Materie. Plötzlich war ein Elektron nicht mehr bloß ein punktförmiges Teilchen, sondern besaß in manchen Situationen Eigenschaften, die eigentlich lediglich Wellen innehaben. In den folgenden Jahren verallgemeinerten die Fachleute die quantenphysikalischen Konzepte, indem sie den Formalismus nicht nur auf die Mechanik, sondern auch auf den Elektromagnetismus und die Kernkräfte übertrugen.
Das führt jedoch schnell zu Problemen: Die Quantenmechanik an sich kann beispielsweise bloß Systeme mit einer festen Teilchenzahl beschreiben, die sich nicht ändert. Möchte man aber etwa ein Elektron und sein Antiteilchen, das Positron, beschreiben, die sich gegenseitig vernichten, braucht man eine allgemeinere Theorie.
Und so entwickelte sich die Quantenphysik weiter. In den 1950er und 1960er Jahren setzten sich so genannte Quantenfeldtheorien immer mehr durch. In diesen ist die Raumzeit niemals leer, sondern von verschiedenen Feldern durchzogen. Schwingungen darin entsprechen Teilchen oder Antiteilchen. Doch die Quantenfelder sind niemals ruhig: Sie sind der Theorie zufolge stets von kleinen Kräuselungen durchzogen, die extrem kurzlebigen Teilchen entsprechen. Die »virtuellen« Teilchen lassen sich nicht direkt detektieren – ihre Auswirkungen konnten aber bereits nachgewiesen werden.
Das Massenlückeproblem hängt eng mit dieser Fragestellung zusammen. Eine Yang-Mills-Theorie beschreibt Elementarteilchen und die zwischen ihnen wirkenden Kräfte. Besitzt die Theorie eine Massenlücke, dann gibt es eine kleinstmögliche Masse – Elementarteilchen können demnach unmöglich leichter sein (es sei denn, sie sind masselos, Photonen zum Beispiel).
Inzwischen gibt es Hinweise darauf, dass sich das Massenlückeproblem nicht lösen lässt. 2015 hat ein Team um den Physiker Toby Cubitt gezeigt, dass das allgemeine Problem zur Bestimmung einer Massenlücke unentscheidbar ist: Es zählt zu jenen Aufgaben, die beweisbar keine Antwort haben. Ob auch der Spezialfall der Yang-Mills-Theorien darunterfällt, ist allerdings noch unklar.
Navier-Stokes Gleichungen
Sie begegnen uns ständig: ob im Abfluss der Badewanne, beim Blick auf einen Fluss oder im Flugzeug. Die Rede ist von Turbulenzen. Obwohl diese Verwirbelungen so allgegenwärtig sind, ist es extrem schwierig, sie aus mathematischer Sicht zu untersuchen. Zwar haben Fachleute Gleichungen aufgestellt, die das Verhalten strömender Substanzen beschreiben, die so genannten Navier-Stokes-Gleichungen. Doch bis heute ist unklar, wie man sie lösen soll – und ob sie überhaupt immer lösbar sind. Um diese Fragen dreht sich das entsprechende Millennium-Problem.
Die Navier-Stokes-Gleichungen sind Differenzialgleichungen. Das sind Formeln, die Ableitungen enthalten. Die Gleichungen geben an, mit welcher Geschwindigkeit und unter welchem Druck ein Fluid mit einer gewissen Viskosität strömt.
Differenzialgleichungen zu lösen, ist alles andere als einfach. Oft muss man sich auf vereinfachende Spezialfälle (etwa ein Fluid ohne Reibung) beschränken oder braucht massive Computerunterstützung, um zumindest Näherungen zu den exakten Lösungen zu erhalten. Das sorgt allerdings für Probleme, denn Turbulenzen sind chaotische Effekte und hängen als solche stark von den äußeren Bedingungen ab. Wenn die Umstände nur ein wenig variieren, kann das Ergebnis plötzlich völlig anders aussehen.
In den vergangenen Jahren fanden Mathematiker Hinweise darauf, dass die Navier-Stokes-Gleichungen eventuell unphysikalische Lösungen bergen: Unter bestimmten Umständen könnten sie unendliche Werte annehmen. Leicht abgewandelte Formen der Navier-Stokes-Gleichungen enthalten solche unendlich großen Lösungen. Nun setzen Fachleute auf KI-Unterstützung, um diese auch bei den ursprünglichen Gleichungen zu finden. Falls sie darauf stoßen, hätte dieses Millennium-Problem eine klare Antwort: Die Navier-Stokes-Gleichungen wären demnach nicht immer lösbar.
Schreiben Sie uns!
Beitrag schreiben