Von Zockern zu Versicherungsstatistikern

(Peter Rowlett)

Girolamo Cardano war Mathematiker und zwanghafter Spieler im 16. Jahrhundert. Tragischerweise verprasste er das meiste von dem Geld, das er geerbt und verdient hatte. Zum Glück für die moderne Wissenschaft schrieb er etwa in der Mitte des 16. Jahrhunderts eine Arbeit zur modernen Wahrscheinlichkeitstheorie – die Liber de ludo aleae-, die als erste ihrer Art gilt und schließlich in einer Aufsatzsammlung 1663 veröffentlicht wurde.

Rund 100 Jahre später stand ein weiterer Glücksspieler, Chevalier de Mére, vor einem Dilemma: Er bot ein Spiel an, zu dem er wettete, dass er mit nur vier Würfen eine Sechs würfeln könne – und gewann. Dann wandelte er das Spiel auf eine Weise ab, die in seinen Augen vernünftig erschien: Er wettete, er könne eine doppelte Sechs mit zwei Würfeln in 24 Würfen erzielen. De Mére hatte berechnet, dass Chance, beide Runden gewinnen zu können, gleich sein müssten. Doch er hatte sich verkalkuliert – und verlor das gesamte zuvor erreichte Geld im zweiten Spiel. Verwirrt fragte er seinen Freund Blaise Pascal nach einer Erklärung, worauf Pascal Pierre de Fermat 1654 anschrieb. Die darauf folgende Korrespondenz legte die Grundlagen der Wahrscheinlichkeitstheorie, und als dann Christiaan Huygens von den Ergebnissen erfuhr, schrieb er die erste publizierte Arbeit zur Wahrscheinlichkeitsrechnung: de Ratiociniis in Ludo Aleae (1657).

Im späten 17. Jahrhundert erkannte Jakob Bernoulli, dass diese Theorie sehr viel breiter angewendet werden könnte als nur im Glücksspiel. Er schrieb Ars Conjectandi, das 1713 nach seinem Tod erschien und die Arbeit von Cardano, Fermat, Pascal und Huygens festigte und vertiefte. Bernoulli baute auf Cardanos Entdeckung auf, dass man mit hinreichend vielen Würfen eines glatten, sechsseitigen Würfels annehmen kann, dass jede Seite annähernd gleich oft fällt. Man sollte aber nicht erwarten, dass jede Zahl genau ein Mal oben liegt, wenn nur sechs Mal gewürfelt wird. Der Mathematiker erbrachte damit einen Beleg für das Gesetz der großen Zahlen. Sie besagt, dass sich die relative Häufigkeit eines Zufallsergebnisses immer weiter an die theoretische Wahrscheinlichkeit für dieses Ergebnis annähert, je häufiger das zu Grunde liegende Experiment durchgeführt wird.

Früher begrenzten Versicherungsunternehmen die Zahl der verkauften Policen: Da diese Policen auf Wahrscheinlichkeiten beruhten, schien es, als würde jede weitere an den Mann gebrachte Versicherung ein zusätzliches Risiko für die Firma bedeuten. Summierten sich diese auf, könnten sie die Versicherungsgesellschaften ruinieren, fürchtete man. Ab dem 18. Jahrhundert begannen die Unternehmen jedoch so viele Policen wie möglich zu verkaufen: Bernoullis Gesetz der großen Zahlen hatte gezeigt, dass ihre Prognosen umso genauer sind, je größer das Gesamtvolumen ist.

Brückenbauer für die DNA

(Julia Collins)

Mit seinem Beweis, dass man nicht jede der sieben Brücken von Königsberg einmal überqueren und an seinen Ausgangspunkt zurückgelangen konnte, begründete Leonhard Euler 1735 eine neue Art der Mathematik: in der Distanzen keine Rolle spielen. Seine Lösung stützte sich allein auf seinem Wissen zur relativen Lage der Brücke – und nicht auf deren Länge oder der Flächengröße, die zwischen ihnen lag. Johann Benedict Listing prägte schließlich 1847 den Begriff der Topologie, um dieses neue Forschungsfeld der Mathematik zu benennen. In den folgenden 150 Jahren arbeiteten Mathematiker daran, die Auswirkungen dieses Axioms zu ermitteln.

Die meiste Zeit betrieb man die Topologie als intellektuelle Herausforderung, ohne dass irgendein Nutzen von ihr erwartet wurde. Schließlich sind in der Realität Formen und Messungen wichtig: Ein Brötchen ist nicht dasselbe wie eine Kaffeetasse. Wen würden je fünfdimensionale Löcher in abstrakten elfdimensionalen Räumen kümmern und wer würde wissen wollen, ob Oberflächen eine oder zwei Seiten aufweisen? Selbst praktisch klingende Bereiche der Topologie wie die Knotentheorie – die ursprünglich aus Ansätzen stammte, die Struktur von Atomen zu verstehen – galt während des 19. und 20. Jahrhunderts lange als nutzlos.

Doch plötzlich tauchten gegen Ende des letzten Jahrhunderts erste Anwendungen der Topologie auf. Zuerst langsam, doch dann nahmen sie Fahrt auf – und nun sieht es so aus, als gäbe es nur noch wenige wissenschaftliche Bereiche, in denen sie gar keine Rolle spielt. Biologen etwa lernen die Knotentheorie, um die DNA zu verstehen. Informatiker nutzen geflochtene Leiter, um Quantencomputer zu basteln, und Techniker verwenden die gleiche Theorie, um Roboter zum Laufen zu bringen. Ingenieure setzen auf Möbiusbänder, damit sie leistungsfähigere Transportbänder erhalten. Ärzte hängen von der Homologie ab, um Aufnahmen vom Gehirn machen zu können, und Kosmologen bauen darauf, um zu verstehen, wie sich Galaxien bilden. Mobilfunkanbieter identifizieren damit Löcher in der Abdeckung ihrer Funknetze, während die Telefone selbst darauf angewiesen sind, um mit ihnen fotografieren zu können.

Dass die Topologie völlig frei von Abstandsmessungen ist, macht sie so wirksam. Das gleiche Theorem lässt sich auf jeden DNA-Strang anwenden, unabhängig davon, wie lang er ausfällt oder von welchem Lebewesen er stammt. Wir benötigen keine unterschiedlichen Computertomografen für Menschen mit Gliedmaßen in verschiedenen Größen. Liefert GPS unzuverlässige Daten an Mobiltelefone, sichert die Topologie dennoch, dass die Geräte ein Netzsignal empfangen. Und Quantencomputer werden niemals einsatzfähig sein, wenn wir keine robusten, völlig hintergrundrauschfreien Systeme entwickeln können. Deshalb sind geflochtene Leiter perfekt, um Informationen zu speichern: Sie verändern sich nicht, wenn sie wackeln. Da bleibt die Frage: Wo taucht die Topologie als nächstes auf?

Von Streichern zur Kernkraft

(Loughborough University)

Leonhard Euler und seine Zeitgenossen im 18. Jahrhundert nutzten Reihen von Sinus- und Kosinusfunktionen, um Phänomene wie schwingende Saiten oder die Himmelsmechanik zu beschreiben. Joseph Fourier erkannte Anfang des 19. Jahrhunderts die große praktische Anwendbarkeit dieser Reihen in der Wärmeleitung und entwickelte eine allgemeine Theorie. Seitdem haben Fourierreihen in vielen Fachgebieten Einzug gehalten – etwa in der Akustik, Optik und Elektronik. Und sie bilden die Basis von vielen wissenschaftlichen, ingenieurwissenschaftlichen und Computertechnologien.

Die Mathematik des frühen 19. Jahrhunderts war jedoch noch nicht reif für Fouriers Ideen, und die Lösung der zahlreichen entstehenden Probleme forderte viele herausragende Köpfe der Zeit heraus. Dies wiederum führte zu neuer Mathematik. In den 1830er Jahren beispielsweise entwickelte Gustav Lejeune Dirichlet die erste klare und brauchbare Definition der mathematischen Funktion. In den 1850ern formulierten Bernhard Riemann und zu Beginn des 20. Jahrhunderts Henri Lebesgue strikte Theorien der Integration. Als besonders harte Nuss entpuppte sich die Konvergenz unendlicher Reihen, doch gelang es hier Theoretikern wie Augustin-Louis Cauchy in den 1840ern und Karl Weiterstraß in den 1850ern, nach und nach eine Lösung zu finden. In den 1870ern entwickelte Georg Cantor die ersten Bausteine einer abstrakten Theorie der Mengenlehre, als er untersuchte, wie sich zwei Funktionen mit derselben Fourierreihe unterscheiden können.

Die Krönung dieses mathematischen Entwicklungspfades schließlich kam im ersten Jahrzehnt des 20. Jahrhunderts mit dem Konzept des Hilbertraums. Benannt nach dem deutschen Mathematiker David Hilbert, handelt es sich dabei um eine Menge von Elementen, die nach bestimmten Regeln addiert und multipliziert werden können. Außerdem zeichnen sie sich durch spezielle Eigenschaften aus, mit denen sich viele der kniffligen Fragen beantworten lassen, die Fourierreihen aufwerfen. Die Kraft der Mathematik liegt hier im Grad der Abstraktion, mit der sie die reale Welt hinter sich zu lassen scheint.

In den 1920er Jahren realisierten Hermann Weyl, Paul Dirac und John von Neumann schließlich, dass dieses Konzept die Basis der Quantenmechanik darstellt, da sich die möglichen Zustände eines Quantensystems just als Elemente eines solchen Hilbertraums entpuppten. Und die Quantenmechanik dürfte wohl die erfolgreichste wissenschaftliche Theorie aller Zeiten sein. Ohne sie würde es viele moderne Technologien – Laser, Computer, Flachbildschirme, Kernenergie – nicht geben.

Vom Paradox zur Pandemie

(Juan Parrondo und Noel-Ann Bradshaw)

1992 schlugen zwei Physiker ein einfaches Prinzip vor, wie man thermische Fluktuationen auf molekularer Ebene in eine gerichtete Bewegung überführen könnte: eine "brownsche Ratsche". Sie besteht aus einem Teilchen in einem pulsierenden asymmetrischen Feld. An- und Abschalten des Feldes induziert die gerichtete Bewegung, erklärten Armand Ajdari von der Ecole supérieure de physique et de chimie industrielles de Paris und Jacques Prost vom Institut Curie, ebenfalls in Paris.

Parrondos Paradox, das 1996 von Juan Parrondo entdeckt wurde, beschreibt die Essenz dieses Phänomens mathematisch und verlegt es in ein einfacheres und weiter verbreitetes Umfeld: das des Glückspiels. In diesem Paradox wechselt ein Spieler zwischen zwei Spielen, die beide auf lange Sicht zu einem erwarteten Verlust führen. Das Wechseln der Spiele führt jedoch überraschenderweise zum Gegenteil, nämlich einem Gewinn. Der Ausdruck "Parrondo-Effekt" wird nun benutzt, wenn zwei verknüpfte Ereignisse zu einem anderen Ergebnis führen als die jeweiligen Ereignisse für sich allein.

Inzwischen wird eine ganze Reihe von Anwendungen des Parrondo-Effekts untersucht, in denen die Verknüpfung von chaotischen Prozessen zu einem nicht chaotischen Verhalten führt. Der Effekt kann beispielsweise dabei helfen, die Populationsdynamik während einer Virusepidemie zu modellieren und bietet die Aussicht, die Risiken der Aktienkursvolatilität zu reduzieren. Außerdem spielt es eine entscheidende Rolle in Richard Armstrongs Roman "God Doesn't Shoot Craps: A Divine Comedy".

Hier lesen Sie Teil 1: "Die ungeplanten Ergebnisse der Mathematik".