Direkt zum Inhalt

Wissenschaftstrends: Der Tod des Beweises

Der Computer ist nicht nur Arbeitsmittel des Mathematikers; er bringt auch festgefügte Vorstellungen vom Wesen dieser Wissenschaft ins Wanken. Durch seine Verwendung wird die absolute Gewißheit, die man mathematischen Aussagen traditionell zuschreibt, in vielerlei Hinsicht relativiert.

Als Pythagoras seinen bekannten Lehrsatz entdeckte, brachte er den Göttern eine Hekatombe [100 Ochsen] dar. Seitdem zittern die Ochsen, sooft eine neue Wahrheit an das Licht kommt.



Ludwig Börne

Aphorismus 268

aus den Gesammelten Schriften

Pythagoras und seine Gefolgsleute hatten allen Grund zum Jubeln. Denn die im 6. Jahrhundert vor Christus von ihnen gefundene Beziehung zwischen den Seiten eines rechtwinkligen Dreiecks galt nicht nur in gewissen oder in den meisten Fällen, sondern immer – unabhängig davon, ob das Dreieck ein Stück Tuch oder Ackerland oder auch nur auf Papyrus gezeichnet war. Es wirkte wie Magie, wie eine Gabe der Götter. Kein Wunder, daß so mancher Denker, von Plato bis Immanuel Kant, die Überzeugung gewann, unter den Wahrheiten, die zu erkennen den Menschen überhaupt gestattet sei, bringe die Mathematik die reinsten hervor.

Die philosophische Grundüberzeugung, die Gegenstände der Mathematik seien ewige Wahrheiten außerhalb des menschlichen Kopfes, die jedoch der menschlichen Bemühung zugänglich seien, trägt heute allgemein den Namen Platonismus. Sie schien auf eindrucksvolle Weise bestätigt, als im Juni dieses Jahres Andrew J. Wiles von der Universität Princeton (New Jersey) während einer Fachtagung an der Universität Cambridge (England) seinen Zuhörern überraschend eröffnete, daß er die Fermatsche Vermutung bewiesen habe (Spektrum der Wissenschaft, August 1993, Seite 14). Diese, eine der berühmtesten in der Mathematik überhaupt, wurde vor mehr als 350 Jahren geäußert, und ihre Wurzeln reichen sogar bis zu Pythagoras zurück. In Ermangelung von Ochsen begnügte sich das Publikum damit, seine Begeisterung durch Klatschen zum Ausdruck zu bringen.

Aber war dieser Beweis nicht schon das letzte Aufbäumen einer sterbenden Kultur? Die Mathematik, die unter allen intellektuellen Unternehmungen am stärksten der Tradition verhaftet ist, macht gegenwärtig einen tiefgreifenden Wandel durch. Über Jahrtausende war der Maßstab ihres Fortschritts jeweils ein weiterer Beweis: eine Reihe von logischen Schritten, die von einem System von Axiomen zu einem unwiderlegbaren Schluß führen. Nun haben die Zweifel, die das moderne Denken durchziehen, auch die Mathematik angesteckt: Möglicherweise müssen ihre Vertreter letztlich, wie viele Wissenschaftler anderer Disziplinen und Philosophen vor ihnen, akzeptieren, daß ihre Aussagen bestenfalls provisorisch – bis zum Beweis des Gegenteils – wahr sind.

Diese Unsicherheit rührt teilweise von der wachsenden Komplexität der Mathematik her. Beweise sind mittlerweile oft so lang und kompliziert, daß sie schwer zu beurteilen sind. Wiles’ Beweis umfaßt 200 Seiten – und würde nach der Einschätzung mancher Experten die fünffache Länge einnehmen, wenn alle Einzelheiten ausgeführt würden.

Nach der Einschätzung eines Insiders wäre nur einer unter tausend Mathematikern überhaupt fähig, den Beweis zu beurteilen. Gleichwohl ist man bereit, Wiles’ Behauptung Vertrauen zu schenken, im wesentlichen aufgrund seines Rufes und des Ansehens jener, auf deren Werk er aufbaute. Mathematiker, die den Beweis noch nicht im Detail kannten, kommentierten, daß er „schön aussieht“ und „klingt, als sei er korrekt“.

Andererseits zwingt der Computer die Mathematiker, das Wesen des Beweises und damit der Wahrheit neu zu überdenken. In den letzten Jahren waren für einige Beweise umfangreiche maschinelle Berechnungen erforderlich. Diese sogenannten Computerbeweise kann kein Mensch mehr – ohne die Hilfe anderer Computer – nachprüfen. Vor kurzem haben einige Forscher unter dem Signum „Computerbeweis“ ein Verfahren vorgestellt, das nur eine sehr hohe Wahrscheinlichkeit – nicht aber Sicherheit – für die Wahrheit einer Aussage liefert, für manche Mathematiker ein Widerspruch in sich. Wieder andere produzieren bewegte Bilder in der Hoffnung, daß ein solcher „Video-Beweis“ überzeugender sei als Seite um Seite voller Formeln.

Gleichzeitig stellen einige Mathematiker den formalen Beweis als allgemeinverbindlichen Maßstab für Wahrheit generell in Frage. Wenngleich niemand seiner totalen Abschaffung das Wort redet, glauben doch einige Praktiker, daß die Gültigkeit mancher Behauptungen durch Vergleich mit Computerexperimenten oder Phänomenen der realen Welt besser zu bestätigen sei. „Ich glaube, daß innerhalb der nächsten fünfzig Jahre die Bedeutung des Beweises abnehmen wird“, sagt Keith Devlin vom Colby College in Waterville (Maine), der eine Kolumne über Computer für die „Notices of the American Mathematical Society“ schreibt. „Man wird sehen, daß sehr viel mehr Menschen Mathematik treiben, ohne unbedingt Beweise zu führen.“

Mächtige Institutionen verbreiten solche Ketzereien. Die amerikanische Forschungsförderungsstiftung (National Sci-ence Foundation) fordert seit Jahren, daß die Mathematiker sich intensiver mit Computerwissenschaft und anderen anwendungsnahen Gebieten befassen sollten. Einige führende Persönlichkeiten, namentlich Phillip A. Griffiths, Direktor des Institute for Advanced Study in Princeton, und Michael Atiyah, Chef des Isaac Newton Institute for Mathematical Sciences in Cambridge (England) und Träger der Fields-Medaille von 1966 (einer Auszeichnung, die ungefähr einem Nobelpreis gleichkommt), ermutigen gleichfalls ihre Kollegen, ihre Elfenbeintürme zu verlassen und sich in die reale Welt zu stürzen. In einer Zeit, da Geldmittel und Stellen rar werden, kann ein junger Mathematiker es sich kaum leisten, diese Empfehlungen zu ignorieren.

Selbstverständlich gibt es Widerstandsherde. Einige Wissenschaftler beklagen sich bitter über die Computerisierung ihres Gebietes und die wachsende Bedeutung der „Anwendungen“ (ein Wort, das sie allenfalls als Gegenbegriff zu „reiner Mathematik“ in den Mund zu nehmen bereit sind). Einer der wortgewaltigsten Traditionalisten ist Steven G. Krantz von der Washington-Universität in St. Louis (Missouri). In Reden und Artikeln wirbt er gegenüber Studenten für die Mathematik und warnt vor der Computerwissenschaft, die sich als kurzlebige Modeerscheinung herausstellen könnte. Letztes Jahr, erinnert er sich, kam ein Vertreter der National Science Foundation an seine Universität und kündigte an, die Organisation könne nicht länger mathematische Forschungsprojekte fördern, die nicht „zweckorientiert“ seien. „Wir hätten protestieren und das für falsch erklären können“, schimpft Krantz, „aber Mathematiker haben kein Rückgrat und sind es nicht gewohnt, so etwas zu tun“.

Ungewohnt starke Worte von Vertretern eines Faches, in dem man sonst eher gesittet miteinander umgeht, können dadurch motiviert sein, daß viele Mathematiker sich durch die neuen Trends nicht nur in ihrem Selbstverständnis getroffen fühlen, sondern auch fachfremde Einmischung fürchten. Bisher war unangefochtenes Prinzip, daß nur die Mathematiker selbst bestimmen, was in ihrem Fach wichtig und was unwichtig ist; sie konnten mit gutem Grund darauf vertrauen, daß niemand sonst – auch die Geldgeber nicht – das zu beurteilen vermochte. Tatsächlich könnte die Forderung nach unmittelbarer Nützlichkeit sich auf lange Sicht als Forschungshindernis erweisen, das auch für die Anwendungen von Nachteil wäre.

David Mumford von der Harvard-Universität in Cambridge (Massachusetts), der 1974 für seine Forschungen in reiner Mathematik mit der Fields-Medaille ausgezeichnet wurde und sich gleichwohl jetzt mit sehfähigen Maschinen beschäftigt, meint eher modernisierungsscheue Weltfremdheit zu gewahren. „Trotz all dem verlogenen Geschwätz“ von Innovation und dem Druck der Geldgeber, schrieb er neulich, „betrachtet die Gemeinschaft der reinen Mathematik die Computer im großen und ganzen noch als Eindringlinge und Fremdlinge in ihren heiligen Hallen“. Im letzten Jahr schlug Mumford vor, einen Kurs in Programmierung für Zwecke der höheren Analysis einzurichten. „Das wurde abgelehnt“, erinnert er sich, „aber nicht etwa, weil – was ich erwartet hatte – sich die Studenten beschwerten, sondern weil die Hälfte meiner Kollegen nicht programmieren kann!“

Diese Situation ändert sich rasch, wenn man das Geometry Center der Universität von Minnesota als Anzeichen werten darf. Die 1991 gegründete Institution residiert in der 5. Etage eines funkelnden Stahl- und Glasgebildes in Minneapolis. Der Jahresetat von zwei Millionen Dollar kommt von der National Science Foundation, dem US-Energieministerium und der Universität. Unter den ständigen Fakultätsmitgliedern, die in ihrer Mehrzahl noch anderswo eine Stelle haben, sind etliche sehr prominent.

Einige Nachwuchswissenschaftler arbeiten an einem Videofilm, der veranschaulicht, wie eine Kugeloberfläche – ohne Zerreißen und Zusammenkleben – so verzerrt, verdreht und verdellt werden kann, daß schließlich Innen und Außen vertauscht sind (siehe Titelbild). In einem Konferenzraum erzählen drei Computerwissenschaftler aus bedeutenden Universitäten einer Gruppe von Schullehrern, wie man Computergraphik-Programme für Lehrzwecke erzeugt. Andere Forscher brüten an anthrazitfarbenen NeXT-Terminals über gespenstisch gefärbten Bildern von vierdimensionalen Hyperwürfeln, wirbelnden Fraktalen und Gittern, die im Unendlichen verschwimmen. Kein Schreibzeug ist in Sicht.

An einem der Terminals sitzt David Ben-Zvi, ein Student aus Princeton mit wildem Wuschelkopf, der hier einen halbjährigen Forschungsaufenthalt zum Thema nichtlineare Dynamik verbringt. Er hält nicht viel von den Befürchtungen einiger Mathematiker, daß Computer sie von ihren traditionsreichen und wohlbewährten Verfahren weglocken würden. „Sie haben nur Angst vor der Veränderung“, drückt er es milde aus.

Das Geometry Center ist eine Art Treibhaus für die zarten Pflänzchen noch unerprobter Ideen. Hier können die Forscher sie mit Hilfe der elektronischen Knechte graphisch darstellen und durchrechnen. Nach außen stellt sich diese Forschungsrichtung in der Zeitschrift „Experimental Mathematics“ dar, die im vergangenen Jahr unter Beteilung einiger Mitglieder des Zentrums gegründet wurde. „Experimentelle Methoden in der Mathematik sind nicht neu“, bemerkt ihr Herausgeber David B. A. Epstein von der Universität von Warwick in Coventry (England) und verweist darauf, daß Carl Friedrich Gauß und andere Geistesgrößen häufig experimentelle Berechnungen durchführten, bevor sie sich an formale Beweise machten. „Das ist nur neuerdings gesellschaftsfähig.“ Epstein gesteht ein, daß nicht alle seine Kollegen das so sehen, und zitiert einen mit dem Kommentar: „Ihre Zeitschrift müßte eigentlich Journal für unbewiesene Theoreme heißen.“


Seifenblasen und Spirelli

Jean E. Taylor von der Rutgers-Universität in New Brunswick (New Jersey) ist eine Vertreterin des neuen Stils. „Die Vorstellung, daß man tunlichst keine Computer benutzt, wird der nächsten Generation zunehmend fremd sein“, sagt sie. Seit zwanzig Jahren erforscht sie Minimalflächen, zum Beispiel Flächen kleinsten Inhalts bei vorgegebener Randkurve.

Die wohl elegantesten und einfachsten natürlichen Minimalflächen sind Seifenhäute – und Jean Taylor pflegte früher auch ihre Theorien zu testen, indem sie Drahtschlingen in Seifenwasser eintauchte. Heute würde sie das entsprechende Experiment wahrscheinlich eher mit einem hochentwickelten Computergraphik-Programm durchführen. Inzwischen arbeitet sie allerdings über Kristalle – Schneeflocken zum Beispiel –, deren Wachstum etwas komplizierteren Minimalflächen-Gleichungen folgt. Zusammen mit Ehemann Frederick J. Almgren aus Princeton und Stiefsohn Robert F. Almgren von der Universität Chicago sowie Andrew R. Roosen vom Normeninstitut der USA (National Institute of Standards and Technology) versucht sie, deren Wachstum auf einem Computer nachzubilden. In zunehmendem Maße tauscht sie sich mit Materialforschern und Physikern aus: mathematische Ideen und Programmiertechniken gegen Auskünfte über das Wachstum echter Kristalle.

Ein anderer Mathematiker, der einen gedachten abstrakten, durch den Computer unseren Sinnen nähergebrachten Raum auf der Suche nach neuen Minimalflächen durchstreift, ist David A. Hoffman von der Universität von Massachusetts in Amherst. Im Jahre 1992 spekulierte er zusammen mit seinem Kollegen Fusheng Wei und mit Hermann Karcher von der Universität Bonn über die Existenz einer neuen Klasse von Helikoiden (Wendelflächen). Die einfachsten dieser spirelliförmigen Minimalflächen wurden bereits im 18. Jahrhundert bekannt, und seit dieser Zeit waren keine neuen Formen hinzugekommen. Die Entdeckung, daß es welche mit Henkeln gibt, und der formale Beweis ihrer Existenz wären ohne graphische Datenverarbeitung nicht möglich gewesen: „Wir gewinnen enorm an Intuition durch die Darstellung dieser Flächen auf dem Computer“, sagt er. „Hätten wir nicht ein Bild sehen können, das annähernd mit unseren Vorstellungen übereinstimmte, wir hätten es nie geschafft“ (Bild 3; vergleiche „Die Geometrie von Minimalflächen“ von Hermann Karcher und Konrad Polthier, Spektrum der Wissenschaft, Oktober 1990, Seite 96).

Wer Minimalflächen ausrechnen will, muß sich unweigerlich mit Begriffen wie Oberflächenspannung (die zu minimieren ist) und mittlerer Krümmung (die gleich null sein muß) auseinandersetzen. Diese ihrerseits erfordern schon zu ihrer Definition Ableitungen, Grenzwerte von Ausdrücken, in denen beliebig dicht benachbarte Punkte der Fläche vorkommen. Es geht um Differentialgleichungen, und die sind mit dem Computer in aller Regel nur näherungsweise zu lösen.

Andererseits haben die Minimalflächen diesen Problemtyp und die zugehörigen Lösungsprinzipien mit einer Fülle von Gebieten der mathematischen Physik gemeinsam. Die numerische Mathematik, die sich schon lange mit der Lösung solcher Probleme auf dem Computer befaßt, profitiert ebenfalls von den neuerdings enorm erweiterten Möglichkeiten der graphischen Darstellung. So ist es nur folgerichtig, wenn ein in Bonn entwickeltes Programmpaket namens GRAPE, das Berechnung und Darstellung der Lösungen von Differentialgleichungen auf komfortable Weise integriert, doppelte Verwendung findet. Bonner Mathematiker stellen damit unter anderem Minimalflächen dar (Kasten Seite 94/95), eine andere Gruppe, die inzwischen von Bonn nach Freiburg gewechselt ist, Strömungs- und Kristallisationsprozesse (Bild 2).

„Die übliche Darstellung numerischer Ergebnisse, auch die graphische, ist noch viel zu sehr quantitativ“, sagt Martin Rumpf vom Institut für Angewandte Mathematik der Universität Freiburg. Er arbeitet mit an einem jüngst gegründeten Projekt der Deutschen Forschungsgemeinschaft namens „Selbstadaptivität und Visualisierung“. Selbstadaptive Verfahren sind solche, die ihren Rechenaufwand zu jeder Zeit und an jedem Ort des berechneten Gebietes der Schwierigkeit des Problems automatisch anpassen. Wenn beispielsweise eine Strömung an einer Stelle heftige Wirbel entwickelt, muß das Verfahren die Anzahl der Punkte, an denen es das Verhalten des Systems berechnet, in der Nähe dieser Stelle gezielt erhöhen (die Diskretisierung verfeinern), während es in ruhigeren Regionen vielleicht mit weniger Punkten auskommt. Ähnliches gilt etwa für die Grenze zwischen fester und flüssiger Phase (Bild 2).

Bei solchen Untersuchungen sind Experimente am Rechner und graphische Darstellungen unerläßliche Hilfsmittel. Sie liefern neue Ideen, oft sogar für einen im mathematischen Sinne strengen Beweis. Andererseits profitiert auch die Kunst der Visualisierung von der reinen Mathematik. „Ein Bild mit Vektorpfeilen ist hilfreich, zeigt aber nicht unbedingt das Wesentliche an, ist oft eher Reizüberflutung“, erläutert Rumpf. „Zukünftige Aufgabe wird es sein, so etwas wie die qualitative Struktur der berechneten Lösung herauszuarbeiten. Man müßte zum Beispiel einen Wirbel tatsächlich als einen sich bewegenden Ring auf einer Bahn darstellen. Hier müssen Konzepte aus der Topologie eingehen“, die ein Teilgebiet der reinen Mathematik ist.


Nichtlineare Dynamik

Das mit Abstand populärste Betätigungsfeld der Experimentalmathematiker war in den letzten zehn Jahren die nichtlineare Dynamik, üblicherweise verkürzt auf das Schlagwort „Chaos“. Nichtlineare dynamische Systeme können selbst dann, wenn einige einfache Regeln ihr Verhalten bestimmen, durch Rückkopplung und verwandte Effekte eine Fülle komplizierter Phänomene hervorbringen. Schon der Altmeister Henri Poincaré (1854 bis 1912) und seine Zeitgenossen erarbeiteten zahlreiche theoretische Aussagen; nun aber kann man sie in ganz neuer Weise erforschen und im Wortsinne beobachten (vergleiche „Das Chaos meistern“ von William L. Ditto und Louis M. Pecora, Spektrum der Wissenschaft, November 1993, Seite 46).

Ein besonders leicht erforschlicher Typ dieser Systeme sind die nichtlinearen zellulären Automaten. In einem solchen Spiel ist gewissermaßen jeder Bildpunkt (jedes Pixel) des Bildschirms einer der Akteure. Sein Zustand, durch Farbe dargestellt, wandelt sich in Abhängigkeit von den Zuständen seiner unmittelbaren Nachbarn; und eine Zustandsänderung einer einzelnen Zelle löst eine Kaskade von Veränderungen im ganzen System aus.

Einen der berühmtesten zellulären Automaten hat Anfang der siebziger Jahre John H. Conway aus Princeton erfunden (Spektrum der Wissenschaft, Juni 1984, Seite 6, Juli 1985, Seite 4, und Mai 1987, Seite 6). Er konnte beweisen, daß sein Automat, „Life“ genannt, unentscheidbar ist: Man kann nicht vorhersagen, ob seine Muster endlos Neues hervorbringen oder sich doch irgendwann wiederholen. Wissenschaftler anderer Disziplinen haben zelluläre Automaten als überschaubare Modelle für so komplizierte Prozesse wie Ursprung und Evolution des Lebens aufgegriffen. Der Computerwissenschaftler und Physiker Edward Fredkin von der Universität Boston geht so weit, das ganze Universum als zellulären Automaten aufzufassen.

Noch berühmter, geradezu ein Markenzeichen für die gesamte Chaos-Theorie, ist die Mandelbrot-Menge, die Benoît B. Mandelbrot vom Thomas-J.-Watson-Forschungszentrum der IBM in Yorktown Heights (New York) Anfang der achtziger Jahre weithin bekannt gemacht hat. Sie wird erzeugt von einer einfachen Berechnungsvorschrift für komplexe Zahlen (Paare aus einer gewöhnlichen reellen Zahl und einem Vielfachen der Wurzel aus –1). Ihr ungeheurer Gestaltreichtum rührt daher, daß die Berechnungsvorschrift immer wieder auf ihr eigenes Ergebnis anzuwenden ist.

Die Theorie zu dieser Menge hatten vor mehr als 70 Jahren die französischen Mathematiker Gaston Julia und Pierre Fatou ersonnen; aber erst Computer machten ihre barocke Schönheit für jedermann sichtbar. Auf dem Bildschirm erscheint das unendlich stachlige Apfelmännchen, das phantasievolle Beobachter auch als Herz mit Geschwüren, verkohltes Brathähnchen oder Schneemann mit Warzen interpretiert haben. Das Bild ist ein Fraktal; sein schwer zu berechnender Rand ist unendlich lang, und Teile seiner Gestalt kehren in den verschiedensten Größenmaßstäben wieder (siehe „Fraktale – eine neue Sprache für komplexe Strukturen“ von Hartmut Jürgens, Heinz-Otto Peitgen und Dietmar Saupe, Spektrum der Wissenschaft, September 1989, Seite 52).

Inzwischen untersucht man Mengen, die der Mandelbrot-Menge ähnlich, aber vierdimensional sind. John Milnor von der Universität des Staates New York in Stony Brook versucht, über die Eigenschaften solcher Mengen Klarheit zu gewinnen, indem er computergenerierte zweidimensionale Schnitte untersucht (Bild 4). Seine vorläufigen Ergebnisse eröffneten die Erstausgabe der „Experimental Mathematics“ im letzten Jahr. Und das ist nicht die einzige neue Zeitschrift zu diesem Thema. Weitere tragen Namen wie „Fractals“, „Chaos, Solitons & Fractals“ und „International Journal of Bifurcation and Chaos“. Hinzu kommen etliche, deren Hauptthema die Computergraphik ist. Milnor, Fields-Medaillen-Träger von 1962, hat schon zu Zeiten der Lochkarte gelegentlich Computerexperimente durchgeführt, aber „das war eine elende Plackerei – es ist jetzt viel leichter geworden.“

Die Popularität der graphik-orientierten Mathematik hat Reaktionen provoziert. Schon vor vier Jahren beklagte Krantz im „Mathematical Intelligencer“, man bekomme „unter Umständen eher Geld für Hardware zum Fraktalezeichnen als zum Studium der algebraischen Geometrie“. Arthur Jaffe von der Harvard-Universität und Frank S. Quinn vom Virginia Polytechnic Institute in Blacksburg warnten letzten Juli im „Bulletin of the American Mathematical Society“ noch allgemeiner vor einem Trend zu „spekulativer Mathematik“. Computerexperimente und Analogien zu natürlichen Phänomenen seien kein Ersatz für die wahrheitsstiftende Kraft eines richtigen Beweises.

Die meisten Anwender der Computergraphik und anderer experimenteller Techniken räumen ein, daß man nicht einfach glauben dürfe, was man sieht, und daß alle Vermutungen, zu denen einem der Computer verholfen hat, durch Beweise zu bestätigen seien. „Beweise sind das einzige Arbeitsinstrument des Mathematikers, und wir sind drauf und dran, sie wegzuwerfen“, konstatiert Hoffman und verweist auf den Modecharakter der berauschenden Bilder: Computergraphiken seien „unglaublich wundervoll – in den sechziger Jahren waren Drogen unglaublich wundervoll“.

Große Fehler

Die Leute, die schon lange mit Rechnern arbeiten, wissen freilich besser als die meisten, die dem Trend folgen, daß Computerexperimente – einerlei, ob die graphische Darstellung oder die numerische Berechnung im Vordergrund steht – irreführend sein können. Ein zur Vorsicht mahnendes Beispiel bezieht sich auf eine berühmte Hypothese über die asymptotische (für immer größere Werte immer besser zutreffende) Verteilung der Primzahlen, die Bernhard Riemann (1826 bis 1866) vor mehr als hundert Jahren aufgestellt hat und die zu den bekanntesten ungelösten Problemen der Mathematik gehört. Schon Riemanns Zeitgenosse Franz Mertens (1840 bis 1927) hatte eine verwandte Vermutung über die natürlichen Zahlen geäußert; wenn sie zutreffen sollte, käme das einem Beweis der Riemannschen Vermutung sehr nahe. Anfang der achtziger Jahre ergaben dann Computerberechnungen, daß Mertens’ Behauptung tatsächlich für die ersten 10 Milliarden natürlichen Zahlen gilt. War damit die Sache erledigt? Keineswegs, wie freilich wieder der Computer erwies; denn 1984 offenbarten noch umfangreichere Rechnungen, daß schließlich – oberhalb des schwer vorstellbaren Wertes von – die von Mertens vorhergesagten Muster verschwinden. Ein großer Nachteil von Computern ist, daß alle Berechnungen auf Zahlen mit begrenzter Stellenzahl und damit begrenzter Genauigkeit basieren. Mit Zahlen wie Pi, der Quadratwurzel von 2 oder auch 1/3 kann ein Computer nur näherungsweise rechnen. Wer die Rundungsfunktionen eines einfachen Taschenrechners kennt, vermag ihm die phantastischsten Fehlergebnisse zu entlocken. Kompliziertere Programme machen gelegentlich undurchschaubare oder irreführende Fehler (Spektrum der Wissenschaft, November 1993, Seite 18). Stephen Smale von der Universität von Kalifornien in Berkeley, Fields-Medaillen-Träger von 1966, hat versucht, dem Rechnen mit endlicher Genauigkeit ein sichereres Fundament zu geben – oder wenigstens die Größe und Lage der Risse im Fundament auszumachen. Zusammen mit Lenore Blum vom mathematischen Forschungsinstitut MSRI (Mathematical Sciences Research Institute) in Berkeley und Michael Shub von IBM erarbeitete er ein theoretisches Modell eines Computers, der reelle Zahlen im mathematischen Sinne verarbeiten kann. Blum und Smale kamen kürzlich zu dem Schluß, daß die Mandelbrot-Menge im Sinne ihrer Theorie unberechenbar ist – das heißt, es ist nicht mit Sicherheit zu bestimmen, ob ein gegebener Punkt der komplexen Ebene innerhalb oder außerhalb des ungeheuer verkrumpelten Mengenrandes liegt. „Man muß vorsichtig sein“ bei der Extrapolation der Ergebnisse von Computerexperimenten, schließt Smale. Stephen Wolfram, ein mathematischer Physiker an der Universität von Illinois in Urbana-Champaign, hält diese Sorgen für unbegründet. Der Schöpfer von „Mathematica“, einem Mathematik-Softwarepaket, das seit seiner Einführung vor fünf Jahren eine führende Marktposition erobert hat, erkennt zwar an, daß „es in der Tat Fallstricke in der experimentellen Mathematik gibt. Wie alle andere Experimente kann man auch diese falsch machen.“ Aber er betont, daß intelligent durchgeführte und analysierte Computerexperimente mehr einbringen können als das altehrwürdige Schema aus Vermutung und Beweis. „In jedem anderen Wissenschaftszweig gibt es viel mehr Experimentatoren als Theoretiker“, stellt Wolfram fest und plädiert für mehr Mut zum Neuen: Durch „dieses verbohrte Festhalten am Beweis“ sei den Mathematikern das neue große Reich dessen, was mit dem Computer erforschbar ist, im wesentlichen verschlossen geblieben; auch die mutigsten mathematischen Experimentatoren gingen zum größten Teil nicht weit genug. „Sie befassen sich nur mit Fragen, die in der Mathematik schon gestellt sind“, urteilt er. „So fügen sie der Krone einer gigantischen Struktur gerade noch ein paar Schnörkel hinzu.“ Auch ein Purist, der den erfolgreichen Unternehmer Wolfram nicht als Mathematiker ernstnehmen würde, wird jedoch schwerlich an William P. Thurston vorbeikommen. Der Leiter des MSRI und (gemeinsam mit Albert Marden von der Universität von Minnesota) des Geometry Center fand Mitte der siebziger Jahre eine tiefliegende Verbindung zwischen zwei unterschiedlichen Gebieten der Mathematik, der Topologie und der Geometrie, was ihm 1982 eine Fields-Medaille einbrachte. Thurston definiert sich ausdrücklich als Platonisten: Mathematische Wahrheiten würden nicht erfunden, sondern entdeckt. Wenn er aber über Beweise redet, hält er es weniger mit Plato als mit dem Wissenschaftsphilosophen Thomas S. Kuhn, der 1962 in dem (1973 auch auf Deutsch erschienenen) Buch „The Structure of Scientific Revolutions“ die These aufstellte, wissenschaftliche Theorien würden eher aus gesellschaftlichen Gründen akzeptiert als aufgrund irgendeiner „objektiven Wahrheit“. „Daß Mathematik im wesentlichen nur aus formalen Beweisen bestehe, ist eine wenig haltbare Vorstellung, die für unser Jahrhundert typisch ist“, behauptet Thurston. „In Wirklichkeit beweisen Mathematiker ihre Sätze in einem gesellschaftlichen Zusammenhang. Mathematik ist ein gesellschaftlich bedingter Organismus aus Wissen und Fertigkeiten“ (vergleiche „Anschauung und Formalismus in der Mathematik“ von Klaus Volkert, Spektrum der Wissenschaft, März 1992, Seite 72). Thurston verweist darauf, daß der Logiker Kurt Gödel (1906 bis 1978) vor mehr als 60 Jahren durch seinen Unvollständigkeitssatz bewies, daß „es unmöglich ist, die Mathematik vollständig zu formalisieren“. Zu jedem beliebigen System von Axiomen gibt es eine Aussage, die offensichtlich wahr, aber innerhalb des Axiomensystems nicht beweisbar ist. Der Mathematiker und Philosoph Bertrand Russell (1872 bis 1970) wies sogar schon früher darauf hin, daß die Mengenlehre, auf der sehr viel in der Mathematik aufbaut, voller logischer Widersprüche steckt, die mit dem Problem des Selbstbezugs zusammenhängen. (Die in sich widersprüchliche Aussage „Dieser Satz ist falsch“ illustriert dieses Problem.) „Die Mengenlehre basiert auf höflichen Lügen, Dingen, die wir alle akzeptieren, obwohl wir wissen, daß sie nicht wahr sind“, sagt Thurston. „Mitunter hat die Begründung der Mathematik einen Hauch von Unwirklichkeit.“ Thurston glaubt, daß ein hochgradig formaler Beweis eher fehlerhaft sein könne als einer, der mehr die Intuition anspricht. Besonders schätzt er die Fähigkeit der Computergraphik, abstrakte mathematische Sachverhalte anderen Menschen – innerhalb und außerhalb der Fachwelt – verständlich zu machen. Vor zwei Jahren produzierte das Geometry Center auf seine Initiative hin einen computererzeugten „Video-Beweis“ namens „Not Knot“ (deutsch: „Knoten ohne Knoten“), der eine grundlegende, vor zehn Jahren von ihm bewiesene Vermutung in Szene setzt (Bild 1). Thurston vermeldet stolz, daß die Rockband Grateful Dead das Video in ihren Konzerten gezeigt hat. Ob nun ausgerechnet die Musik von Grateful Dead hilft, sich in das Verhalten dreidimensionaler Mannigfaltigkeiten im nicht-euklidischen hyperbolischen Raum einzufühlen, ist eine andere Frage. Thurston räumt ein, daß das Video für Nichtmathematiker und sogar manche Fachkollegen schwierig zu begreifen ist, aber er ist unverzagt. Das Geometry Center macht zur Zeit aus einem anderen Ergebnis Thurstons das Video, das zeigt, wie eine Kugeloberfläche von innen nach außen gestülpt werden kann. Obendrein organisierte Thurston letzten Herbst eine Arbeitstagung über die Verwendung von Virtual Reality und anderen Techniken für Zwecke der mathematischen Veranschaulichung. Paradoxerweise haben die Computer auch einem entgegengesetzten Trend Vorschub geleistet: Wahrheit auf Kosten der Verständlichkeit. Im Jahre 1976 legten Kenneth Appel und Wolfgang Haken von der Universität von Illinois einen Beweis des Vierfarbensatzes vor: Es ist möglich, eine unendlich ausgedehnte Landkarte mit nur vier Farben so einzufärben, daß keine zwei gleichgefärbten Länder eine gemeinsame Grenze haben (Spektrum der Wissenschaft, Oktober 1978, Seite 82). In gewisser Hinsicht ist der Beweis von Appel und Haken konventionell: Er besteht aus einer Folge von nachvollziehbaren logischen Schritten, die bei einer gewissen Aussage enden. Allerdings ist der Inhalt dieser Aussage, daß es genügt, eine bestimmte Behauptung für ungefähr 2000 Spezialfälle zu beweisen. Das in jedem Einzelfall mit der Hand nachzuprüfen wäre schon vom Zeitaufwand her ein hoffnungsloses Unterfangen gewesen. Deshalb programmierten Appel und Haken für diese Aufgabe einen Computer. Nach etwa 1000 Stunden Rechenzeit lieferte die Maschine die Bestätigung, daß sich die 2000 Landkarten wie erwartet verhalten: Das Vierfarbenproblem war gelöst. Ein anderes Problem, das die Mathematiker sicherlich wegen seines schieren Umfangs beiseite gelegt hätten, wenn ihnen kein Computer zur Verfügung gestanden hätte, ist die Klassifizierung von Pflasterungen der Ebene. Es handelt sich um lückenlose, überlappungsfreie Bedeckungen mit lauter Exemplaren der gleichen Grundfigur (Pflastersteinen oder auch Kacheln) oder aus einem begrenzten Sortiment von Figuren. Ihre mathematische Behandlung erwies sich als überraschend schwierig; erst in den letzten zehn Jahren gelang einer Gruppe um den Bielefelder Mathematiker Andreas Dress eine vollständige Lösung. Man weiß seit langem, daß es 93 wesentlich verschiedene Pflasterungen mit einer einzigen Sorte Pflasterstein gibt. Dabei gelten zwei Pflasterungen als nicht wesentlich verschieden, wenn man sie durch stetige Deformation der Steine – ohne Zerteilen oder Zusammenfügen – ineinander überführen kann. Sind zwei Sorten Pflastersteine erlaubt, gibt es 1270 verschiedene Typen, bei drei Sorten schon 48231. Das Schöne ist, daß man sie alle auf dem Computer darstellen kann (Bild 5).

Das Party-Problem

Andere computergestützte Beweise folgten. Erst dieses Jahr meldeten Stanislaw P. Radziszowski vom Institute of Technology in Rochester (New York) und Brendan D. McKay von der Australischen National-Universität in Canberra, daß sie einen Fall des Party-Problems gelöst hätten. Das Problem aus der Kombinatorik, das der britische Mathematiker Frank P. Ramsey (1903 bis 1930) in den zwanziger Jahren gestellt hat, kann als Frage nach zwischenmenschlichen Beziehungen formuliert werden: Wie viele Gäste müssen mindestens eingeladen werden, damit garantiert eine Gruppe von X Menschen darunter ist, die sich alle untereinander kennen, oder eine Gruppe von Y, in der keiner den anderen kennt? Diese Anzahl heißt Ramsey-Zahl (siehe „Ramsey-Theorie“ von Ronald L. Graham und Joel H. Spencer, Spektrum der Wissenschaft, September 1990, Seite 112). Es war bekannt und bewiesen, daß es unter 18 Gästen (nicht aber unter 17) stets mindestens vier wechselseitig Bekannte oder vier wechselseitig Fremde gibt. Radziszowski und McKay haben nun gezeigt, daß die Ramsey-Zahl für vier Bekannte oder fünf Fremde 25 ist (Bild 6).

Das Party-Problem für größere X und Y ist alles andere als ein Problem für eine Party. Radziszowski und McKay schätzen, daß bereits ihr Beweis elf Jahre Rechenzeit auf einem üblichen Personal Computer verbraucht hätte; dies dürfte, so Radziszowski, ein Rekord für ein Problem der reinen Mathematik sein.

Der Wert dieser Arbeit wurde an unüblicher Stelle erörtert – in der Zeitungskolumne der amerikanischen Ratgeberin Ann Landers. Im Juni beklagte ein Briefschreiber, das viele Geld für die Lösung des Party-Problems wäre besser „für hungernde Kinder in den Kriegsgebieten in aller Welt aufgewendet worden“. Die Einwände mancher Mathematiker sind von anderer Art. „Ich glaube nicht an Computerbeweise“, sagt Pierre Deligne von Institute for Advanced Study, ein algebraischer Geometer und Fields-Medaillen-Träger von 1978. „In gewisser Weise bin ich sehr egozentrisch. Ich glaube einen Beweis, wenn ich ihn verstehe, wenn er klar ist.“ Er erkennt zwar an, daß Menschen Fehler machen können, fügt jedoch hinzu: „Ein Computer wird auch Fehler machen, aber sie sind viel schwieriger zu finden.“

Computerwissenschaftler wiederum verweisen darauf, daß konventionelle Beweise alles andere als immun gegen Fehler seien. Noch um die Jahrhundertwende stammte ein Theorem samt Beweis in aller Regel von einem einzigen Autor und war so kurz, daß man die Arbeit an einem Stück lesen konnte. Mittlerweile zieht sich ein Beweis oft über hundert Seiten oder mehr hin und ist so kompliziert, daß andere seine Korrektheit erst nach Jahren bestätigen können.

Unter den konventionellen Beweisen hält gegenwärtig den Rekord die in den frühen achtziger Jahren vollendete Klassifikation der endlichen einfachen Gruppen. (Eine Gruppe ist eine Menge von Elementen versehen mit einer Operation, die zwei Elemente zu einem dritten verknüpft. Ein Beispiel sind die ganzen Zahlen mit der Addition als Verknüpfung.) Der Beweis besteht aus etwa 500 Artikeln, verfaßt von mehr als 100 Wissenschaftlern, und ist insgesamt etwa 15000 Seiten lang. Angeblich war der einzige Mensch, der ihn in seiner Gänze verstand, Daniel Gorenstein von der Rutgers-Universität, der als eine Art Hauptauftraggeber fungierte (siehe seinen Beitrag „Die Klassifikation der endlichen einfachen Gruppen“, Spektrum der Wissenschaft, Februar 1986, Seite 98). Gorenstein ist im letzten Jahr gestorben.

Auch über sehr viel kürzere Beweise ist nicht immer leicht Konsens zu finden. Vor drei Jahren verkündete Wu-Yi Hsiang aus Berkeley, er habe eine alte Vermutung über die dichteste mögliche Kugelpackung bewiesen (Spektrum der Wissenschaft, September 1992, Seite 12). Heute halten manche Skeptiker den hundert Seiten langen Beweis für fehlerhaft; andere sind ebenso fest vom Gegenteil überzeugt. Die Entscheidung steht aus.

Nach der Auffassung mancher Computerwissenschaftler liegt der Schlüssel zu größerer Zuverlässigkeit nicht im Vermeiden, sondern in der intensiveren Nutzung des Computers. Robert S. Boyer von der Universität von Texas in Austin leitet ein ehrgeiziges Unternehmen mit dem Ziel, den ganzen weitverzweigten Baum der modernen Mathematik in eine einzige Datenbank zu pressen, deren Konsistenz durch automatische Beweisüberprüfungsprogramme gesichert werden soll.

Das Projekt heißt QED in Anspielung auf die traditionelle lateinische Schlußformel quod erat demonstrandum (was zu beweisen war). Boyers Manifest verspricht dem künftigen Nutzer der Datenbank die Möglichkeit, „die Gesamtheit des mathematischen Wissens nach relevanten Ergebnissen durchzumustern und mit den Mitteln des QED-Systems eine tragfähige Korrektheitsgarantie für diese Resultate zu gewinnen, ohne daß er die Einzelheiten oder auch nur die Grundlagen genau verstehen müßte“. Damit nicht genug; das QED-System, verkündet das Manifest vollmundig, könne sogar „gegen die degenerativen Tendenzen des kulturellen Relativismus und des Nihilismus“ helfen – und gegen die allzumenschliche Bereitschaft der Mathematiker, irgendwelchen Modeströmungen zu folgen.

Die Debatte über Computerbeweise hat vor kurzem neue Nahrung durch eine Technik erhalten, die keine Sicherheit, aber immerhin eine statistische Wahrscheinlichkeit für Wahrheit anbietet. Beweise dieser Art verwenden ähnliche Methoden wie fehlerkorrigierende Codes: Diese sichern eine Nachricht gegen Verfälschung durch Rauschen und andere Effekte, indem sie gezielt Redundanz einfügen. Der Beweis ist zuerst sehr präzise nach den Regeln der mathematischen Logik zu formalisieren. Der so erhaltene Text wird dann einer weiteren Transformation namens Arithmetisierung unterzogen, in welcher „und“, „oder“ und andere logische Operationen in arithmetische wie Addition und Multiplikation übersetzt werden.

Wie bei einer Nachricht, die mit einem fehlerkorrigierenden Code übermittelt wird, ist die Information, die in einem solchen probabilistischen Beweis steckt, über seine ganze Länge verteilt – ebenso wie irgendwelche Fehler. Man überprüft den Beweis, indem man an verschiedenen Stellen eine Art Stichprobe zieht und nachschaut, ob die Antworten konsistent sind; mit der Anzahl der Stichproben wächst die Gewißheit, daß die Argumentation korrekt ist. Laszlo Babai von der Universität Chicago, der diesen Ansatz vor zwei Jahren zusammen mit seinen Kollegen Lance Fortnow, Carsten Lund und Mario Szegedy sowie Leonid A. Levin von der Universität Boston entwickelt hat, nennt die Beweise „transparent“. Manuel Blum aus Berkeley, der wesentliche Vorarbeiten leistete, schlägt die Bezeichnung „holographisch“ vor.


Ungewisse Zukunft

Einerlei wie man sie nennt, solche Beweise haben praktische Nachteile. Szegedy räumt ein, daß das Transformieren eines konventionellen Beweises in die probabilistische Form schwierig ist und das Ergebnis ein „viel größeres und häßlicheres Biest“ sein kann. Ein 1000 Zeilen langer Beweis könne sich leicht auf 10003 (eine Milliarde) Zeilen aufblähen. Dennoch: Wenn er und seine Kollegen den Transformationsprozeß vereinfachen könnten, würden probabilistische Beweise möglicherweise ein nützliches Hilfsmittel zur Überprüfung mathematischer Aussagen und umfangreicher Berechnungen werden – etwa jener, die den Vierfarbensatz beweisen halfen. „Der philosophische Preis für diese effiziente Methode besteht darin, daß wir die absolute Gewißheit eines euklidischen Beweises verloren haben“, bemerkt Babai in einer kürzlich erschienenen Abhandlung. „Aber wenn Sie Zweifel haben, würden Sie mit mir wetten?“

Wer sich darauf einläßt, hat extrem schlechte Karten, glaubt Levin, da relativ wenige Stichproben die Fehlerwahrscheinlichkeit verschwindend gering machen können: eins geteilt durch die Anzahl der Elementarteilchen im Universum. Selbst die einfachsten konventionellen Beweise seien über Zweifel in dieser Größenordnung nicht erhaben. „In dem Moment, wo Sie einen Fehler finden, könnte Ihr Gehirn verschwinden und durch ein neues Gehirn, das den Beweis für richtig hält, ersetzt werden. Nach der Heisenbergschen Unschärferelation ist die Wahrscheinlichkeit dafür ungefähr so groß.“

Ronald L. Graham von den AT&T Bell Laboratories in Murray Hill (New Jersey) gibt zu bedenken, daß der Trend weg von konventionell kurzen, klaren Beweisen vielleicht unvermeidlich sei. „Die Dinge, die Sie beweisen können, sind wie winzige Inseln, Ausnahmeerscheinungen im weiten Ozean der Resultate, die nicht allein durch menschliches Denken bewiesen werden können“, erklärt er. Wer sich in unbekannte Gewässer wage, müsse zunehmend Experimente, probabilistische Beweise und andere Mittel zu Hilfe nehmen.

Ohne Zweifel sei eine von Computern abhängige Mathematik weniger schön, sie gäbe keine ästhetische Befriedigung. „Es wäre sehr frustrierend“, bemerkt Graham, „wenn Sie demnächst einen Computer fragen könnten, ob die Riemannsche Vermutung wahr ist, und der antwortet ,Ja, aber du würdest den Beweis nicht verstehen‘.“

Für die Traditionalisten ist schon dieser Gedanke ein Greuel. Noch können sie sich auf Helden wie Wiles berufen, der Computer, Anwendungen und andere Abscheulichkeiten sorgfältig meidet (siehe Kasten Seite 90). Aber nach Meldungen aus dem Bildungssystem zu urteilen, könnten Helden dieses Typs im Aussterben begriffen sein.

Das MSRI zum Beispiel sucht in Seminaren mit Lehrern an höheren Schulen neue Wege, junge Amerikaner zur Mathematik zu motivieren. Die Lehrer berichteten allerdings, daß ihre Schüler traditionelle, axiomatische Beweise nicht mehr so überzeugend finden wie etwa visuelle Argumente. Die Generation, die mit Fernsehen, Videospielen und PC-Bildschirm aufgewachsen ist, vermag schwerlich etwas einzusehen, was sie nicht bunt vor Augen hat.


Aus: Spektrum der Wissenschaft 12 / 1993, Seite 88
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Kennen Sie schon …

Spektrum Kompakt – Parkettierungen - Mathematik mit Fliesen und Klötzchen

Wenn Mathematiker zu Fliesenlegern werden, sind fantasievolle Muster vorprogrammiert. Und natürlich stecken dahinter ausgeklügelte Regeln.

Spektrum - Die Woche – Wie der Wohnort uns prägt

Unterscheiden sich die Einwohner verschiedener Regionen und Landschaftsräume systematisch in ihrem Charakter? Und wenn ja, wie kommt das? Solchen Fragen gehen wir in dieser Ausgabe mit Hilfe geografischer Psychologen nach. Außerdem: Der Ausbau des Stromnetzes ist komplizierter als gedacht.

Spektrum - Die Woche – Die Suche nach Gravitationswellen geht weiter

Verschmelzende Schwarze Löcher, kollidierende Neutronensterne: Die Gravitationswellenastronomie geht jetzt erst richtig los! Außerdem berichten wir in dieser Ausgabe, wie sich die deutsche Sprache in Zukunft womöglich entwickelt – und über unser ambivalentes Verhältnis zu Meister Petz.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.