Direkt zum Inhalt

Quark-Physik mit dem Supercomputer

Nach jahrelanger Laufzeit hat ein Spezialrechner nun erstmals präzise die Eigenschaften von Gluonenbällen ermittelt. Solche hypothetischen Ansammlungen von Quanten der Quark-Wechselwirkung sind unterdessen in Aufzeichnungen früherer Experimente identifiziert worden.

Einen Supercomputer mehrere Jahre lang ununterbrochen laufen zu lassen, bloß um ein rundes Dutzend Zahlenwerte zu berechnen, mag manchem wie pure Verschwendung vorkommen. Aber für mich und meine Mitarbeiter war dies gut genutzte Zeit. Die Aufgaben, die wir der Maschine stellten, sind so kompliziert, daß sie sich prinzipiell nicht mit Papier und Bleistift lösen lassen; und es ging immerhin um Grundfragen der Elementarteilchentheorie.

Unser Forschungsgebiet ist die Quantenchromodynamik (QCD), die das Verhalten der Quarks beschreibt. Sie wurde in den siebziger Jahren formuliert und gibt an, auf welche Weise diese (nach gegenwärtigem Wissensstand) fundamentalsten Teilchen sich zu Paaren oder Tripletts verbinden, um Hadronen zu bilden – das heißt diejenige Klasse von Teilchen, zwischen denen die starke Kernkraft wirkt. Zu dieser Familie gehören die bekannten Kernteilchen Proton und Neutron, aber auch exotischere Partikel, die nur kurz bei hochenergetischen Zusammenstößen in Teilchenbeschleunigern oder kosmischen Strahlenschauern auftauchen (Spektrum der Wissenschaft, Januar 1992, Seite 46).

Erste Indizien für die Richtigkeit der QCD gewann man aus Experimenten, bei denen Elektronen an Hadronen gestreut wurden, um deren innere Struktur zu erforschen. Inzwischen bildet die Theorie einen Eckpfeiler im Standardmodell der Teilchenphysik.

Doch ein wichtiges Indiz fehlte noch. Als die grundlegende Theorie der Quarks sollte die QCD die Massen der Hadronen liefern – insbesondere die von Proton und Neutron. (Nicht daß diese Zahlenwerte unbekannt wären – man hat viele von ihnen experimentell gemessen, die des Protons und des Neutrons wurden sogar schon zu Beginn unseres Jahrhunderts bestimmt. Aber es ist ein Prüfstein für die Richtigkeit der Theorie, ob sie die experimentellen Werte zu reproduzieren vermag.) Aber bei den Berechnungen traten mathematische Probleme auf, deren Lösung sich nicht in Gestalt geschlossener Formeln niederschreiben ließ; und für eine passable Näherung hätte der schnellste Computer der siebziger Jahre mehr als 100 Jahre gebraucht.


Ein spezieller QCD-Computer

Darum begannen wir 1983 am Thomas-J.-Watson-Forschungszentrum der Firma IBM in Yorktown Heights (New York) einen ausschließlich auf QCD-Berechnungen zugeschnittenen Parallelrechner zu planen. Das GF 11 genannte System sollte elf Milliarden arithmetische Operationen pro Sekunde ausführen und somit mehr als hundertfach effektiver sein als die damals stärksten Computer. (Der rasante Fortschritt läßt diese Leistung heute weniger imposant erscheinen; sie entspricht etwa der von 200 parallel geschalteten Personalcomputern, die mit der neuesten Version des Pentium-Prozessors ausgerüstet sind.)

Nach einer Entwurfs-, Finanzierungs- und Konstruktionsphase von acht Jahren konnten wir 1991 endlich beginnen. Für die ersten Resultate – Werte für die Masse des Protons und sieben weiterer Hadronen – brauchte der Computer ein weiteres Jahr. Unsere Vorhersagen wichen um weniger als sechs Prozent von den experimentellen Werten ab; die Diskrepanz rührt nicht etwa von einer Ungenauigkeit der QCD selbst her, sondern von dem statistischen Näherungsverfahren, das wir benutzten.

Im November 1995 beendeten wir eine zweite Gruppe von Berechnungen. Diesmal war der Computer zwei Jahre lang ununterbrochen in Gang gewesen, um Masse und Zerfallsrate eines sogenannten Gluonenballs zu bestimmen – eines hypothetischen Teilchens, das der QCD zufolge in subnuklearen Prozessen flüchtig aufscheinen und gewisse Spuren hinterlassen sollte. Anhand der berechneten Werte analysierten wir die Protokolle einschlägiger Experimente und stellten fest, daß dieser Gluonenball tatsächlich schon in früheren Versuchen aufgetaucht, aber unerkannt geblieben war. Somit ist dies der erste Fall, daß man durch massiven Computereinsatz ein neues Teilchen identifiziert hat.

Wir sehen in unserer Berechnung der Hadronenmassen sowie der Masse und Zerfallsrate des Gluonenballs eine eindrucksvolle Bestätigung der QCD. Zudem liefert das Verfahren vielleicht ein Musterbeispiel dafür, wie man Fragen der Grundlagenphysik künftig angehen könnte. Wegen der enormen Kosten neuer Teilchenbeschleuniger und der Komplexität der Theorie vermag massiver Computereinsatz Probleme zu lösen, die anders gar nicht zu behandeln wären.


Die Quarks und ihr Farbfeld

Warum ist das Verhalten der Quarks so kompliziert? Ein Grund ist, daß sie vielfältige Kombinationen eingehen können. Quarks kommen in sechs sogenannten Flavors (wörtlich: Geschmacksrichtungen) vor: up und down, strange und charmed sowie top und bottom. Außerdem hat jedes Quark eine von drei sogenannten Farbladungen, die mit rot, grün und blau bezeichnet werden. Somit sind 18 verschiedene Kombinationen möglich. Zusätzlich existiert zu jedem Quark ein Antiteilchen; das ergibt nochmals 18 Kombinationen von Antiflavors und Antifarben.

Nun können aber der QCD zufolge isolierte Quarks oder Antiquarks nicht auftreten. Deshalb muß man ihre Eigenschaften indirekt erschließen, indem man die Wechselwirkung zwischen zwei Hadronen oder die von Hadronen mit anderen Elementarteilchen – etwa Elektronen oder Photonen – beobachtet.

Doch der Hauptgrund für die Kompliziertheit der QCD ist, daß die Farbladungen gleichsam eine Energietasche erzeugen – das sogenannte chromoelektrische Feld. In mancher Hinsicht verhalten sich die Farbladungen der Quarks wie gewöhnliche elektrische Ladungen, die um sich herum ein elektromagnetisches Feld aufbauen. Ähnlich wie im Atom ein solches Feld die negativ geladenen Elektronen an den positiv geladenen Kern bindet, fesselt das chromoelektrische Feld innerhalb der Hadronen die Quarks aneinander. Auf diese Weise erklärt die QCD eine Vielzahl möglicher Partikel, die sich aus unterschiedlichen Kombinationen der 36 Typen von Quarks und Antiquarks ergeben.

Allerdings hinkt der Vergleich. Das chromoelektrische Feld vermag nämlich – im Gegensatz zum elektromagnetischen – mit sich selbst in starke Wechselwirkung zu treten und sich auf unterschiedliche Weise zusammenzuballen. Innerhalb eines Hadrons kondensiert es zu einer Art unzerreißbarem Faden. Dieser trägt erheblich zur Gesamtmasse des Hadrons bei und ist die eigentliche Ursache dafür, daß sie sich nicht einfach aus der Summe der Massen der in ihm enthaltenen Quarks ergibt. Vor allem diese starke Selbst-Wechselwirkung des chromoelektrischen Feldes macht die Berechnung von Hadronenmassen so schwierig.

Schließlich können die schnurähnlichen Stücke des Feldes auch eine geschlossene Schleife bilden – und der QCD zufolge ein wirklich sonderbares Teilchen erzeugen: eines ohne Quarks und Antiquarks. Weil die Quanten des chromoelektrischen Feldes, das die Quarks gleichsam zu Hadronen zusammenklebt, Gluonen heißen (von englisch glue, Leim), nennt man derartige hypothetische Teilchen Gluonenbälle (glueballs; wörtlich: "Leimkugeln").

Die Gitter-QCD

Um von diesen allgemeinen Vorstellungen zu konkreten Vorhersagen zu gelangen, muß man das Verhalten der Quarks und ihres Feldes eingehender mathematisch interpretieren. Sämtliche bei QCD-Berechnungen eingesetzten numerischen Methoden (Computeralgorithmen) beruhen auf einer Idee aus dem Jahre 1974 von Kenneth G. Wilson, der jetzt an der Ohio State University in Columbus tätig ist.

Stark vereinfacht gesagt beschreibt Wilsons Version der QCD, wie sich die Konfiguration aus Quarks und chromoelektrischem Feld mit der Zeit verändert. Zum Beispiel könnte eine mögliche Konfiguration zu Mittag aus einem Quark bestehen, das sich mit einer Geschwindigkeit von einem Kilometer pro Stunde auf ein anderes Quark zubewegt, wobei das Farbfeld im gesamten Raum gleich null ist. Um 2 Uhr nachmittags beobachtet man vielleicht folgenden Zustand: Die beiden Quarks entfernen sich voneinander, und zwar senkrecht zur früheren Bewegungsrichtung, und das Feld ist jetzt an einigen Punkten im Raum von null verschieden. Wilsons Form der QCD weist nun jeder denkbaren Veränderung des Zustandes zwischen 12 und 14 Uhr eine bestimmte Wahrscheinlichkeit zu. Um quantitative Aussagen zu erhalten, muß man solche Übergangswahrscheinlichkeiten mit Hilfe mathematischer Kunstgriffe analysieren.

Wilsons Formulierung gilt für eine recht ungewöhnliche Welt: Die kontinuierliche, unbegrenzte Raumzeit wird durch ein diskretes Punktgitter in vier Dimensionen approximiert (drei für den Raum und eine für die Zeit). Dieses Gerüst hat nur endliches Volumen; die gesamte Raumzeit wird somit angenähert durch eine endliche Menge von Punkten beschrieben, wobei an jedem Gitterpunkt eine bestimmte Konfiguration von Quarks und Farbfeld auftritt. Darum trägt Wilsons Theorie den naheliegenden Namen Gitter-QCD (siehe "Die Gitter-Eichtheorie: warum Quarks eingesperrt sind" von Claudio Rebbi, Spektrum der Wissenschaft, April 1983, Seite 88).

Um Aussagen über die reale Welt zu erhalten, sucht man nun eine Folge von Gittern mit abnehmendem Punktabstand und zugleich wachsendem Gesamtvolumen durchzurechnen (läßt also die Gitterkonstante gegen null und das Gittervolumen gegen unendlich gehen). Der Grenzwert dieser Folge von Resultaten ist dann die Vorhersage der Gitter-QCD für die reale Welt (Bild 1).

Das Problem ist allerdings, daß Wilsons Regel zur Bestimmung der Übergangswahrscheinlichkeit die Summation einer riesigen Anzahl von Termen erfordert. Zum Ergebnis trägt jede Möglichkeit, eine bestimmte Art von zweispaltiger Tabelle aufzustellen, einen Summanden bei: In der ersten Spalte der Tabelle ist jeder Gitterpunkt aufgelistet, in der zweiten die Konfiguration von Quarks und Feldern an diesem Punkt.

Die Anzahl der unterschiedlichen Möglichkeiten, in eine solche Tabelle Konfigurationen einzutragen, ist tatsächlich astronomisch groß. In jedem Gitterpunkt repräsentieren 32 reelle Zahlen das chromoelektrische Feld. Für ein Gitter mit zehn Punkten in jeder Richtung (10 mal 10 mal 10 mal 10 – so ziemlich das Minimum für eine grobe Näherung) enthält eine Tabelle, die das Feld an jedem Punkt spezifiziert, 320000 reelle Zahlen – 32 für jeden der 10000 Gitterplätze. Selbst wenn wir die zusätzliche Komplikation, die Quarks zu beschreiben, vernachlässigen und obendrein die unrealistische Annahme machen, jede der 320000 Zahlen könne nur null oder eins sein, entspricht jede Tabelle einer Folge von 320000 Nullen und Einsen. Die Gesamtzahl aller derartigen Folgen – und damit eine untere Schranke für die Gesamtzahl der möglichen Terme in Wilsons Summe – beträgt 2 hoch 320000; als Dezimalzahl hat sie 96000 Stellen.


Die Monte-Carlo-Methode

Im Jahre 1979 entwickelten Michael J. Creutz, Lawrence A. Jacobs und Claudio Rebbi am Brookhaven-Nationallaboratorium in Upton auf Long Island (US-Bundesstaat New York) ein praktisches numerisches Verfahren, mit dem sich diese gigantische Berechnung umgehen läßt; sie folgten dabei teilweise einem Vorschlag von Wilson. Ihre Methode ist eine Variante der sogenannten Monte-Carlo-Integration, die sich durch zufällige Stichproben an die Lösung eines komplizierten Problems herantastet – ähnlich wie eine Meinungsumfrage, die den Gewinner einer Wahl herausfinden soll (siehe nebenstehenden Kasten). Statt die riesige Menge aller möglichen Gitterkonfigurationen explizit aufzusummieren, schätzt man die Summe mittels einer Stichprobe, für die nur eine viel kleinere Menge zufällig ausgewählter typischer Terme zu untersuchen ist. Auf diese Weise erfordert das Ausrechnen eines Gitters mit zehn Punkten pro Kante nur rund 20 Milliarden arithmetische Operationen. Im Jahre 1979 brachte es ein schneller Computer auf etwa eine halbe Million Rechenschritte pro Sekunde. Somit vermochte die Monte-Carlo-Methode in wenig mehr als einem halben Tag eine hinreichend gute Approximation zu liefern. Doch galt all dies nur für eine stark vereinfachte QCD: Sie berücksichtigte lediglich das Farbfeld und ignorierte die Quarks. Eine ähnliche Berechnung mit der vollständigen Theorie warf reihenweise technische Probleme auf. Im Jahre 1981 aber schlugen mehrere Physiker Monte-Carlo-Versionen vor, die auch die Anwesenheit von Quarks berücksichtigen konnten; beteiligt waren unter anderen Donald N. Petcher und ich (wir waren damals gemeinsam an der Universität von Indiana tätig) sowie Federico Fucito, Enzo Marinari und Giorgio Parisi von der Universität Rom, die mit Rebbi zusammenarbeiteten. Die erweiterten Algorithmen enthielten ein Maß für die Wahrscheinlichkeit, mit der Quarks und Antiquarks von der Anfangs- zur Endkonfiguration übergehen würden. Der Preis dafür war eine starke Zunahme der erforderlichen Rechenoperationen. Selbst der damals schnellste Computer wäre nicht imstande gewesen, innerhalb einer vernünftigen Zeitspanne ein für brauchbare Vorhersagen hinreichend großes Gitter rechnerisch zu bewältigen: Niemand ist bereit, 100 Jahre oder länger auf ein Resultat zu warten. Die Ursache der Komplikation war ein zusätzlicher Beitrag zur Energie jeder Konfiguration aus Quarks und chromoelektrischem Feld. Die Zusatzenergie stammt von Quark-Antiquark-Paaren, die überall dort, wo ein Farbfeld herrscht, kurz auftauchen und einander gleich wieder vernichten. Ich schlug 1981 eine Methode vor, diesen Effekt zu kompensieren. Bei dieser sogenannten Valenz-Approximation läßt man den Beitrag der Quark-Antiquark-Paare weg und dividiert dafür alle Farbladungen durch eine chromodielektrische Konstante (in Analogie zur Dielektrizitätskonstante bei elektrischen Feldern). Wie sich schließlich herausstellte, brauchten wir Gitter mit bis zu 32 Einheiten Kantenlänge, um beim Grenzübergang zu verschwindenden Punktabständen und unendlichem Volumen mit der Valenz-Approximation die Hadronenmassen vorhersagen zu können. Der Gesamtaufwand einer vollständigen Berechnung lag dann bei etwa 1017 arithmetischen Operationen. Doch Anfang der achtziger Jahre bewältigte der schnellste Computer nur rund 40 Millionen Operationen pro Sekunde oder 1015 pro Jahr; somit hätte die Berechnung der Hadronenmassen auch mittels Valenz-Approximation 100 Jahre gedauert. Wiederum verhinderte damals noch unzureichende Computerleistung, aus der Gitter-QCD realistische Vorhersagen zu gewinnen.

Der Spezialcomputer GF 11

Im Jahre 1983 begannen Monty Denneau, John Beetem und ich bei IBM, den speziellen Computer für QCD-Berechnungen zu entwerfen. Mit elf Milliarden Gleitkomma-Operationen pro Sekunde oder elf Gigaflops – daher der Name GF 11 – sollte die Maschine 250mal schneller sein als der seinerzeit beste Computer (Flops ist das Fachkürzel für englisch floating point operations per second). Zu diesem Zweck mußten 566 Prozessoren parallel arbeiten. Der Maschinenzyklus – die Zeit, die ein Prozessor für eine Addition oder Multiplikation braucht – lag bei 50 Nanosekunden (milliardstel Sekunden). Jeder Prozessor leistete 20 Megaflops (Millionen Gleitkomma-Operationen pro Sekunde) und konnte alle 200 Nanosekunden einen Datenwert an andere Prozessoren weiterreichen. (Heutzutage sind einige Dutzend Supercomputer in der Welt bis zu zehnmal schneller als GF 11.)

James C. Sexton und ich schrieben das Betriebssystem, einen Compiler sowie mehrere Programme für die Hardware-Diagnose. Zusammen mit einem Team unter der Leitung von David George entwickelten wir auch die Maschine zur Betriebsreife und gaben ihr schließlich mit weiteren Kollegen den letzten Schliff (Bild 2).

Ende 1991 konnten meine Mitarbeiter Frank Butler, Hong Chen, Alessandro Vaccarino, Sexton und ich mit dem Rechnen beginnen. Wir untersuchten die Massen von elf Hadronen, die aus Kombinationen der drei leichtesten Flavors von Quarks und Antiquarks bestehen: Up- und down-Quarks sind unter anderem die Bausteine des Neutrons (ein up, zwei down) und des Protons (zwei up, ein down); strange-Quarks kommen in instabilen Hadronen vor.

Wir berechneten jede Masse auf Gittern unterschiedlicher Größe. Für den jeweils gewählten Wert von Gitterkonstante und -volumen stellten wir bestimmte Parameter auf die experimentell bekannten Massen von drei Hadronen ein. Damit blieben uns für jeden Gittertyp noch acht Massen zur Berechnung übrig. Um den Grenzübergang zu unendlichem Volumen und verschwindender Gitterkonstante durchzuführen, extrapolierten wir die Werte, die wir bei sukzessiver Verkleinerung des Punktabstands und Vergrößerung des Volumens erhalten hatten, und erhielten mit diesem letzten Schritt die eigentlichen Vorhersagen der QCD.

Der Unterschied zwischen berechneter und experimentell bestimmter Masse lag in jedem Falle unter sechs Prozent. Alles in allem waren diese Abweichungen mit der Ungenauigkeit unseres Monte-Carlo-Algorithmus erklärbar. Zwar ist bei den Resultaten auch noch die Valenz-Approximation im Spiel; doch wir glauben nicht, daß sie zufällig acht richtige Werte liefern könnte, wenn die QCD selbst falsch wäre. Somit bestätigen unsere Ergebnisse sowohl, daß die QCD die Massen richtig vorhersagt, als auch, daß die Valenz-Approximation zuverlässig ist.

Kürzlich haben nun Sexton, Vaccarino und ich die Eigenschaften des leichtesten Gluonenballs (er gleicht einer geschlossenen Schleife im chromoelektrischen Feld) untersucht. Die Resultate früherer Berechnungen mit langsameren Computern waren so unsicher gewesen, daß man zuvor noch keinen Gluonenball eindeutig in experimentellen Daten aufgespürt hatte. Wir ließen 448 Prozessoren des GF 11 zwei Jahre lang unentwegt arbeiten, um die Masse des leichtesten Gluonenballs und seine Zerfallsrate zu ermitteln. Das Ergebnis überraschte uns, denn demnach war dieses Teilchen im Laufe der letzten zwölf Jahre bereits in mehreren unterschiedlichen Experimenten aufgetaucht; es war nur nicht erkannt worden, weil man noch keinen detaillierten Steckbrief hatte. Die Berechnung ist somit gewissermaßen die erste Entdeckung eines subnuklearen Teilchens per Computer (Bild 3).

Trotz dieses Erfolgs steht eine direkte Bestätigung der QCD – ohne Approximationen – noch aus. Dafür muß man entweder auf einen Computer warten, der vielhundertmal schneller ist als der GF 11, oder auf Algorithmen, die entsprechend effizienter sind als die besten, die wir heute kennen. Eine derart leistungsfähige Maschine wird zur Zeit von einer Gruppe an der Columbia-Universität in New York geplant, eine andere an der Universität von Rom und eine dritte als gemeinsames Projekt mehrerer japanischer Institute. Schwieriger als die Massenberechnung wäre es, bestimmte Streuexperimente mit Hilfe der QCD zu erklären; vielleicht müßten dafür völlig neue Algorithmen entwickelt werden.


Experimentelle theoretische Physik

Unsere Marathonrechnungen liefern nicht nur Hadronen- und Gluonenball-Massen; sie zeigen außerdem, daß sich die Methodik in einigen Bereichen der Teilchenphysik grundlegend zu wandeln beginnt. Zwar verwendet man in anderen Zweigen der Physik bereits vielfach numerische Methoden mittels Computern, aber bei der theoretischen Analyse des Teilchenverhaltens haben bisher Papier und Bleistift dominiert. Doch die QCD ist für analytische Lösungsverfahren höchst unzugänglich; unsere Resultate wurden erst möglich, als leistungsstarke Computer die erforderlichen Algorithmen zu bewältigen vermochten.

Ein qualitativer Unterschied zwischen dem formalistischen und dem numerischen Ansatz liegt in der Sicherheit der Ergebnisse. In einer herkömmlichen theoretischen Arbeit mit mathematischem Apparat läßt sich (im Prinzip) für jeden Schritt nachweisen, daß er logisch aus dem vorhergehenden folgt, und damit weiß man am Ende, daß das Resultat tatsächlich stimmt. Hingegen ist es – sowohl in der Experimentalphysik als auch bei umfangreichen Computerrechnungen – fast immer unmöglich, die Korrektheit der Ergebnisse streng zu beweisen; statt dessen akzeptiert man plausible Resultate, wenn genügend viele Versuche, sie zu widerlegen, gescheitert sind.

Zum Beispiel akzeptieren wir die empirische Aussage, daß alle Steine zu Boden fallen, weil niemand jemals einen Stein beobachtet hat, der sich von selbst aufwärts bewegt. Dennoch wäre es prinzipiell möglich, daß jemand eines Tages ein solches Phänomen beobachtet. Mangel an Indizien ist noch kein Beweis, daß es eine Ausnahme von der empirisch gestützten Regel nicht gäbe.

In diesem Sinne gleicht auch unsere Arbeit der erfolglosen Suche nach dem Stein, der ohne Zutun steigt. Indem wir von einem relativ groben Gitter ausgehend zu verschwindend kleiner Gitterkonstante extrapolierten, erhielten wir für die Protonenmasse einen Wert von 936 MeV (Millionen Elektronenvolt; 1 MeV entspricht 1,78 × 10-30 Gramm). Es wäre aber prinzipiell denkbar, daß wir mit einem viel feineren Anfangsgitter auf, sagen wir, 2000 MeV gekommen wären. Insofern spricht zwar der Grenzwert unserer Extrapolation für den von uns behaupteten Wert der Protonenmasse, aber wirklich streng bewiesen ist er damit nicht.

Unser Verfahren läßt sich vielleicht – so paradox das klingt – als experimentelle theoretische Physik charakterisieren. Angesichts der Kompliziertheit der Theorie, der wachsenden Kosten großer Beschleuniger sowie der im Vergleich dazu erschwinglichen Computer mit immer größerer Rechenkapazität könnte dieser Methode in einigen Bereichen der Physik die Zukunft gehören.

Literaturhinweise

- Gauge Theory of Elementary Particle Physics. Von Ta-Pei Cheng und Ling-Fong Li. Oxford University Press, 1984.

– Lattice Quantum Chromodynamics. Von D. Weingarten in: Particles, Strings and Supernovae. Herausgegeben von A. Jevicki und C.-I. Tan. World Scientific, Singapur 1989.

– Lattice Gauge Theories. Von H.J. Rothe. World Scientific, Singapur 1992.

– Hadron Mass Predictions of the Valence Approximation to Lattice QCD. Von F. Butler, H. Chen, J. Sexton, A. Vaccarino und D. Weingarten in: Physical Review Letters, Band 70, Heft 19, Seiten 2849 bis 2852, 10. Mai 1993.

– Quarks, Gluons and Lattices. Von M. Creutz. Cambridge University Press, 1993.

– Quantum Fields on a Lattice. Von I. Montvay und G. Munster. Cambridge University Press, 1994.

– Teilchen, Felder und Symmetrien. 2. Auflage. Spektrum der Wissenschaft: Verständliche Forschung. Spektrum Akademischer Verlag, Heidelberg 1995.


Aus: Spektrum der Wissenschaft 4 / 1996, Seite 62
© Spektrum der Wissenschaft Verlagsgesellschaft mbH

Kennen Sie schon …

Spektrum - Die Woche – Quantencomputer – Von wegen überlegen!

Spektrum der Wissenschaft – Vorsicht Statistik!: Vorsicht Statistik!

Universelle Gesetze: Zentraler Grenzwertsatz und Zufallsmatrizen • Superlative: Sportliche Höchstleistungen und Hitzewellen • Fehlschlüsse: Missbrauch des p-Werts und mangelnde Reproduzierbarkeit

Spektrum Kompakt – Künstliche Intelligenz - Wie Maschinen lernen lernen

Es ist schon lange keine Sciencefiction mehr: Maschinen lernen, teils komplett auf sich selbst gestellt, Dinge oder Prozesse, die bislang nur Menschen beherrschten. Doch wie funktioniert das? Was steckt hinter Begriffen wie maschinelles Lernen, deep learning und neuronale Netze?

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.