Direkt zum Inhalt

100 Jahre Quantentheorie

Keine physikalische Theorie ist präziser – und keine wirft zur Frage, was da eigentlich gemessen wird, ähnlich knifflige Interpretationsprobleme auf. Jetzt zeichnet sich unter dem Begriff "Dekohärenz" eine schlüssige Lösung ab.


Schon in wenigen Jahren werden alle fundamentalen physikalischen Konstanten annähernd bestimmt worden sein, und ... die einzige Beschäftigung, die dann den Wissenschaftlern bleibt, wird sein, diese Messungen eine Dezimalstelle weiter zu treiben." Während wir ins 21. Jahrhundert eintreten und stolz die Bilanz vergangener Errungenschaften ziehen, mag diese Stimmung vertraut klingen. Doch das Zitat stammt aus James Clerk Maxwells Antrittsvorlesung an der Universität Cambridge im Jahre 1871 und drückt die damals vorherrschende Meinung aus – die Maxwell übrigens nicht teilte. Drei Jahrzehnte später, am 14. Dezember 1900, trug Max Planck seine Formel für das Strahlungsspektrum schwarzer Körper vor und läutete damit die Revolution der Quantentheorie ein.

Dieser Artikel lässt die ersten hundert Jahre Quantenphysik Revue passieren und berücksichtigt dabei besonders ihre mysteriöse Seite und die anhaltende Debatte über ihre breit gefächerten Konsequenzen – von Quantencomputern bis zum menschlichen Bewusstsein, von Paralleluniversen bis zum Wesen der physikalischen Wirklichkeit. Dabei übergehen wir die erstaunliche Bandbreite der wissenschaftlich-technischen Anwendungen: Heutzutage beruht schätzungsweise ein Drittel des Bruttoinlandsprodukts der USA auf Erfindungen, die durch die Quantenphysik ermöglicht wurden – vom Halbleiter im Computerchip über Laser im CD-Player bis zur Kernspintomographie im Krankenhaus und vielem mehr.

1871 hatten die Naturforscher gute Gründe für ihren Optimismus. Klassische Mechanik und Elektrodynamik trieben die industrielle Revolution voran, und anscheinend vermochten ihre Grundgleichungen alle physikalischen Systeme zu beschreiben. Nur ein paar lästige Details trübten das Bild. Zum Beispiel passte keine Formel auf das gesamte Strahlungsspektrum eines glühend heißen Objekts. Tatsächlich wurde die klassische Vorhersage sogar Ultraviolett-Katastrophe genannt: Ihr zufolge hätte beim Betrachten einer Herdplatte intensive Ultraviolett- und Röntgenstrahlung das Augenlicht gefährden müssen.

In seiner Arbeit von 1900 gelang Planck die Herleitung des korrekten Spektrums – allerdings um den Preis einer derart bizarren Annahme, dass er sich viele Jahre lang von ihr distanzierte: Energie werde nur in bestimmten Portionen oder "Quanten" emittiert. Doch diese seltsame Annahme erwies sich als äußerst erfolgreich. Im Jahre 1905 trieb Einstein die Idee einen Schritt weiter. Indem er annahm, Strahlung könne Energie nur in solchen Stücken oder "Photonen" transportieren, erklärte er den photoelektrischen Effekt, der bei den Vorgängen in heutigen Solarzellen und Bildsensoren in digitalen Kameras eine zentrale Rolle spielt.

Das rätselhafte Wasserstoffatom


Im Jahre 1911 geriet die Physik in eine weitere große Verlegenheit. Ernest Rutherford hatte überzeugend dargelegt, dass die Atome aus Elektronen bestehen, die einen positiv geladenen Kern umkreisen – ganz ähnlich einem winzigen Sonnensystem. Doch gemäß der Theorie des Elektromagnetismus müssten die umlaufenden Elektronen ihre Energie kontinuierlich abstrahlen und binnen einer billionstel Sekunde in den Kern stürzen. Natürlich sind Wasserstoffatome in Wahrheit äußerst stabil. In der Tat war diese Diskrepanz das schlimmste quantitative Versagen in der Geschichte der Physik: Die Lebensdauer von Wasserstoff wurde damit um rund vierzig Größenordnungen unterschätzt.

1913 lieferte Niels Bohr, der an die Universität Manchester gekommen war, um mit Rutherford zu arbeiten, eine Erklärung, die wiederum Quanten benutzte. Er postulierte, dass der Bahndrehimpuls der Elektronen nur bestimmte diskrete Werte annehmen darf, wodurch den Elektronen nur gewisse Bahnradien erlaubt sind. Die Elektronen können demnach nur Energie abstrahlen, indem sie aus einer solchen erlaubten Bahn zu einer niedrigeren springen und dabei ein einzelnes Photon abgeben. Weil ein Elektron auf der innersten Bahn keine Bahnen noch tieferer Energie vorfindet, auf die es springen könnte, bildet es ein stabiles Atom.

Bohrs Theorie erklärte auch viele Spektrallinien des Wasserstoffs – die spezifischen Frequenzen, die von angeregten Atomen emittiert werden. Sie funktionierte auch für das Heliumatom, aber nur, wenn das Atom eines seiner beiden Elektronen beraubt war. Nach Bohrs Rückkehr nach Kopenhagen schrieb ihm Rutherford, er müsse seine Resultate veröffentlichen. Bohr schrieb zurück, niemand würde ihm glauben, wenn er nicht die Spektren aller Elemente erkläre. Rutherford antwortete: "Bohr, Du erklärst Wasserstoff und Du erklärst Helium, und jeder wird Dir alles Übrige glauben."

Trotz der anfänglichen Erfolge des Quantenkonzepts wussten die Physiker noch nicht, was sie von den anscheinend willkürlichen Regeln halten sollten. Es schien kein zu Grunde liegendes Prinzip zu geben. Im Jahre 1923 schlug Louis de Broglie in seiner Doktorarbeit eine Antwort vor: Elektronen und andere Teilchen verhalten sich wie stehende Wellen, die – wie die Schwingungen einer Gitarrensaite – nur mit bestimmten diskreten, das heißt quantisierten Frequenzen auftreten können. Die Idee war so ungewöhnlich, dass das Prüfungsgremium sich externen Rat holte. Als Einstein gefragt wurde, gab er ein positives Urteil ab, und die Dissertation wurde akzeptiert.

Im November 1925 hielt Erwin Schrödinger in Zürich ein Seminar zu de Broglies Arbeit ab. Nachher fragte Peter Debye: Sie sprechen über Wellen, aber wo ist die Wellengleichung? Daraufhin entwickelte Schrödinger die nach ihm benannte Gleichung und stieß damit das Tor zu einer neuen Physik auf. Ungefähr zur selben Zeit lieferten Max Born, Pascual Jordan und Werner Heisenberg eine äquivalente Formulierung mittels Matrizen. Mit dieser mächtigen mathematischen Ausstattung machte die Quantentheorie rapide Fortschritte. Binnen weniger Jahre hatten die Physiker unzählige Messungen erklärt, insbesondere die Spektren komplizierterer Atome und die Eigenschaften chemischer Reaktionen.

Kuriose Katzen und Quantenkarten


Aber was bedeutete das alles? Was war diese "Wellenfunktion", die durch Schrödingers Gleichung beschrieben wurde? Diese zentrale Frage der Quantenmechanik bleibt bis zum heutigen Tag ein gewaltiges und heiß umstrittenes Problem.

Born erkannte, dass die Wellenfunktion über Wahrscheinlichkeiten interpretiert werden sollte. Wenn die Experimentalphysiker den Ort eines Elektrons messen, hängt die Wahrscheinlichkeit, es in einem bestimmten Gebiet zu finden, vom dort gültigen Wert der Wellenfunktion ab. Dieser Interpretation zufolge enthalten die Naturgesetze ein fundamentales Element des Zufalls. Einstein war mit dieser Schlussfolgerung zutiefst unglücklich und drückte seine Vorliebe für ein deterministisches Universum mit der oft zitierten Bemerkung aus, er könne nicht glauben, dass Gott würfle.

Auch Schrödinger war nicht wohl bei der Sache. Die Wellenfunktionen können Kombinationen unterschiedlicher Zustände beschreiben, so genannte Superpositionen. Zum Beispiel kann ein Elektron als Superposition mehrerer Ortszustände existieren. Schrödinger betonte nun: Wenn mikroskopische Objekte wie einzelne Atome als seltsame Zustandsüberlagerungen existieren können, dann auch makroskopische Gegenstände, denn sie bestehen doch schließlich aus Atomen. Als drastisches Beispiel wählte er das unterdessen berühmte Gedankenexperiment, bei dem ein heimtückischer Apparat eine Katze genau dann tötet, wenn ein radioaktives Atom zerfällt. Weil das Atom eine Superposition von zerfallen und nicht zerfallen bildet, erzeugt es eine Katze, die als Überlagerung von tot und lebendig existiert.

Die Abbildung links zeigt eine simplere Variante dieses Gedankenexperiments. Man nehme eine Spielkarte mit perfekt scharfen Kanten und lasse sie hochkant auf einem Tisch balancieren. Gemäß der klassischen Physik müsste sie im Prinzip ewig in labilem Gleichgewicht bleiben. Doch gemäß der Schrödinger-Gleichung wird die Karte binnen Sekunden umfallen, selbst wenn man sie noch so gut ausbalanciert hat, und sie wird als Überlagerung in beide Richtungen fallen – nach rechts und nach links.

Könnte man dieses idealisierte Gedankenexperiment mit einer wirklichen Karte ausführen, würde man zweifellos feststellen, dass die klassische Physik falsch ist und die Karte umfällt. Aber man würde sie immer nur entweder nach links oder nach rechts fallen sehen – scheinbar ganz zufällig –, aber niemals gleichzeitig nach links und nach rechts, wie uns die Schrödinger-Gleichung glauben machen will. Dieser scheinbare Widerspruch führt uns zum Kern eines hartnäckigen Quanten-Rätsels.

Die so genannte Kopenhagener Deutung, die aus Diskussionen zwischen Bohr und Heisenberg gegen Ende der zwanziger Jahre hervorging, versucht das Rätsel zu lösen, indem sie behauptet, Beobachtungen oder Messungen seien etwas ganz und gar Spezielles. Solange die labile Karte unbeobachtet bleibt, entwickelt sich ihre Wellenfunktion gemäß der Schrödinger-Gleichung; diese kontinuierliche und glatte Entwicklung heißt in der Mathematik "unitär" und hat mehrere höchst attraktive Eigenschaften. Die unitäre Entwicklung erzeugt die Superposition, bei der die Karte sowohl nach links als auch nach rechts umgefallen ist. Doch der Akt der Beobachtung löst bei der Wellenfunktion der Karte eine abrupte Veränderung aus, die meist "Kollaps" genannt wird: Der Beobachter sieht die Karte in einem definierten klassischen Zustand – Bildseite entweder oben oder unten –, und von da an besteht nur noch dieser Teil der Wellenfunktion weiter. Demnach wählt die Natur einen Zustand nach dem Zufallsprinzip aus, wobei die Wahrscheinlichkeiten durch die Wellenfunktion festgelegt werden.

Die Kopenhagener Deutung lieferte ein enorm erfolgreiches Rechenrezept, das die experimentellen Resultate richtig wiedergab – aber der Verdacht blieb, dass irgendeine Gleichung angeben sollte, wann und wie dieser Kollaps eintritt. Viele Physiker sahen im Fehlen dieser Gleichung ein Indiz, dass etwas Wichtiges mit der Quantenmechanik nicht stimme und dass sie bald durch eine fundamentalere Theorie ersetzt würde, die eine solche Gleichung liefern könne. Doch statt sich mit ontologischen Spekulationen über diese oder jene Gleichung aufzuhalten, entwickelten die meisten Physiker die vielfältigen aufregenden Anwendungen der Theorie zügig weiter und machten sich an die drängenden ungelösten Probleme der Kernphysik.

Diese pragmatische Einstellung erwies sich als ungeheuer erfolgreich. Die Quantenmechanik war unabdingbar, um die Existenz von Antimaterie vorherzusagen, die Radioaktivität zu verstehen – und die Kernenergie zu nutzen –, das Verhalten von Halbleitern und die Supraleitung zu erklären, die Wechselwirkung zwischen Licht und Materie zu beschreiben – was zur Erfindung des Lasers führte – sowie diejenige zwischen Radiowellen und Atomkernen, woraus die Kernspintomographie hervorging. Viele Erfolge der Quantenmechanik sind ihrer Erweiterung, der Quantenfeldtheorie, zu verdanken: Sie bildet die Grundlage der Elementarteilchenphysik bis hin zu den neuesten Experimenten zu Neutrino-Oszillationen, zur aktuellen Suche nach dem Higgs-Teilchen und zur Supersymmetrie.

Viele Welten


Bis in die fünfziger Jahre hatte die fortdauernde Erfolgsserie klar erwiesen, dass die Quantentheorie viel mehr war als eine kurzlebige Hilfskonstruktion. Darum beschloss ein Student namens Hugh Everett III an der Universität Princeton Mitte der fünfziger Jahre, in seiner Dissertation das Kollaps-Postulat erneut unter die Lupe zu nehmen. Everett trieb den Geltungsbereich des Quantenformalismus auf die Spitze, indem er fragte: Was, wenn die zeitliche Entwicklung des gesamten Universums stets unitär ist? Wenn die
Quantenmechanik das Universum zu beschreiben vermag, dann wird sein gegenwärtiger Zustand durch eine – äußerst komplizierte – Wellenfunktion beschrieben. Everett zufolge entwickelt sich diese Wellenfunktion stets auf deterministische Weise und lässt keinen Raum für einen mysteriösen nicht-unitären Kollaps oder einen würfelnden Gott.

Statt durch Messungen zu kollabieren, werden demnach mikroskopische Superpositionen blitzartig zu monströsen makroskopischen Überlagerungen vergrößert. Unsere Quanten-Spielkarte aus dem Gedankenexperiment ist wirklich an zwei Orten gleichzeitig. Ein Beobachter der Karte gerät in eine Superposition aus zwei unterschiedlichen mentalen Zuständen, wobei jeder eine der beiden Möglichkeiten wahrnimmt. Hätten Sie darauf gewettet, dass die Spielkarte mit dem Bild nach oben landet, so würden Sie als Überlagerung von lächelnd und schmollend enden. Everetts brillante Erkenntnis war, dass die Beobachter in einer solchen deterministischen und zugleich schizophrenen Quantenwelt dennoch die gute alte Realität wahrnehmen können, mit der wir vertraut sind. Vor allem konstatieren sie ein Zufallsverhalten, das den korrekten Wahrscheinlichkeitsregeln gehorcht.

Everetts Standpunkt hieß zwar ursprünglich Relativzustandsformulierung, wurde aber als Vielwelten-Interpretation der Quantenmechanik bekannt, weil jede Komponente der Beobachter-Superposition ihre eigene Welt wahrnimmt. Dieser Standpunkt vereinfacht die Theorie, indem er das Kollaps-Postulat aus der Welt schafft. Doch der Preis für diese Vereinfachung ist die Konsequenz, dass die parallelen Wahrnehmungen der Wirklichkeit alle gleichermaßen real sind.

Everetts Arbeit wurde zwei Jahrzehnte lang praktisch ignoriert. Viele Physiker hofften noch immer auf eine tiefer liegende Theorie, aus der vielleicht hervorginge, dass die Welt in gewissem Sinne doch klassisch sei – jedenfalls frei von Kuriositäten wie großen Objekten an zwei Orten zugleich. Doch solche Hoffnungen wurden durch eine Serie neuer Experimente zunichte gemacht.

Lässt sich die quantenphysikalische Zufälligkeit vielleicht durch irgendwelche unbekannten Größen innerhalb der Teilchen – so genannte verborgene Variable – klassisch erklären, das heißt auf deterministische Prozesse zurückführen? Wie der damals am europäischen Kernforschungszentrum Cern tätige Theoretiker John S. Bell zeigte, würden in diesem Fall gewisse Ensembles von Messwerten, die in höchst diffizilen Experimenten bestimmt werden könnten, unweigerlich den Vorhersagen der etablierten Quantentheorie widersprechen. Erst nach vielen Jahren wurden solche Versuche technisch durchführbar; sie schlossen die Existenz von (lokalen) verborgenen Variablen definitiv aus.

Einer von uns (Wheeler) schlug schon 1978 ein "Experiment mit verzögerter Wahl" vor, das schließlich 1984 ausgeführt wurde. Es demonstriert eine weitere Quanteneigenschaft, die jeder klassischen Beschreibung Hohn spricht: Nicht nur, dass ein Photon an zwei Orten zugleich sein kann – die Experimentatoren können sogar im Nachhinein auswählen, ob das Photon sich an beiden Orten aufgehalten hat oder nur an einem der beiden.

Auch das einfache Doppelspalt-Experiment, bei dem Photonen oder Elektronen nach Passieren zweier Spalte ein Interferenzmuster erzeugen – nach Richard Feynman der typische Quanteneffekt überhaupt –, wurde im Laufe der Zeit mit immer größeren Objekten wiederholt: mit Atomen, kleinen Molekülen und kürzlich sogar mit Kügelchen aus 60 Kohlenstoffatomen, so genannten Fullerenen. Nach diesem letzten Kunststück hält Anton Zeilinger von der Universität Wien es sogar für möglich, das Experiment mit Viren durchzuführen. Kurz, alle Experimente besagen eindeutig: Die Quantenwelt ist wirklich so seltsam, ob es uns passt oder nicht.

Nicht nur die Experimentiertechnik machte in den letzten Jahrzehnten große Fortschritte, sondern auch die Theorie. Everetts Arbeit ließ entscheidende Fragen unbeantwortet: Wenn die Welt tatsächlich bizarre makroskopische Superpositionen enthält, warum nehmen wir sie nicht wahr?

Eine bahnbrechende Arbeit von H. Dieter Zeh von der Universität Heidelberg lieferte 1970 die Antwort. Er zeigte, dass die Schrödinger-Gleichung selbst eine Art Zensur zur Folge hat. Dieser Effekt wurde unter dem Namen Dekohärenz bekannt, denn eine ursprünglich vollkommene Superposition heißt kohärent. In den folgenden Jahrzehnten wurde das Prinzip der Dekohärenz durch Wojciech H. Zurek vom Los Alamos National Laboratory in New Mexico sowie von Zeh und anderen detailliert ausgearbeitet. Demnach bestehen kohärente Superpositionen nur, solange der Rest der Welt sozusagen nichts von ihnen weiß. Die umgefallene Quantenkarte aus unserem Gedankenexperiment wird fortwährend von neugierigen Luftmolekülen und Photonen angestoßen, die infolgedessen herausfinden, ob sie nach rechts oder nach links umgeklappt ist; durch Zerstören der Superposition – durch "Dekohärenz" – wird die Zustandsüberlagerung als solche unbeobachtbar (siehe Kasten auf Seite 73). Es ist fast, als übernehme die Umgebung die Rolle des Beobachters, der den Kollaps der Wellenfunktion herbeiführt. Angenommen, Ihre Freundin betrachtet die liegende Spielkarte, ohne Ihnen das Ergebnis zu verraten. Gemäß der Kopenhagener Deutung lässt dieser Messvorgang die Superposition zu einem eindeutigen Resultat kollabieren, und Ihre bestmögliche Beschreibung der Karte verwandelt sich aus einer Quantensuperposition in eine klassische Darstellung Ihrer Unkenntnis dessen, was Ihre Freundin gesehen hat. Grob gesagt zeigen die Dekohärenz-Berechnungen, dass man auch ohne menschlichen Beobachter – oder expliziten Kollaps der Wellenfunktion – praktisch denselben Effekt erhält: Schon ein von der liegenden Karte abprallendes Luftmolekül genügt. Diese winzige Wechselwirkung verwandelt die Superposition lokal augenblicklich in eine klassische Situation – zumindest unter allen praktischen Gesichtspunkten.

Quantenzensur und Dekohärenz


Die Dekohärenz erklärt, warum wir im Alltag keine Quantensuperpositionen sehen. Der Grund ist nicht etwa, dass die Quantenmechanik an sich für Objekte oberhalb einer magischen Größe nicht gelten würde. Vielmehr ist es fast unmöglich, makroskopische Gegenstände wie Katzen und Spielkarten auf Dauer so perfekt zu isolieren, wie es erforderlich wäre, um Dekohärenz zu verhindern. Hingegen lassen sich mikroskopische Objekte einfacher von ihrer Umgebung isolieren und behalten darum ihr Quantenverhalten bei.

Eine weitere Frage, die in Everetts Arbeit unbeantwortet blieb, war subtiler, aber ebenso wichtig: Was für ein Mechanismus wählt just die klassischen Zustände – bei unserer Karte entweder "Bild oben" oder "Bild unten" – als besondere aus? Als abstrakte Quantenzustände betrachtet ist an ihnen nichts Besonderes gegenüber den unzähligen möglichen Überlagerungen von "Bild oben" und "Bild unten" mit unterschiedlichen Amplitudenverhältnissen. Warum spalten die vielen Welten sich fein säuberlich gemäß der uns vertrauten Alternative Oben/Unten auf – und niemals längs anderer Alternativen?

Auch diese Frage vermag die Dekohärenz zu beantworten. Den Berechnungen zufolge sind klassische Zustände wie "Bild oben" und "Bild unten" genau diejenigen, denen Dekohärenz nichts anhaben kann. Das heißt also, Wechselwirkungen mit der Umwelt lassen zwar Karten mit dem Bild oben und Karten mit dem Bild unten unbehelligt, zwingen aber jede Superposition von "oben" und "unten" in eine der klassischen Alternativen "oben" oder "unten".

Üblicherweise analysieren die Physiker das Universum, indem sie es in zwei Bereiche aufspalten. Zum Beispiel trennen die Theoretiker in der Thermodynamik einen materiellen Körper von allem Übrigen rundum, und diese "Umgebung" definiert dann die herrschenden Temperatur- und Druckbedingungen. Die Quantenphysik trennt für gewöhnlich das Quantensystem von der klassischen Messvorrichtung. Wenn man Unitarität und Dekohärenz ernst nimmt, ist es lehrreich, das Universum in drei Bereiche zu unterteilen: das jeweilige Objekt, die Umgebung und das beobachtende Subjekt.

Die durch Wechselwirkung der Umwelt mit dem Objekt oder dem Subjekt verursachte Dekohärenz garantiert, dass wir niemals Quantensuperpositionen von mentalen Zuständen wahrnehmen. Außerdem ist unser Gehirn unentwirrbar mit der Umwelt verwoben; darum tritt, wenn unsere Neuronen feuern, unvermeidlich und praktisch augenblicklich Dekohärenz ein. Wie Zeh betont hat, rechtfertigen diese Schlussfolgerungen die seit langem geübte Praxis, das Lehrbuch-Postulat vom Kollaps der Wellenfunktion als pragmatisches Rezept – nach der Devise "Halt den Mund und rechne" – zu benutzen: Berechne Wahrscheinlichkeiten so, als würde die Wellenfunktion kollabieren, wenn das Objekt beobachtet wird. Obgleich von
Everetts Standpunkt die Wellenfunktion streng genommen niemals kollabiert, stimmen die Dekohärenz-Forscher im Allgemeinen darin überein, dass die Dekohärenz eine Wirkung hat, die einem Kollaps zum Verwechseln ähnlich sieht.

Dekohärenz und Gehirn


Durch die Entdeckung der Dekohärenz sowie durch immer raffiniertere experimentelle Demonstrationen kurioser Quanteneigenschaften haben die Ansichten der Physiker sich merklich gewandelt. Der Begriff "Kollaps der Wellenfunktion" sollte einst hauptsächlich erklären, warum bei Experimenten spezifische Ergebnisse herauskommen und nicht seltsame Überlagerungen von Ergebnissen. Nun hat sich dieses Motiv praktisch erledigt. Außerdem vermochte peinlicherweise niemand eine nachprüfbare Gleichung vorzulegen, die präzise festlegt, wann und wo der mysteriöse Kollaps eintreten soll.

Eine informelle Umfrage, die im Juli 1999 bei einer Tagung über Quantencomputer am Isaac-Newton-Institut in Cambridge durchgeführt wurde, deutet auf einen allmählichen Meinungsumschwung hin. Von neunzig befragten Physikern bekannten sich nur acht ausdrücklich zum Kollaps der Wellenfunktion. Dreißig wählten "Viele Welten oder konsistente Historien (ohne Kollaps)". Der "Ansatz mit konsistenten Historien" (consistent-histories approach) analysiert, grob gesagt, Serien von Messungen und lässt von den durch die Messresultate definierten "Historien" nur solche zu, für die sich als Ganzes "konsistente" Wahrscheinlichkeiten ergeben.

Aber das Meinungsbild ist undeutlich: Von den Befragten wollten sich die meisten, nämlich fünfzig Forscher, für keine der angebotenen Antworten entscheiden. Ein Grund für diese große Anzahl mag der grassierende terminologische Wirrwarr sein. Nicht selten sagen zwei Physiker beispielsweise, sie seien für die Kopenhagener Deutung, und stellen dann fest, dass sie nicht dasselbe darunter verstehen.

Trotzdem macht die Umfrage deutlich, dass es an der Zeit ist, die Lehrbücher der Quantenmechanik zu aktualisieren. Obzwar diese Bücher in einem der ersten Kapitel unweigerlich den nicht-unitären Kollaps als fundamentales Postulat anführen, zeigt die Umfrage, dass heute viele Physiker – zumindest auf dem brandneuen Gebiet der Quantencompu-ter – dieses Postulat nicht mehr ernst nehmen. Der Begriff Kollaps wird zweifellos seinen Nutzen als Rechenrezept behalten, aber ein warnender Kommentar, der verdeutlicht, dass es sich dabei wahrscheinlich nicht um einen fundamentalen Vorgang handelt, der die Schrödinger-Gleichung verletzt, könnte klugen Studenten stundenlanges Grübeln ersparen.

Umrisse einer endgültigen Theorie


Nach hundert Jahren Quantentheorie – was liegt vor uns? Welche Rätsel bleiben? Warum gibt es Quanten? Obwohl in den Debatten um die richtige Interpretation der Quantenmechanik oft Grundfragen der Ontologie und des tiefsten Wesens der Realität auftauchen, ist diese Theorie wohl nur ein Stein in einem größeren Puzzle. Theorien lassen sich grob in einem hierarchischen Schema anordnen, wobei sich jede – zumindest im Prinzip – von fundamentaleren Theorien herleitet, die in der Hierarchie über ihr stehen. Fast ganz oben thronen Allgemeine Relativitätstheorie und Quantenfeldtheorie. Die Schicht darunter umfasst Spezielle Relativitätstheorie und Quantenmechanik, die ihrerseits Elektromagnetismus, klassische Mechanik, Atomphysik und so fort unter sich haben. Fachgebiete wie Informatik, Psychologie und Medizin erscheinen in diesem Schema tief unten.

All diese Theorien enthalten zwei Komponenten: mathematische Gleichungen sowie Worte, die erklären, wie die Gleichungen mit experimentellen Beobachtungen zusammenhängen. Die Quantenmechanik hat in der üblichen Lehrbuchdarstellung beide Komponenten: einige Gleichungen sowie drei grundlegende Postulate, die in gewöhnlicher Umgangssprache formuliert sind. Auf jeder Stufe der Theorie-Hierarchie werden neue Begriffe – wie Proton, Atom, Zelle, Organismus, Kultur – eingeführt, weil sie auf bequeme Weise das Wesentliche einfangen, ohne auf die übergeordneten Theorien zurückgreifen zu müssen. Im Großen und Ganzen nimmt das Verhältnis von Gleichungen zu Worten ab, wenn man in der Hierarchie abwärts schreitet, und fällt für sehr anwendungsnahe Gebiete wie Medizin und Soziologie fast auf null. Hingegen sind die Theorien in der Nähe des Gipfels fast reine Mathematik, und die Physiker kämpfen noch immer darum, die mathematisch verschlüsselten Begriffe zu verstehen.

Das Endziel der Physik ist etwas, das halb im Scherz eine Theorie von Allem genannt wird – eine Theorie, aus der sich alles Übrige herleiten lässt. Falls eine solche Theorie existiert, würde sie die Spitze der Hierarchie einnehmen, und sowohl die Allgemeine Relativitätstheorie als auch die Quantenfeldtheorie könnten von ihr abgeleitet werden. Die Physiker wissen, dass an der Spitze etwas fehlt, denn das Universum enthält sowohl Gravitation als auch Quantenmechanik, aber eine konsistente Theorie, die beides umfasst, steht noch aus.

Eine allumfassende Theorie müsste vermutlich gar keine Begriffe enthalten. Andernfalls würde man sehr wahrscheinlich eine Erklärung für ihre Begriffe in Form einer noch fundamentaleren Theorie suchen – und so immer weiter in unendlichem Regress. Mit anderen Worten, die Theorie müsste rein mathematisch sein, ohne erklärende Postulate. Vielmehr sollte ein unendlich intelligenter Mathematiker fähig sein, die gesamte Hierarchie der Theorien allein aus diesen ultimativen Gleichungen herzuleiten, indem er die von ihnen beschriebenen Eigenschaften des Universums herleitet – und die Eigenschaften seiner Bewohner und ihre Wahrnehmungen der Welt.

Die ersten hundert Jahre Quantenphysik haben folgenreiche Technologien geliefert und viele Fragen beantwortet. Doch die Physik hat neue Fragen aufgeworfen, die ebenso wichtig sind wie jene zur Zeit von Maxwells Antrittsvorlesung – Fragen, die sowohl die Quantengravitation betreffen als auch das tiefste Wesen der Realität. Gewiss wird das zweite Jahrhundert Quantenphysik nicht weniger Überraschungen bringen als das erste.

Literaturhinweise


The Quantum Centennial. Von A. Zeilinger in: Nature, Bd. 408, S. 639 (Dezember 2000).

Max Planck: The Reluctant Revolutionary. Von Helge Kragh in: Physics World, Bd. 13, S. 31 (Dezember 2000)

One Hundred Years of Quantum Physics. Von Daniel Kleppner und Roman Jackiw in: Science, Bd. 289, S. 893 (August 2000).


Gastommentar


Ist das Problem des quantenmechanischen Messprozesses nun endlich gelöst?

Diese Frage kann man ganz sicher nicht einfach mit "ja" beantworten. Die Ansicht von Niels Bohr, der Quantenmessprozess sei grundsätzlich nicht physikalisch analysierbar, darf aber heute wohl als widerlegt gelten.

Dekohärenz ist eine zwingende Konsequenz der Schrödinger-Gleichung unter realistischer Berücksichtigung der natürlichen Umgebung eines Systems – unabhängig von allen Interpretationsfragen. Sie beruht auf einer sehr effizienten "Verschränkung" praktisch aller physikalischen Systeme, die lange Zeit einfach übersehen worden ist. Der Dekohärenzprozess ist inzwischen auch experimentell – zuerst durch Serge Haroche (Paris) – direkt nachgewiesen worden. Zur theoretischen Untersuchung dieses Quantenphänomens haben neben Wojciech Zurek (Los Alamos) vor allem Erich Joos (früher Heidelberg) und Claus Kiefer (Freiburg) beigetragen. Max Tegmark, Koautor des vorliegenden Artikels, ist vornehmlich durch seine Anwendung der Dekohärenz auf Gehirnprozesse bekannt geworden; damit hat er den spekulativen Vorschlägen von Roger Penrose und Stuart Hameroff, wonach menschliches Denken auf kohärenten Quantenprozessen beruhe oder gar einen durch Gravitation induzierten "Kollaps der Wellenfunktion" einschließe, den Boden entzogen. Tegmarks Arbeit beschreibt somit das "letzte Stück" des von Einstein im Gespräch mit Heisenberg geforderten "ganzen langen Wegs vom Vorgang bis zur Fixierung in unserem Bewußtsein" in rein quantenmechanischen Begriffen.

Diese Erfolge erlauben es nach meiner Überzeugung, nunmehr auf unabhängig vorzugebende klassische Begriffe und auf Verlegenheitsvokabeln wie Komplementarität, Dualismus oder Quantenlogik ganz zu verzichten. All die "erstaunlichen" Experimente der letzten Jahrzehnte haben nur Konsequenzen der nichtlokalen Wellenfunktion bestätigt, wobei alle Messergebnisse durch Dekohärenz klassisch fixiert werden. Scheinbare "Quantensprünge" sind demnach ebenso das Ergebnis von sehr schnellen, aber stetigen Dekohärenzvorgängen wie die Lokalisierung von Quantenobjekten als scheinbare "Teilchen" – sei es als Spuren in der Nebelkammer oder als Klicks in Zählern.

Andererseits dürfte die von Everett gezogene Konsequenz von "Mehrfachwelten" von den meisten Physikern weiterhin abgelehnt werden – vorwiegend aus emotionalen Gründen. Diese pragmatische Haltung ist aber auch im Rahmen einer universell gültigen Schrödinger-Gleichung durchaus möglich, wenn man den Begriff der Realität "operationell" versteht: Als real gilt jeweils nur das, was für die in jedem "Everett-Zweig" separat existierenden Beobachter noch beobachtbar ist. Die Everettsche Quantenwelt definiert hingegen eine "hypothetische Realität", die der quantenphysikalischen Konsistenz zuliebe verlangt werden muss. Demzufolge kann man nicht erwarten, jemals einen Kollaps der Wellenfunktion zu beobachten, der nicht als rein quantenmechanischer Dekohärenzprozess erklärbar wäre. Der Kollaps auf ein bestimmtes Ergebnis beschreibt dagegen die sich stetig verändernde Situation der Beobachter in der Quantenwelt.

Der "große Nebel aus dem Norden", wie man die Kopenhagener Deutung gelegentlich genannt hat, beginnt sich zu lichten. Die sichtbar werdende Landschaft zeigt eine unsere gewohnte Vorstellungswelt weit übersteigende Vielfalt, ergibt dafür aber erstmals ein konsistentes Bild.

H. Dieter Zeh ist emeritierter Professor der Theoretischen Physik an der Universität Heidelberg.


Quantentheorie und Bewusstsein


Um die Rolle des Beobachters in der Quantentheorie zu untersuchen, ist es sinnvoll, das Universum in drei Teile aufzuspalten: das betrachtete Objekt, die Umgebung und den Quantenzustand des Beobachters oder Subjekts. Die Schrödinger-Gleichung, der das Universum als Ganzes gehorcht, lässt sich unterteilen in Ausdrücke, die die innere Dynamik jedes dieser drei Untersysteme beschreiben, und Ausdrücke, die Wechselwirkungen zwischen ihnen beschreiben. Diese Ausdrücke haben höchst unterschiedliche Wirkungen.

Der Ausdruck für die Dynamik des Objekts ist normalerweise der wichtigste; darum können die Theoretiker, wenn sie zunächst das Verhalten des Objekts untersuchen wollen, meist alle übrigen Ausdrücke vernachlässigen. Im Falle unserer Quantenkarte sagt ihre Dynamik voraus, dass sie eine Superposition bilden und sowohl nach links als auch nach rechts fallen wird. Wenn unser Beobachter die Karte betrachtet, erstreckt sich die Superposition durch die Wechselwirkung zwischen Subjekt und Objekt auch auf seinen mentalen Zustand und erzeugt eine Superposition von Freude und Enttäuschung über Gewinn und Verlust seiner Wette. Doch er vermag diese Superposition niemals wahrzunehmen, denn die Wechselwirkung zwischen Objekt und Umgebung – etwa durch von der Karte abprallende Luftmoleküle und Photonen – verursacht sofortige Dekohärenz dieser Superposition. Selbst wenn der Betrachter die Karte völlig von der Umgebung isolieren könnte – indem er das Experiment etwa in eine dunkle Vakuumkammer am absoluten Temperaturnullpunkt verlegte –, würde das keinen Unterschied machen. Beim ersten Blick auf die Karte würde zumindest ein Neuron in seinem Sehnerv eine Superposition von "feuern" und "nicht feuern" bilden, und diese Superposition müsste – wie einer der Autoren (Tegmark) kürzlich berechnet hat – binnen rund 10–20 Sekunden durch Dekohärenz zerfallen. Wenn die komplexen Muster der feuernden Neuronen im Gehirn auch nur das Geringste mit Bewusstsein zu tun haben und damit, wie wir Gedanken und Wahrnehmungen bilden, dann garantiert die Dekohärenz unserer Neuronen, dass wir niemals Quantensuperpositionen mentaler Zustände wahrnehmen. Im Wesentlichen verknüpft unser Gehirn das Subjekt unentwirrbar mit der Umgebung und zwingt uns dadurch die Dekohärenz auf.

Aus: Spektrum der Wissenschaft 4 / 2001, Seite 68
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
4 / 2001

Dieser Artikel ist enthalten in Spektrum der Wissenschaft 4 / 2001

Kennen Sie schon …

Spezial Physik - Mathematik - Technik 2/2019

Spektrum der Wissenschaft – Spezial Physik - Mathematik - Technik 2/2019: Quantengravitation

Auf der Suche nach der Theorie von Allem - Wellenfunktion: Trickreiche Experimente an der Grenze der Realität • Trügerische Eleganz: Wie schön ist der Code des Universums? • Raumzeit-Singularitäten: Ein neuer Blick auf die kleinsten Skalen

47/2018

Spektrum - Die Woche – 47/2018

In dieser Ausgabe widmen wir uns Gärten, der Quantenmechanik und dem Geschmackssinn.

Dezember 2018

Spektrum der Wissenschaft – Dezember 2018

In dieser Ausgabe beschäftigt sich Spektrum der Wissenschaft mit der Realität und Kausalität in der Quantenphysik. Außerdem: ein Familienstammbaum für die Sonne, Fake-Videos durch KI und Biomimetik.

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

  • Infos