Aus einfachen Regeln kann höchst komplexes Verhalten hervorgehen. Ein gutes Beispiel ist Schach. Ein erfahrener Spieler würde bald erkennen, dass sein Gegenüber zwar die Regeln beherrscht, aber eigentlich von Schach nichts versteht: Der Gegner macht absurde Züge, opfert zum Beispiel seine Königin für einen Bauern und verliert ohne Grund einen Turm. Kurz, der andere weiß nicht, worum es bei Schach geht. Er hat keine Ahnung von den strategischen Prinzipien und Erfolgsgeheimnissen, über die ein geübter Spieler verfügt. Diese übergeordneten Prinzipien sind "emergente" Eigenschaften des Spiels; sie folgen nicht unmittelbar aus den Regeln, sondern ergeben sich aus Wechselwirkungen zwischen den Figuren auf dem Brett.

Den Wissenschaftlern geht es gegenwärtig mit der Quantenmechanik wie einem Anfänger beim Schach. Seit mehr als siebzig Jahren kennen wir die Regeln und ein paar schlaue Züge, die in speziellen Situationen funktionieren, aber wir lernen erst mühsam die strategischen Prinzipien, die für ein geschicktes Gesamtspiel nötig wären.

Diese Prinzipien zu entdecken ist Ziel einer neuen Disziplin, der Quanteninformatik. Viele einschlägige Artikel konzentrieren sich auf technische Anwendungen, etwa auf die "Teleportation" von Quantenzuständen über makroskopische Entfernungen oder auf die Kryptografie, das absolut abhörsichere Verschlüsseln von Botschaften. Informatiker entwerfen Algorithmen für hypothetische Quantencomputer, die viel schneller arbeiten würden als die besten klassischen Rechner.

So faszinierend all diese Technologien sein mögen – genau besehen sind sie nur Nebenprodukte einer neuen Grundlagenforschung. Anwendungen wie die Teleportation spielen eine ähnliche Rolle wie die Dampfmaschine, die im 18. und 19. Jahrhundert die Entwicklung der Thermodynamik anregte. Die Thermodynamik war die Antwort auf grundlegende Fragen über den Zusammenhang von Energie, Wärme und Temperatur, über die Umwandlung dieser Größen in physikalischen Prozessen und über die Schlüsselrolle der Entropie. In ähnlicher Weise erforschen Quanteninformatiker die Beziehung zwischen klassischen und quantenphysikalischen Informationseinheiten, neuartige Methoden der Quanteninformationsverarbeitung so wie die entscheidende Bedeutung der so genannten Verschränkung, einer seltsamen Verbindung zwischen räumlich getrennten Quantenobjekten.

In populären Darstellungen wird Verschränkung oft als Alles-oder-Nichts-Eigenschaft dargestellt: Quantenteilchen sind entweder verschränkt oder nicht. Wie die Quanteninformatik zeigt, ist Verschränkung eine quantifizierbare physikalische Größe – darin der Energie vergleichbar –, die Informationsverarbeitungsprozesse ermöglicht. Manche Systeme haben nur wenig Verschränkung, andere haben viel davon. Je mehr Verschränkung einem System zur Verfügung steht, desto besser eignet es sich zur Verarbeitung von Quanteninformation. Unterdessen haben die Forscher begonnen, quantitative Verschränkungsgesetze – analog zu den thermodynamischen Gesetzen für die Energie – zu entwickeln; aus ihnen folgt eine Gruppe allgemeiner Prinzipien für das Entstehen von Verschränkung und für deren Nutzung bei der Informationsverarbeitung.

Komplexität in der Quantenwelt

Die Quanteninformatik ist eine so junge Disziplin, dass die Experten noch darüber streiten, worin ihr Wesen besteht und um welche Fragen es hauptsächlich geht. Dieser Artikel gibt meine persönliche Überzeugung wieder, wonach das Hauptziel die Entwicklung allgemeiner Prinzipien ist – zum Beispiel von Verschränkungsgesetzen –, mit deren Hilfe wir komplexe Quantensysteme verstehen können.

Die meisten Untersuchungen der Komplexität konzentrieren sich auf Systeme wie das Wetter oder Sandhaufen, die nicht quantenphysikalisch, sondern rein klassisch beschrieben werden. Das ist kein Wunder, denn komplexe Systeme sind in der Regel makroskopisch, bestehen aus vielen Teilen und zeigen keine Quanteneigenschaften. Der Übergang von quantenmechanischem zu klassischem Verhalten tritt ein, weil große Quantensysteme normalerweise lebhaft mit ihrer Umgebung wechselwirken und dabei durch so genannte Dekohärenz ihre Quanteneigenschaften verlieren (siehe Spektrum der Wissenschaft 4/2001, S. 68).

Ein Beispiel für Dekohärenz ist Schrödingers Katze, benannt nach einem berühmten Gedankenexperiment des österreichischen Physikers Erwin Schrödinger (1887-1961). Theoretisch verharrt das in eine Schachtel gesperrte Tier in einem seltsamen Quantenzustand zwischen tot und lebendig. Doch in Wirklichkeit tritt das Tier mit der Schachtel durch Austausch von Licht, Wärme und Schall in Wechselwirkung und ebenso die Schachtel mit dem Rest der Welt. Binnen Nanosekunden (milliardstel Sekunden) zerstören diese Prozesse die Quantenzustände in der Schachtel und ersetzen sie durch Zustände, die in guter Näherung mit den Gesetzen der klassischen Physik zu beschreiben sind. Die Katze im Innern ist darum entweder lebendig oder tot – und nicht in einem mysteriösen nicht-klassischen Überlagerungszustand.

Um an einem komplexen System echtes Quantenverhalten zu beobachten, muss man das System möglichst vollständig vom Rest der Welt isolieren. Bei kleinen Systemen – etwa einzelnen Atomen, die in einer evakuierten Magnetfalle schweben – lässt sich das relativ leicht erreichen, doch bei größeren Gebilden, die komplexes Verhalten zeigen können, ist es viel schwieriger. Zufällige Entdeckungen wie die der Supraleitung oder des Quanten-Hall-Effekts zeigen allerdings, dass Physiker im Labor große, gut isolierte Quantensysteme zuwege bringen und dass die einfachen Regeln der Quantenmechanik zu emergentem komplexem Verhalten führen können.

Das Abc der Informatik

Wir versuchen die übergeordneten Prinzipien, die für komplexe Quantenphänomene gelten, durch Abstrahieren, Anpassen und Erweitern aus Regeln der klassischen Informationstheorie zu gewinnen. Im Jahre 2001 schlug Benjamin W. Schumacher vom Kenyon College in Gambier (Ohio) vor, die wesentlichen Elemente der Informatik – ob klassisch oder quantenphysikalisch – in drei Schritten zusammenzufassen:

1. Identifiziere einen physikalischen Träger. Das klassische Beispiel ist eine Folge von Bits. Obwohl man sich Bits oft als abstrakte Gebilde vorstellt – Nullen und Einsen –, ist jegliche Information unweigerlich in realen physikalischen Objekten kodiert, und darum sollte eine Bitfolge als physikalischer Träger betrachtet werden.

2. Identifiziere eine Datenverarbeitungsprozedur, die mit Hilfe des physikalischen Trägers von Schritt 1 ausgeführt werden kann. Ein klassisches Beispiel ist die zweistufige Aufgabe, den Output einer Datenquelle – beispielsweise den Text eines Buches – zunächst in eine Bitfolge zu komprimieren, diese dann wieder zu dekomprimieren und somit die ursprüngliche Information aus der komprimierten Bitfolge zurückzugewinnen.

3. Identifiziere ein Kriterium für das erfolgreiche Ausführen von Schritt 2. In unserem Beispiel könnte das Kriterium sein, dass der Output der Dekompressionsstufe perfekt dem Input der Kompressionsstufe entspricht.

Die fundamentale Frage der Informatik lautet dann: "Wie viel Trägersubstanz (1) brauchen wir mindestens, um die Datenverarbeitungsaufgabe (2) entsprechend dem Erfolgskriterium (3) auszuführen?" Obwohl diese Frage nicht die gesamte Informatik umfasst, liefert sie eine kräftige Linse, durch die sich ein großer Teil der Forschung auf diesem Gebiet betrachten lässt.

Das Beispiel der Datenkompression führt auf eine Grundfrage der klassischen Informationstheorie: Wie viele Bits sind mindestens erforderlich, um die von einer Quelle erzeugte Information zu speichern? Dieses Problem wurde 1948 von Claude E. Shannon in seinen grundlegenden Arbeiten zur Informationstheorie gelöst. Shannon definierte den von einer Informationsquelle produzierten Informationsgehalt als die minimale Anzahl von Bits, die nötig sind, um den Output der Quelle zuverlässig zu speichern. Der entsprechende mathematische Ausdruck für den Informationsgehalt wird heute als Shannon-Entropie bezeichnet.

Sie löst ein einfaches Grundproblem der klassischen Datenverarbeitung. Darum ist es kein Wunder, dass die Shannon-Entropie auch bei der Analyse viel komplexerer Prozesse weiterhilft. Sie spielt nicht nur eine zentrale Rolle bei der Berechnung der maximalen Datenmenge, die zuverlässig durch einen verrauschten Kanal übertragen werden kann, sondern auch bei der Analyse von Glücksspielen und Aktienmärkten. In der Informatik gilt generell, dass Fragen zu elementaren Vorgängen zu einheitlichen Konzepten führen, die das Verstehen komplexerer Vorgänge ermöglichen.

In der Quanteninformatik nehmen alle drei Schritte auf Schumachers Liste reichere Gestalt an. Welche neuartigen physikalischen Träger vermag die Quantenmechanik zu liefern? Welche Datenverarbeitungsprobleme können wir damit lösen? Wie lauten geeignete Erfolgskriterien? Zu den Trägern gehören nun Zustandsüberlagerungen wie die zugleich lebende und tote Katze in Schrödingers Gedankenexperiment. Die Informationsverarbeitung kann das Manipulieren von Verschränkungen – mysteriösen Quantenkorrelationen – zwischen weit entfernten Objekten umfassen. Die Erfolgskriterien werden subtiler als im klassischen Fall, denn um das Resultat einer Quanteninformationsverarbeitung zu gewinnen, müssen wir das System beobachten – aber durch einen solchen Messvorgang wird es fast unvermeidlich verändert, und die speziellen, für die Quantenphysik typischen Zustandsüberlagerungen werden zerstört.

Qubits – idealisierte Quantenobjekte

Die Quanteninformatik beginnt mit dem Verallgemeinern der fundamentalen Träger klassischer Information, der Bits, zu so genannten Quantenbits oder kurz Qubits (gesprochen "kjubits"). Bits sind idealisierte, aus den Prinzipien der klassischen Physik abstrahierte Objekte; ebenso sind die Qubits idealisierte Quantenobjekte. Bits können durch magnetische Gebiete auf Bändern oder Scheiben repräsentiert werden, durch Spannungen in Stromkreisen oder durch Bleistiftzeichen auf Papier. Als Bits funktionieren diese klassisch-physikalischen Zustände unabhängig davon, wie sie im Detail realisiert sind. Ebenso sind die Eigenschaften eines Qubits unabhängig von seiner speziellen physikalischen Repräsentation – etwa als Spin eines Atomkerns oder als Polarisation eines Lichtquants.

Ein Bit wird durch seinen Zustand beschrieben: null oder eins. Analog ist ein Qubit durch seinen Quantenzustand definiert. Zwei mögliche Quantenzustände eines Qubits entsprechen der Null und Eins eines klassischen Bits. Doch in der Quantenmechanik hat jedes Objekt, das zwei verschiedene Zustände einnehmen kann, notwendigerweise einen Bereich anderer möglicher Zustände, so genannter Superpositionen, das heißt unterschiedlicher Überlagerungen beider Zustände. Die Qubit-Zustände entsprechen Punkten auf einer Kugelfläche mit null und eins als Süd- und Nordpol. Das Kontinuum der Zustände zwischen null und eins hat viele ungewöhnliche Eigenschaften der Quanteninformation zur Folge.

Wie viel klassische Information können wir in einem Qubit speichern? Man könnte meinen, die Informationsmenge sei unendlich groß. Um einen Quantenzustand zu spezifizieren, müssen wir die geografische Länge und Breite des entsprechenden Punkts auf der Kugel angeben, und im Prinzip kann beides mit beliebiger Genauigkeit geschehen. Diese Zahlen können als lange Bitfolge kodiert werden. Zum Beispiel könnte 011101101… einen Zustand mit einer Länge von 01 Grad, 11 Minuten und 01,101… Sekunden bezeichnen.

Diese Annahme ist zwar plausibel, aber falsch. Man kann eine unendliche Menge klassischer Information in einem einzigen Qubit kodieren, vermag aber diese Information niemals wieder aus dem Qubit zurückzugewinnen. Der einfachste Versuch, den Qubit-Zustand abzulesen, wäre eine direkte Messung, doch sie ergibt als Resultat entweder null oder eins, Süd- oder Nordpol, wobei die Wahrscheinlichkeit jedes Resultats von der geografischen Breite des ursprünglichen Zustands abhängt. Wir könnten zwar eine andere Messung vornehmen, etwa mit der Achse Azoren-Melbourne statt der Nord-Süd-Achse, aber wieder würden wir nur ein Bit an Information gewinnen; dessen Wahrscheinlichkeiten würden nur anders von Länge und Breite des Zustands abhängen. Stets löscht die Messung die gesamte im Qubit enthaltene Information bis auf das einzige Bit, das herauskommt.

Komprimierte Daten

Die Regeln der Quantenmechanik verbieten uns, jemals mehr als ein einziges Bit an Information zu gewinnen – selbst wenn wir das Qubit noch so geschickt kodieren oder es später noch so raffiniert messen. Dieses überraschende Resultat wurde 1973 von Alexander S. Holevo am Mathematischen Steklow-Institut in Moskau bewiesen, nachdem es schon 1964 von J. P. Gordon an den AT&T-Bell-Laboratorien in Murray Hill (New Jersey) vermutet worden war. Das Qubit enthält gewissermaßen verborgene Information, die wir zwar manipulieren, aber nicht direkt erreichen können. Allerdings sollten wir diese verborgene Information nicht als eine unendliche Anzahl unzugänglicher klassischer Bits betrachten, sondern als eine einzige Quanteninformation.

Man beachte, wie dieses Beispiel in Schumachers Schema der Informatik passt. Gordon und Holevo fragten, wie viele Qubits (physikalischer Träger) nötig sind, um eine vorgegebene Menge an klassischer Information (die Aufgabe) so zu speichern, dass die Information verlässlich zurückgewonnen werden kann (das Erfolgskriterium). Außerdem führten sie einen mathematischen Begriff ein, das so genannte Holevo-Chi, das seither zur vereinfachten Analyse komplexer Phänomene dient; insofern ähnelt es der Shannon-Entropie. Beispielsweise hat Michael Horodecki von der Universität Gdansk (Polen) gezeigt, dass mit dem Holevo-Chi das Problem der Kompression von Quantenzuständen, die von einer Quanteninformationsquelle erzeugt wurden, analysiert werden kann – analog zu der klassischen Datenkompression, die Shannon einst betrachtete.

Schon einzelne Qubits sind interessant, aber noch faszinierender ist das gemeinsame Verhalten mehrerer Qubits. Für die Quanteninformatik ist typisch, dass Gruppen von zwei oder mehr Quantenobjekten verschränkte Zustände bilden können. Solche Zustände haben völlig andere Eigenschaften als die Objekte der klassischen Physik und werden allmählich als neuartige physikalische Träger für die Datenverarbeitung betrachtet.

Schrödinger war von der Verschränkung so beeindruckt, dass er sie 1935 – im Geburtsjahr seiner berühmten Quantenkatze – in einer grundlegenden Arbeit als das wesentlichste Merkmal der Quantenphysik bezeichnete, das ihre völlige Abkehr von klassischen Gedankengängen erzwinge. Die Mitglieder einer verschränkten Ansammlung von Objekten haben keine individuellen Quantenzustände; nur die Gruppe als ganze besitzt einen wohl definierten Zustand. Dieses Phänomen ist noch viel seltsamer als eine Zustandsüberlagerung eines einzelnen Teilchens. Ein solches Teilchen hat einen wohl definierten Quantenzustand, selbst wenn dieser Zustand eine Superposition unterschiedlicher klassischer Zustände sein mag.

Verschränkte Objekte verhalten sich, als wären sie über beliebige Entfernungen hinweg miteinander verbunden – ihr Abstand schwächt die Verschränkung nicht im Geringsten. Wenn etwas mit anderen Objekten verschränkt ist, liefert seine Messung gleichzeitig Information über die Partner. Das verleitet manchmal zu der irrtümlichen Idee, man könnte mittels Verschränkung Signale mit Überlichtgeschwindigkeit senden und auf diese Weise Einsteins Spezielle Relativitätstheorie verletzen; doch das probabilistische Wesen der Quantenmechanik verurteilt solche Versuche zum Scheitern.

Anfangs wurde die Verschränkung als Kuriosität betrachtet und von den Physikern weitgehend ignoriert. Das änderte sich erst in den 1960er Jahren, als John S. Bell bei Cern, dem europäischen Laboratorium für Teilchenphysik bei Genf, theoretisch nachwies, dass physikalische Experimente mit verschränkten Quantenzuständen eindeutige Unterschiede zwischen Quantenmechanik und klassischer Physik feststellen können. Wie Bell vorhersagte und spätere Experimente bestätigten, zeigen verschränkte Quantensysteme ein Verhalten, das in einer klassischen Welt absolut unmöglich ist – unmöglich selbst dann, wenn man versucht, die physikalischen Gesetze so abzuändern, dass das Quantenverhalten in irgendeinen klassischen Rahmen passt. Die Verschränkung ist ein derart fremdartiger Wesenzug unserer Welt, dass sogar Experten damit größte Schwierigkeiten haben. Zwar kann man den mathematischen Formalismus der Quantentheorie benutzen, um das Phänomen zu untersuchen, doch sobald man sich mit Analogien zu helfen sucht, besteht die große Gefahr, dass die klassische Grundlage solcher Vergleiche in die Irre führt.

Anfang der 1990er Jahre kamen Forscher auf die Idee, die Verschränkung als Träger für neuartige Formen der Informationsverarbeitung zu nutzen. Artur K. Ekert von der Universität Cambridge zeigte 1991, wie man damit Kodes abhörsicher verbreiten kann. Ein Jahr später gaben Charles H. Bennett von der IBM-Forschungsabteilung in Yorktown Heights (New York) und Stephen Wiesner von der Universität Tel Aviv (Israel) ein Verfahren namens superdichte Kodierung an; dabei überträgt ein Teilchen, das normalerweise nur ein Bit klassische Information aufzunehmen vermag, mittels Verschränkung zwei Bits. 1993 beschrieb ein internationales Team von sechs Forschern, wie ein Quantenzustand durch Verschränkung von einem Ort zum anderen transportiert werden kann, und 1997 gelang einem Team um Anton Zeilinger an der Universität Innsbruck (Österreich) der experimentelle Nachweis dieser "Teleportation" mit Lichtquanten.

Ein Maß der Verschränkung

So wie ein einzelnes Qubit durch viele verschiedene physikalische Objekte repräsentiert werden kann, hat auch die Verschränkung gewisse Eigenschaften unabhängig von ihrer physikalischen Realisierung. Zum Beispiel könnte man die Quantenkodierung mit einem verschränkten Paar von Photonen oder von Atomkernen durchführen – oder sogar mit einem Photon, das mit einem Atomkern verschränkt ist.

Diese Unabhängigkeit legt eine Analogie zwischen Verschränkung und Energie nahe. Die Energie gehorcht den Gesetzen der Thermodynamik unabhängig davon, ob es sich um chemische, nukleare oder eine andere Energieform handelt. Ließe sich eine allgemeine Theorie der Verschränkung entwickeln, die den Gesetzen der Thermodynamik ähnelt?

Diese Hoffnung verstärkte sich Ende der 1990er Jahre, als Forscher nachwiesen, dass verschiedene Verschränkungsformen äquivalent sind: Die Verschränkung eines Zustands kann auf einen anderen übertragen werden – ähnlich wie Energie, die von einem Ladegerät zu einer Batterie fließt. Nun wird versucht, daraus ein quantitatives Maß zu entwickeln. Eine Standardeinheit für Verschränkung wäre mit den vertrauten Einheiten für Masse oder Energie vergleichbar.

Dieser Ansatz gleicht dem Wägen von Massen. Die Masse eines Objekts ist definiert durch die Anzahl der Standardmassen, die zum Ausbalancieren auf einer Waage erforderlich sind. Die Quanteninformatiker haben eine theoretische "Verschränkungswaage" entwickelt, um die Verschränkung in zwei verschiedenen Zuständen zu vergleichen. Der Verschränkungsbetrag in einem Zustand wird festgestellt, indem man nachsieht, wie viele Kopien einer Standardeinheit der Verschränkung nötig sind, den gleichen Effekt zu erzielen. Man beachte: Diese Methode, Verschränkung zu quantifizieren, ist ein weiteres Beispiel für die Grundfrage der Informatik. Wie haben einen physikalischen Träger (Kopien unseres verschränkten Zustands), eine Aufgabe und ein Erfolgskriterium identifiziert. Wir definieren unser Verschränkungsmaß, indem wir fragen, wie viel von unserem Träger wir brauchen, um unsere Aufgabe erfolgreich auszuführen.

Die Entwicklung der Verschränkungstheorie ist ein Beispiel für einen Bottom-up-Ansatz: Wir beginnen mit einfachen Fragen zum Auswägen der Verschränkung und gewinnen daraus allmählich Erkenntnisse über komplexere Phänomene. Hingegen haben Forscher in seltenen Fällen extrem komplizierte Phänomene quasi erraten und dadurch die Quanteninformatik im Top-down-Verfahren ein großes Stück vo­rangebracht. Das berühmteste Beispiel ist ein Algorithmus, den Peter W. Shor 1994 an den AT&T-Bell-Laboratorien formuliert hat, um mit einem Quantencomputer die Primfaktoren einer zusammengesetzten ganzen Zahl zu bestimmen (Spektrum der Wissenschaft 12/1995, S. 62). Mit den besten Algorithmen für klassische Computer steigt der Rechenaufwand exponentiell mit der Größe der Zahlen, die zu faktorisieren sind. Eine Zahl mit 500 Stellen braucht 100 Millionen Mal so viele Rechenschritte wie eine mit 250 Stellen. Der Aufwand von Shors Algorithmus steigt nur polynomisch: Eine 500-stellige Zahl braucht nur achtmal so viele Schritte wie eine 250-stellige.

Shors Algorithmus ist zwar ein Beispiel für das informationstheoretische Paradigma – wie viel Rechenaufwand ist nötig, um die Faktoren einer ganzen Zahl mit n Bits zu finden –, aber der Algorithmus scheint keine Verbindung zu anderen Resultaten der Quanteninformatik zu haben . Auf den ersten Blick sieht er eher aus wie ein schlauer Programmiertrick ohne fundamentale Bedeutung. Doch das täuscht: Shors Algorithmus lässt sich als Sonderfall eines Verfahrens zur Bestimmung der Energieniveaus in einem Quantensystem interpretieren – und dieser Vorgang ist offensichtlich fundamental. Mit der Zeit werden wir hoffentlich die Prinzipien, die den Quantenalgorithmen von Shor und anderen zu Grunde liegen, besser verstehen und daraus weitere Rechenprogramme entwickeln.

Exaktes Kopieren verboten

Eine letzte Anwendung ist die quantenmechanische Fehlerkorrektur. Sie liefert den bislang besten Beweis, dass Quanteninformatik eine nützliche Wissenschaft ist. Da empfindliche Quantenzustände leicht durch zufällige Wechselwirkungen zerstört werden, braucht man dringend Methoden, die diesem "Rauschen" entgegenwirken.

Die klassische Computer- und Nachrichtentechnik verfügt über gute Korrekturkodes, um Daten gegen Rauschen zu schützen. Ein einfaches Beispiel ist der Wiederholungskode. Er stellt das Bit 0 als Folge der drei Bits 000 dar und das Bit 1 als Triplett 111. Wenn das Rauschen schwach ist, stört es vielleicht manchmal eines der Bits in einem Triplett und verwandelt etwa 000 in 010, aber viel seltener gleich zwei Bits pro Triplett auf einmal. Sobald wir einem 010 (oder 100 oder 001) begegnen, können wir fast sicher sein, dass der korrekte Wert 000 ist, das heißt 0.

Anfangs schien es unmöglich, Kodes zur Quantenkorrektur zu entwickeln, weil die Quantenmechanik uns verbietet, den unbekannten Zustand eines Quantenobjekts mit Bestimmtheit zu erfahren – erinnern wir uns an die Unmöglichkeit, aus einem Qubit mehr als ein Bit Information herauszuholen. Der klassische Triplett-Kode versagt darum, denn man kann nicht jede Kopie eines Qubits untersuchen und erkennen, dass eine Kopie verworfen werden muss, ohne dabei sämtliche Kopien zu zerstören. Es kommt noch schlimmer: Schon das Herstellen der Kopien ist problematisch. Die Quantenmechanik verbietet das exakte Kopieren eines unbekannten Qubits; dieses Kopierverbot ist als no-cloning theorem bekannt.

Mitte der 1990er Jahre wiesen prominente Physiker wie Rolf Landauer von IBM skeptisch darauf hin, dass für Quantencomputer alle bislang bekannten Methoden der Fehlerkorrektur versagen. Doch 1995 zeigten Shor sowie unabhängig davon Andrew M. Steane von der Universität Oxford, wie man eine Quantenkorrektur durchführen kann, ohne die Zustände der Qubits zu kennen oder sie kopieren zu müssen. Wie beim Triplett-Kode wird jeder Wert durch eine Gruppe von Qubits dargestellt. Diese Qubits passieren einen Schaltkreis mit logischen Quantengattern, die jeden Fehler korrigieren, ohne tatsächlich alle einzelnen Zustände zu "lesen". Es ist, als könnte der Schaltkreis einem durchlaufenden Triplett 010 ansehen, dass das mittlere Bit anders ist, und es abändern, ohne die Identität eines der drei Bits bestimmen zu müssen. Dass Quantenkorrekturkodes im Prinzip funktionieren, wurde unterdessen am Los Alamos National Laboratory, bei IBM und am Massachusetts Institute of Technology experimentell demonstriert.

Die Quantenkorrektur verspricht faszinierende Anwendungen. Zum Beispiel wird die Genauigkeit der besten Uhren durch quantenmechanisches Rauschen begrenzt; hier könnte die Quantenkorrektur Abhilfe schaffen. Eine andere Idee stammt von Alexei Kitaev vom California Institute of Technology: Vielleicht besitzen einige physikalische Systeme eine Art natürlicher Rauschtoleranz. Solche Systeme würden praktisch von selbst Quantenkorrekturen durchführen und wären außerordentlich widerstandsfähig gegen Dekohärenz.

Was wird die Zukunft bringen? Mit Schumachers Programm als Richtschnur werden wir gewiss neue Erkenntnisse darüber gewinnen, wie im Universum Information übertragen und verarbeitet wird. Vielleicht wird die Quanteninformatik sogar Systeme in den Blick rücken, die wir bisher nicht unter dem Aspekt der Datenverarbeitung betrachtet haben. Beispielsweise untersucht die Festkörperphysik komplexe Phänomene wie Hochtemperatursupraleitung und fraktionierten Qaunten-Hall-Effekt, bei denen Quantenverschränkung im Spiel ist – aber noch ist unklar, wie. Von der Quanteninformatik werden wir wohl schon bald neue Züge für das nie endende Schachspiel mit dem komplexen Quantenuniversum lernen.

Literaturhinweise


Die Physik der Welterkenntnis. Auf dem Weg zum universellen Verstehen. Von David Deutsch. Deutscher Taschenbuch Verlag, München 2000.

The Bit and the Pendulum. Von Tom Siegfried. John Wiley & Sons, 2000.

Quantum Theory and Measurement. Von John A. Wheeler und Wojciech H. Zurek (Hg.). Princeton University Press, 1983.


In Kürze


-In der klassischen Informatik ist die Informationseinheit das Bit mit zwei Werten – entweder null oder eins. Die Quantenphysik erlaubt aber das Rechnen mit Quantenbits oder Qubits, die als Superpositionen von Nullen und Einsen existieren. Gruppen von Qubits können zudem "verschränkt", das heißt aufs Engste korreliert sein, sogar über makroskopische Entfernungen hinweg.
-Quantencomputer, die mit Qubits – insbesondere mit verschränkten – arbeiten, vermögen im Prinzip schneller zu rechnen als jeder klassische Computer. Die Verschränkung lässt sich quantifizieren und spielt in der Quanteninformatik eine ähnliche Rolle wie die Energie in der Wärmelehre.
-Die Quanteninformatik versucht allgemeine Prinzipien für komplexe Quantensysteme zu formulieren. Diese übergeordneten Prinzipien verhalten sich zu den Gesetzen der Quantenmechanik ähnlich wie die Strategie eines geübten Schachspielers zu den elementaren Schachregeln.

Aus: Spektrum der Wissenschaft 4 / 2003, Seite 19
© Spektrum der Wissenschaft Verlagsgesellschaft mbH