Auf die Frage, was er an seiner Arbeit bei Google im kalifornischen Mountain View am meisten schätzt, erwähnt der Physiker John Martinis nicht etwa die berühmten Massagesessel in den Fluren oder die kostenlosen Snacks, die sich nahezu überall auf dem Campus des Unternehmens finden. Stattdessen beeindruckt ihn, wie gelassen Google im Streben nach einem visionären Ziel mit Fehlschlägen umgeht. "Würde jedes Projekt gelingen", sagt er, "hieße es hier, man könnte eigentlich mehr erreichen."

Martinis vermutet, dass er genau diese Art von Gelassenheit künftig brauchen wird. Im September rekrutierte Google ihn und sein 20-köpfiges Forscherteam von der University of California in Santa Barbara und betraute sie mit der bekanntermaßen schwierigen Aufgabe, einen Quantencomputer zu entwickeln: Diese Geräte machen sich die Eigenheiten der Quantenwelt zu Nutze, um komplexe Berechnungen durchzuführen – wollte man diese mit gewöhnlichen Computern lösen, würde dafür selbst die Zeit seit Bestehen des Universums nicht ausreichen.

Die Idee eines Quantencomputers kam bereits in den frühen 1980er Jahren auf – und frustriert seither neben Martinis auch viele andere Physiker. Denn in der Praxis erweisen sich die für solche Rechner unerlässlichen Quanteneffekte als extrem empfindlich und schwer zu kontrollieren: Ein gestreutes Photon oder Vibrationen von außen reichen schon aus, um den Rechenvorgang zu unterbrechen. Auch heute noch, nach drei Jahrzehnten des Experimentierens, kommen die weltweit besten Quantencomputer kaum über Schulaufgaben hinaus und suchen beispielsweise nach den Primfaktoren der Zahl 21 (Antwort: 3 und 7).

Der Fortschritt ist derart langsam, dass Skeptiker die Quantencomputer häufig mit der Fusionsenergie vergleichen: eine revolutionäre Technologie, die immer noch Jahrzehnte entfernt zu sein scheint.

Lassen sich die Eigenschaften der Quantenwelt bald für neue Computer nutzen? Physiker werden langsam zuversichtlich, dass dieser Technologiesprung klappt.
© fotolia / apinan
(Ausschnitt)
 Bild vergrößernQuantencomputer
Lassen sich die Eigenschaften der Quantenwelt bald für neue Computer nutzen? Physiker sind zuversichtlich, dass dieser Technologiesprung klappt.

Vielleicht aber auch nicht. Viele Physiker auf dem Gebiet glauben nämlich, dass sich die Anstrengung bald bezahlt machen könnte. So überdauern die zum Rechnen verwendeten Quantenbits oder "Qubits" inzwischen nicht mehr nur Nanosekunden, sondern schon Minuten. Außerdem gelingt es immer besser, das System zu korrigieren, wenn auf Grund äußerer Störungen oder anderer Ursachen irgendwelche Fehler auftreten. Gleichzeitig kreieren Quantensoftwareentwickler mittlerweile Anwendungen, etwa für die Suche nach neuen Katalysatoren bei industriellen Verfahren, die den Entwicklungsaufwand solcher Rechner rechtfertigen.

Die Aussichten auf einen nützlichen und Gewinn bringenden Quantencomputer scheinen jedenfalls so gut, dass sich auch Google am Wettlauf beteiligt, nebst IBM, Microsoft und anderen. Auch etliche Hochschulgruppen versuchen, die Theorie der Technik nun auch einmal praktisch umzusetzen. Im staatlich geförderten QuTech Centre an der Technischen Universität Delft in den Niederlanden kommen beispielsweise Forscher mit der niederländischen Hightechindustrie zusammen. Ronald Hanson von der TU Delft hält es für möglich, in nur fünf Jahren die Bausteine eines universellen Quantencomputers zu entwickeln – und in etwas mehr als einem Jahrzehnt einen voll funktionsfähigen, wenn auch sperrigen und ineffizienten Prototyp.

Martinis verfolgt keinen starren Zeitplan, zeigt sich aber ebenso optimistisch. "In den vergangenen Jahren ist uns eine Menge gelungen", sagt der Physiker. "Die Natur kann uns natürlich immer noch einen Strich durch die Rechnung machen – aber ich denke, die Chancen stehen gut."

Kind der siebziger Jahre

Die konzeptionellen Grundlagen für Quantencomputer wurden in den 1970er und frühen 1980er Jahren gelegt – vor allem durch den inzwischen verstorbenen US-Physiker Richard Feynman. Seine Vorlesungen zum Thema, veröffentlicht 1982, gelten allgemein als Startpunkt des Forschungsgebiets [1]. Herkömmliche Computer funktionieren nach dem Entweder-oder-Prinzip, so die grundlegende Erkenntnis. Die winzigen Siliziumschaltkreise, die jeweils ein Bit an Information repräsentieren, verhalten sich wie Schalter, der entweder an- oder ausgeschaltet sind. Damit können sie Zustände wie "wahr" oder "falsch" oder "1" und "0" in der binären Arithmetik darstellen. In der Quantenwelt weicht das "Entweder-oder" einem "Sowohl-als-auch": Angenommen, die binären Einsen werden durch Elektronen verkörpert, die sich im Uhrzeigersinn drehen, und die Nullen durch Elektronen, die sich gegen den Uhrzeigersinn drehen, dann erlauben die subatomaren Gesetze, die solche Teilchen beschreiben, dass sich ein Quantenbit gleichzeitig im Zustand 1 und 0 befindet.

Infolgedessen können die Qubits als Speicher eines Quantencomputers zeitgleich in jeder möglichen Kombination von 1 und 0 vorliegen. Während ein klassischer Computer jede Kombination der Reihe nach durchgehen muss, kann ein Quantencomputer dadurch alle Kombinationen auf einmal verarbeiten – und so parallel Berechnungen durchführen. Und weil die Anzahl der Kombinationen exponentiell mit der Speichergröße steigt, dürfte der Quantencomputer exponentiell schneller sein als sein klassisches Gegenstück.

Diese Gedankenspiele wurden zu mehr als nur einer wissenschaftlichen Kuriosität, als der amerikanische Mathematiker Peter Shor 1994 den ersten Algorithmus für Quantencomputer entwickelte: Selbst große Zahlen sollten sich damit sehr schnell in ihre Primfaktoren zerlegen lassen [2]. Für gewöhnliche Rechner ist diese Faktorisierung extrem zeitaufwändig, weshalb sie die Basis für gängige Verschlüsselungstechniken bildet. Und mit dem Shor-Algorithmus könnten Quantencomputer solche Verschlüsselungen prinzipiell knacken.

Zwei Jahre später entwickelte Lov Grover von den Bell Labs in Murray Hill, New Jersey, einen weiteren Algorithmus für Quantencomputer. Das Durchsuchen von riesigen Datenbanken sollte sich damit radikal beschleunigen lassen [3].

Diese offensichtlich bedeutenden Anwendungen weckten nicht nur schnell das Interesse von Wissenschaftlern, sondern setzten auch finanzielle Mittel frei. In wenigen Jahren wären die ersten Quantencomputer einsatzbereit, hieß es damals. "Rückblickend war das naiv", kommentiert Hanson. Forscher machten zwar Fortschritte und entwickelten Quantensysteme, die auf das Lösen spezifischer Probleme zugeschnitten waren. Doch das eigentliche Ziel – ein universeller, digitaler Quantencomputer, der jeden beliebigen Algorithmus ausführen kann – erwies sich als deutlich schwerer erreichbar.

Ein großes Problem stellt die extreme Empfindlichkeit von Quantensystemen dar: Der geringste Einfluss von außen führt dazu, dass sich ein Qubit nicht mehr gleichzeitig in vielen verschiedenen Zuständen aufhält. Um einen solchen Überlagerungszustand aufrechtzuerhalten und somit die Vorteile eines Quantencomputers nutzen zu können, müssen die Qubits bestmöglich von der Außenwelt abgeschirmt und behutsam dirigiert werden – eine äußerst knifflige Aufgabe. Zudem müssen sie viel länger im Überlagerungszustand verharren, als der einzelne Rechenschritt dauert (üblicherweise rund eine Mikrosekunde).

Um all diese Hürden zu überwinden, verfolgen die Physiker eine zweifache Strategie: Zum einen verlängern sie die Lebensdauer der Qubits und vermindern ihre Fehleranfälligkeit, zum anderen entwickeln sie Algorithmen, die auftretende Fehler beheben.

Als Qubits verwenden viele Forscher gegenwärtig mikrometergroße Schaltkreise aus Supraleitern – diese Materialien verlieren bei sehr niedrigen Temperaturen den elektrischen Widerstand und leiten Strom verlustfrei. Dank eines Quantenphänomens namens Josephson-Effekt können Ladungsträger innerhalb solcher Schaltungen entlang winziger Schleifen gleichzeitig sowohl im als auch gegen den Uhrzeigersinn fließen – ideale Voraussetzungen für ein Qubit. Solche Schaltkreise zu realisieren, sei jedoch schwierig, so Martini: "Man muss viele Jahre forschen, um die ganze Physik dahinter zu verstehen." Nachdem Physiker zehn Jahre am Design der Qubits gefeilt und gelernt hatten, wie man die Schaltkreise von der Außenwelt isoliert, haben seine und andere Gruppen die Lebensdauer der Qubits um das 10 000-Fache verlängert. Damit lässt sich der Überlagerungszustand nun regelmäßig für etwa 50 bis 100 Mikrosekunden aufrechterhalten. Und indem sie bessere Wege fanden, ihre Qubits während eines Rechenvorgangs zu manipulieren und zu kontrollieren, konnten sie zudem die Fehlerquote reduzieren.

Im Fall von Qubits, die auf den Spins von Elektronen oder Atomkernen basieren, gestaltet es sich dagegen schwieriger, die Lebensdauer zu verlängern. Denn ihre Spins klappen leicht durch die Magnetfelder der benachbarten Teilchen um. Im Oktober 2014 verkündeten Andrea Morello und Andrew Dzurak von der University of New South Wales im australischen Sydney jedoch, dass sie solche Wechselwirkungen umgehen könnten. Sie betteten die Spin-Qubits dazu in gereinigtes Silizium, das keine magnetischen Isotope des Elements mehr enthielt. So präpariert überdauerten die Qubits bis zu 30 Sekunden [4].

Der Physiker Alexei Kitaev vom California Institute of Technology in Pasadena schlug 1997 einen radikaleren Ansatz vor: Qubits aus Anyonen [5]. Diese Materiezustände gehen aus den kollektiven Eigenschaften vieler Teilchen hervor, verhalten sich aber wie nur ein einzelnes Teilchen. Einige Anyonen besitzen eine besondere Eigenschaft – ihr Quantenzustand verrät etwas über den Verlauf ihrer jüngsten Wechselwirkungen. Würde man diese Anyonen als Qubits verwenden, argumentierte Kitaev, ließen sich Informationen durch die Abfolge ihrer Wechselwirkungen kodieren. Und weil die Informationen praktisch über das gesamte System ausgebreitet sind, bieten diese Qubits einen natürlichen Schutz gegen Fehler, die in einem einzelnen Teilbereich auftreten.

Solche "topologischen Qubits" sind bislang zwar nur bloße Theorie. Doch ist das Konzept so verheißungsvoll, dass Microsoft und eine Reihe anderer Firmen versuchen, sie in ihren Labors in die Praxis umzusetzen.

Doch selbst mit den unempfindlichsten Qubits bleiben Fehler unvermeidlich. Zwar treten diese auch in gewöhnlichen Computern auf, doch in einem Quantencomputer sind Fehler besonders problematisch, da sie exponentiell mit der Anzahl der Qubits ansteigen. "Das irgendwie zu umschiffen, ist eine der großen Herausforderungen beim Bau eines Quantencomputers", sagt David Cory von der University of Waterloo in Kanada.

Der Quantenphysiker spricht von einer wie auch immer gearteten Form der Quantenfehlerkorrektur. In herkömmlichen Rechnern lässt sich eine solche Fehlerkorrektur beispielsweise erreichen, indem man einfach von jedem Bit mehrere Kopien erstellt und damit arbeitet. Denn je nachdem, welches Ergebnis die Mehrheit der Kopien liefert, offenbart sich, ob eines der Bits später von einer 1 zu einer 0 wechselte oder umgekehrt. In der Quantenwelt würde dieser Ansatz jedoch nicht funktionieren, denn sobald man ein Qubit kopiert, zerstört man dessen Quantenzustand. Immerhin lassen sich Qubits untereinander abgleichen. Deshalb haben sich Theoretiker inzwischen an Fehlerkorrekturverfahren versucht, die jeweils die Zustände verschiedener Qubit-Paare abfragen. Aus den Antworten – also ob die Paare die gleichen oder unterschiedliche Werte aufweisen – lässt sich dann folgern, ob einzelne Qubits falschliegen.

Bis vor Kurzem unterlief Qubits in jeweils zehn Rechenschritten üblicherweise etwa ein Fehler – ein großes Problem, denn die verfügbaren Fehlerkorrekturverfahren waren damit überfordert. "Von Theoretikern hieß es, man bräuchte durchschnittliche Fehlerquoten von etwa einem Fehler pro 100 000 Rechenoperationen", berichtet John Morton vom University College London. Im April 2014 stellte Martinis und seine Gruppe dann ein neues Fehlerkorrekturverfahren vor: Bei der als "Surface Code" bezeichneten Methode wird die Quanteninformation eines Qubits über mehrere physikalische Qubits verteilt [6] – ähnlich wie es Kitaev für topologische Qubits vorgeschlagen hat. In ihrer Publikation beschreibt die Gruppe, wie sie mit dieser Technik die Information von fünf Qubits derart präparierte, dass das System mit Fehlerraten von bis zu 1 in 100 Rechenschritten umgehen kann. Und solche Fehlerquoten können sowohl das Team um Morton als auch andere Physiker [7] inzwischen erreichen.

Vorwärts und aufwärts

Durch die verringerte Fehleranfälligkeit der Qubits gepaart mit der Fähigkeit von Programmkodes, mit Fehlern zurechtzukommen, haben sich die Aussichten für dieses Gebiet radikal verändert, so Morton. "Es ist eine aufregende Zeit, denn wir können uns jetzt darauf konzentrieren, die Systeme zu vergrößern", sagt der Experimentalphysiker.

Hanson vom QuTech Centre stimmt zu: "Es gibt keine grundsätzlichen Hindernisse mehr." Der Physiker bietet derzeit fünf Professuren für Elektroingenieure an und ist auf der Suche nach 40 Technikern und Wissenschaftlern, um von Laborexperimenten zu praktischen Anwendungen zu gelangen. Dabei gilt es noch einige Herausforderungen zu meistern: Die Forscher müssen einen Weg finden, wie man große Anordnungen von Qubits, so genannte Qubit-Arrays, herstellt, wie man die Quanteninformationsverarbeitung steuert und die Ergebnisse ausliest – und wie man den Quantenschaltkreis mit der klassischen Elektronik verbindet, die sich auf demselben Chip befindet.

Sowohl Hanson als auch sein Kollege Lieven Vandersypen – der in Delft daran arbeitet, Spin-Qubits in Quantenpunkten, also winzigen Strukturen aus Halbleitermaterial, einzubetten – wollen in den kommenden fünf Jahren Arrays mit 17 Qubits entwickeln. Eine solche Anzahl sei ihnen zufolge mindestens nötig, um festzustellen, ob das Surface-Code-Verfahren auch wie erhofft funktioniert. Die Qubits müssen dabei so lange fehlerfrei arbeiten, bis der Algorithmus ausgeführt wurde – und das kann mehrere Stunden dauern. Für die Wissenschaftler könnte das bedeuten, die Informationen eines einzelnen virtuellen Qubits über 100 physische Qubits zu verteilen. Jedes zusätzliche Qubit erhöht allerdings die Komplexität der Hardware. Habe eines der Teams jedoch erst einmal herausgefunden, wie es einige Dutzend physikalische Qubits herstellt, sind Hanson und Vandersypen überzeugt, dürfte die Produktion von 100 Qubits für eine Hand voll virtueller Qubits deutlich leichter fallen. "100 oder sogar 1000 zu produzieren, wird dann nur noch technisch eine anspruchsvolle Aufgabe sein. In zehn Jahren sprechen wir hoffentlich schon über Hunderte von Qubits", sagt Vandersypen.

Matthias Troyer von der Eidgenössischen Technischen Hochschule in Zürich gibt jedoch zu bedenken, dass das Ziel von Hunderten von Qubits weder leicht noch preiswert zu erreichen sein werde. Unter der Annahme, dass sich die Produktion von Quantenchips als mindestens so schwierig erweist wie die von Halbleiterchips, schätzt der theoretische Physiker, deren Entwicklung – also auszuarbeiten, wie man die Qubits untereinander verschaltet, steuert und in Serie herstellt – dürfte rund zehn Milliarden US-Dollar kosten. Das werfe laut Troyer eine entscheidende Frage auf: "Warum sollte man das machen?"

In den vergangenen drei Jahren suchte Troyer nach einer Antwort – in Form einer Killerapplikation für Quantencomputer, die alle Entwicklungskosten rechtfertigen würde. Die beiden klassischen Beispiele, also das Knacken von Verschlüsselungen und das Durchsuchen von Datenbanken, sagt Troyer, reichten da jedenfalls nicht aus. Der Shor-Algorithmus benötige Tausende von Qubits, erklärt der Physiker, um eine ernst zu nehmende Primfaktorzerlegung zu erledigen. Zudem gebe es Verschlüsselungsformen, die ein Quantencomputer nicht knacken könne. Und auch wenn sich Datenbanken mit Quantencomputern möglicherweise schneller durchsuchen ließen, bräuchte man genauso viel Zeit wie bei klassischen Rechnern, um die Daten ins System zu speisen.

Als lohnendere Anwendung für die nahe Zukunft sieht Troyer die Modellierung von Elektronen in Materialien und Molekülen. Denn mit einer solchen Aufgabe sind die heutigen Supercomputer schnell überlastet. Zunächst schien auch dieses Unterfangen aussichtslos: Den ersten Schätzungen zufolge würde ein Quantencomputer rund 300 Jahre benötigen, um die molekulare Dynamik selbst eines kleinen Moleküls zu simulieren – wie beispielsweise das Eisensulfid in Ferredoxinproteinen, die an der Stickstofffixierung in Pflanzen beteiligt sind. "Das lag sicherlich noch an der Grenze zu Sciencefiction", gibt Troyer zu. Doch indem er die Software umschrieb, reduzierte er die Rechenzeit zunächst auf 30 Jahre, dann auf nur 300 Sekunden [8]. "In der klassischen Datenverarbeitung muss man sich hinsetzen und den Algorithmus optimieren", sagt der Wissenschaftler. "Genau das Gleiche gilt auch für einen Quantenalgorithmus."

Mit rund 400 Qubits ließen sich laut Troyer verschiedene Ansätze für die industrielle Stickstofffixierung untersuchen – in diesem energieintensiven Prozess wird der reaktionsträge Luftstickstoff in Dünger umwandelt. Im industriellen Maßstab setzt man für die Reaktion gegenwärtig noch das 116 Jahre alte Haber-Bosch-Verfahren ein, was rund fünf Prozent des jährlich weltweit produzierten Erdgases verschlingt. Ein Quantencomputer könnte dazu beitragen, meint Troyer, einen sehr viel energieeffizienteren Katalysator als die derzeitigen zu entwickeln. "Dafür würde es sich lohnen, einen Quantencomputer zu bauen", resümiert der Physiker.

Weitere Killerapplikationen könnten bei der Suche nach neuen Hochtemperatursupraleitern oder besseren Katalysatoren für die Kohlenstoffabscheidung aus der Luft oder aus industriellen Abgasen helfen. "All das sind wichtige Aufgaben. Wenn es hier Fortschritte gibt, hat man die zehn Milliarden locker zusammen", erklärt Troyer.

Vorerst weisen Martinis und andere Veteranen auf dem Gebiet jedoch darauf hin, dass die Quanteninformationsverarbeitung noch am Anfang stehe. Obwohl die Industrie momentan intensiv daran forscht, hat niemand auch nur einen dieser Rechner zum Herumspielen. Die Quanteninformationsverarbeitung von heute sei vergleichbar mit der konventionellen Datenverarbeitung in den Jahren nach dem Zweiten Weltkrieg, sagt der Wissenschaftler, als jedes Gerät noch ein von Hand gefertigtes Laborexperiment war. "Wir befinden uns irgendwo zwischen der Erfindung des Transistors und der Erfindung des integrierten Schaltkreises", fasst er zusammen.

Das Projekt von Google hat den Flair eines Silicon-Valley-Start-ups, sagt Martinis, wenn auch mit kräftiger finanzieller Rückendeckung. Nachdem er jahrelang hart an der Perfektionierung von Qubits gearbeitet hat, ist er froh, sich endlich auf den Bau eines Quantencomputers konzentrieren zu können, der echte Probleme lösen kann. "Google ersann einen neuen Namen für Wissenschaftler, die an der Hardware arbeiten: 'Quanteningenieure'", berichtet Martini. "Für mich ist das ein Traumjob."



Der Artikel ist im Original unter dem Titel "Physics: Quantum computer quest" in "Nature" erschienen.