Direkt zum Inhalt

Googles Quantencomputer: Der Sputnik-Moment der Quantenphysik?

Google scheint einen lang ersehnten Meilenstein in Sachen Quantencomputer erreicht zu haben – erstmals lässt eine der Maschinen klassische Rechner deutlich hinter sich. Der Beginn einer neuen Ära?
Quantencomputer (Illustration)

2014 traf man bei Google eine weit reichende Entscheidung: Der Quantencomputer – lange eine Fantasie chronisch optimistischer Physiker – soll endlich Wirklichkeit werden. Man engagierte den Kalifornier John Martinis, seit Langem eine Größe in der US-amerikanischen Quantencomputerszene. Man ließ ihn ein Team zusammenstellen und gab ihm eine Arbeitsumgebung, in der Fördermittelanträge und Gremiensitzungen keine Rolle spielen.

Martinis gilt als pragmatischer und hemdsärmeliger Tüftler. Als einer, der ein Ziel anvisiert – und der dann mit großer Beharrlichkeit den schnellsten Weg dorthin findet. Nachdem er bei Google angeheuert hatte, war dieses Ziel schnell gefunden: Die Welt soll den Quantencomputer endlich als erreichbare Zukunftstechnologie wahrnehmen; als eine Maschine, die klassische Supercomputer bei einer ausgewählten Rechenaufgabe hinter sich lassen kann.

Nun scheint Martinis diese »Quantenüberlegenheit« erstmals demonstriert zu haben – und das vor Konkurrenten wie IBM, die ebenfalls mit Hochdruck an der Quantencomputer-Technologie arbeiten. Darauf deutet zumindest ein am Wochenende geleakter Fachaufsatz hin, der von einem Server der NASA stammen soll. Darin berichtet das Team von Google und der US-Raumfahrtbehörde von einem 54-Qubit-Prozessor namens Sycamore. Dieser habe binnen 200 Sekunden eine spezielle Rechenaufgabe gelöst, für die der weltbeste Supercomputer 10 000 Jahre benötigt, so die Autoren des Papers.

Quantenprozessor »Sycamore«

Google hat zu dem Dokument bisher öffentlich keine Stellung bezogen. Experten halten das Paper, das noch nicht von unabhängigen Gutachtern geprüft wurde, jedoch für insgesamt authentisch, auch wenn es sich um eine leicht veraltete Version handeln könnte. Mitglieder von Googles Quantenteam haben den darin beschriebenen Prozessor namens Sycamore bereits im Juni auf einer Fachkonferenz in Österreich vorgestellt. Die geleakten Ergebnisse bewegen sich im Rahmen dessen, was Fachleute auf dieser Basis erwartet haben.

Der Sycamore-Prozessor hat demnach eine komplexe Rechnung ausgeführt, bei der die Vorteile von Quantencomputern besonders deutlich zu Tage treten. Wo gewöhnliche Rechner Bits verwenden, die sich zwischen den Werten 0 und 1 entscheiden müssen, können Qubits in einer Überlagerung der Zustände 0 und 1 verharren. Manche Algorithmen können das in einen Vorteil ummünzen und so pro Recheneinheit deutlich größere Datenmengen verarbeiten als klassische Bits-und-Bytes-Computer.

Besonders deutlich wird dieser Unterschied bei einer Spezialaufgabe aus der Chaostheorie. Bei ihr geht es darum, einen Schaltkreis aus gekoppelten Qubits viele zufällig ausgewählte Rechenoperationen ausführen zu lassen. Misst man anschließend, in welchem Zustand sich das System befindet, erhält man für jedes Qubit entweder eine Eins oder eine Null, insgesamt also eine Ausgabe der Form 011011100... .

Je mehr Qubits man koppelt, desto länger wird diese Zufallszahl – und desto mehr verschiedene Zufallszahlen kann der Schaltkreis ausspucken. Allerdings sind nicht alle Ergebnisse gleich wahrscheinlich, denn manche Ausgabewerte profitieren von positiver Interferenz zwischen Qubits, andere nicht. Wie wahrscheinlich eine einzelne Zahlenfolge ist, lässt sich daher erst nach unzähligen Durchgängen durch den Schaltkreis sagen.

Ergebnis auf Knopfdruck statt mühsam durchprobieren

Hier kommt die Besonderheit von Quantencomputern ins Spiel: Klassische Rechner, die den Schaltkreis simulieren, müssen jede denkbare Abfolge der Rechenschritte mühsam durchtesten. Mit steigender Qubit-Zahl steigt der Aufwand dafür ins Unermessliche. Für einen Quantencomputer bleibt die Rechenzeit hingegen überschaubar, da er – sobald er die Rechenoperationen über sich hat ergehen lassen – ein einzelnes Zufallsergebnis praktisch auf Knopfdruck ausspucken kann.

Die Grenze, bei welcher der Rechenaufwand für klassische Computer zu groß wird, liegt Schätzungen zufolge bei rund 50 Qubits. In dieser Größenordnung kann Google auch noch gerade so mit klassischer Rechenpower abschätzen, welche Wahrscheinlichkeitsverteilung man bei dem Quantenexperiment erwarten würde. Allerdings gilt es seit Langem als Herausforderung, 50 oder mehr quantenphysikalische Recheneinheiten auf einen Chip zu packen, sie zusammenzuschalten und sauber zu steuern.

»Das ist ein technologisches Meisterstück«Frank Wilhelm-Mauch, Universität des Saarlandes

Google verwendet hierfür supraleitende Minischaltkreise, die auf minus 273 Grad Celsius gekühlt werden. Die Flussrichtung der Elektronen entspricht dabei den Werten 0 und 1. Martinis und sein Team haben 54 der winzigen Kreuze in einem Gittermuster angeordnet, insgesamt soll der Chip gerade mal einen Zentimeter groß sein. Mit Mikrowellenpulsen lassen sich die einzelnen Qubits ansteuern, mit so genannten Resonatoren kann man sie einzeln auslesen.

Bei der Entwicklung der Technik landete Martinis anscheinend mindestens einmal in einer Sackgasse. Bereits 2017 präsentierten die Amerikaner einen 49-Qubits-Prozessor, der die Quantenüberlegenheit binnen weniger Monate erreichen sollte. Das klappte offensichtlich nicht. Stattdessen versank Martinis Team zwei Jahre in der Versenkung – und präsentiert nun mit Sycamore eine ganze andere Chiparchitektur.

Und auch hier scheint es eine Herausforderung gewesen zu sein, die Hardware wirklich flottzubekommen: Auf dem Chipprototyp ließen sich nur 53 der 54 Qubits für die anvisierte Aufgabe nutzen, was darauf hindeuten dürfte, dass das Fertigungsverfahren sehr fehleranfällig ist.

10 Minuten statt 50 Billiarden Stunden

Das Ergebnis sei dennoch eindeutig, meinen die Wissenschaftler in ihrem Fachaufsatz: Als Test haben sie den Quantenchip drei Millionen Mal eine Zufallsfolge ausspucken lassen, wobei sie ihn jeweils 20 zufällige Rechenoperationen durchführen ließen. Sycamore hat dafür gerade mal 10 Minuten gebraucht. Auf klassischen Supercomputer-Architekturen wäre ein Vielfaches dieser Zeit nötig gewesen.

Tatsächlich war die Aufgabe für die meisten Supercomputer, etwa den am Forschungszentrum Jülich, bereits zu speicherintensiv, heißt es in dem Paper. Auf den Google-Cloud-Servern, die über genügend Speicherplatz verfügen, hätte ein einzelner Prozessor etwa 50 Billiarden Stunden rechnen müssen, schätzen die Forscher.

Für Aufsehen dürfte auch die Fehlerrate sorgen, welche die Google-Forscher erreicht haben wollen. Sie gilt als Achillesferse von Quantencomputern – und ist Experten zufolge eines der zentralen Hindernisse auf dem Weg zu nützlichen Einsatzfeldern. Martinis Team will hier einen Wert von 0,36 Prozent für Zwei-Qubit-Gatter erreicht haben. Damit würde gerade mal jede 280te Rechenoperation ein falsches Ergebnis liefern, eine deutliche Steigerung zu bisherigen Quantencomputern.

Quantenphysiker haben daher am Montag überwiegend mit Anerkennung auf die geleakten Ergebnisse reagiert. »Das ist ein technologisches Meisterstück«, sagt der Quantencomputerexperte Frank Wilhelm-Mauch von der Universität des Saarlandes. Sein Kollege Tommaso Calarco vom Forschungszentrum Jülich sieht das ähnlich: »Das Ergebnis zeigt, dass die USA bei der supraleitenden Quanteninformatik im Moment die Nase vorn haben.«

Ein Signal, was alles möglich ist

Gleichzeitig betonen die Experten, dass es sich bei der vollführten Rechnung in erster Linie um einen symbolischen Meilenstein handelt. »Es geht hier um eine extrem akademische Aufgabe«, sagt Wilhelm-Mauch. Eine konkrete Anwendung habe sie nicht. Allerdings könne sie die Quantencomputerforschung enorm stimulieren: »Ich sehe das gewissermaßen wie den Sputnik-Moment in der Raumfahrt, der vielen Menschen signalisiert hat, was alles möglich ist.«

Zu den großen Zielen der Quantencomputerforschung dürfte der Weg aber noch weit sein. Hierzu gehört unter anderem die Zerlegung sehr großer Zahlen in ihre Primfaktoren durch den berühmten Shor-Algorithmus. Er gilt als Möglichkeit, das weit verbreitete RSA-Verschlüsselungsverfahren zu knacken. Muss man sich also schon bald Sorgen machen, dass Geheimdienste nicht nur den öffentlichen Mailverkehr abfangen, sondern auch ungeniert Bankkonten ausschnüffeln können?

Wilhelm-Mauch hält solche Sorgen aktuell für unbegründet. Der Sycamore-Quantenprozessor liefere noch viel zu schlechte Ergebnisse, um eine Gefahr für aktuelle Verschlüsselungsstandards darzustellen, sagt der Physiker. Seiner Ansicht nach müssen sich die Fehlerraten der Qubits dazu noch um »viele Größenordnungen« verkleinern, oder man müsse brauchbare Methoden der Fehlerkorrektur entwickeln, was vermutlich noch Jahrzehnte dauern werde.

Nützlich könnten Quantencomputer schon vorher werden, beispielsweise bei der Simulation von Quantensystemen oder chemischen Reaktionen. Ob der Weg zu solch einer ersten sinnvollen Quantenrechnung völlig gradlinig verläuft, ist allerdings fraglich. Schließlich scheint sich selbst der mächtigste Technologiekonzern der Welt mit der letzten Etappe sehr schwergetan zu haben.

Und vielleicht ist auch in Sachen Quantenüberlegenheit noch nicht das letzte Wort gesprochen. In der Vergangenheit wurden nicht nur Quantencomputer-Prototypen immer besser. Informatiker waren auch recht erfolgreich darin, klassischen Supercomputern neue Tricks beizubringen. Gelingt es ihnen in den nächsten Monaten, die 53-Qubit-Aufgabe besser zu lösen als Sycamore, muss Google seine Trophäe vielleicht wieder abgeben.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.