Direkt zum Inhalt

Quantencomputer: Neuer Ansatz verbessert Quantenchips dramatisch

Viele Jahre hatten supraleitende Qubits die Nase vorn. Jetzt will ein Forschungsteam bisherige Erfolge weit übertroffen haben – mit Quantenchips auf der Basis von Rubidium-Atomen.
Versuchsaufbau an der Harvard University
Noch sind Quantencomputer ein großes Experiment. An diesem Labortisch an der Harvard University werden Atome mit Lasern festgehalten und gesteuert, um damit Berechnungen anzustellen, die mit klassischen Rechnern nicht möglich sind.

Bislang sind Quantencomputer noch in einem Stadium wie Albert Einstein kurz nach seiner Einschulung. Das Potenzial ist da, aber dass aus dem Kind eines Tages ein Revolutionär wird, dessen Berechnungen ein neues Zeitalter für die Physik einläuten, ist nicht garantiert. Denn: Noch machen die futuristischen Maschinen viel zu viele Fehler. Ein Forschungsteam von der Harvard University, dem Massachusetts Institute of Technology (MIT), dem National Institute of Standards and Technology, dem Start-up QuEra sowie der University of Maryland hat jetzt einen Quantenprozessor mit 280 Qubits im Fachmagazin »Nature« vorgestellt, der Fehler aufspüren und korrigieren kann. Dazu testeten sie verschiedene Fehlerkorrekturverfahren und führten komplexe, fehlerkorrigierte Quantenalgorithmen auf 48 logischen Qubits aus. Damit ist die Arbeit ein wichtiger Fortschritt auf dem Weg hin zu einem universell einsetzbaren Quantencomputer.

Qubits sind die Recheneinheiten eines Quantencomputers und das quantenmechanische Pendant zu den klassischen Bits. Ein logisches Qubit, das die tatsächlichen Rechenoperationen durchführt, besteht aus mehreren physischen Qubits. Diese sind nötig, um die Fehler, die bei quantenmechanischen Berechnungen entstehen, zu korrigieren. Zuletzt haben die beiden US-Tech-Konzerne Google und IBM das Tempo bei der Entwicklung von immer größeren Quantenprozessoren vorgegeben. So hat IBM erst am 4. Dezember 2023 einen neuen Chip namens »Condor« mit 1121 physischen Qubits vorgestellt. Die schiere Anzahl der verbauten Qubits ist jedoch nicht entscheidend. Viele Teams konzentrieren sich deshalb darauf, neue Ansätze auszuloten und die Zahl der miteinander verschränkten, logischen Qubits zu erhöhen.

Während Google und IBM winzige supraleitende Schaltkreise als Qubits verwenden, in denen elektrische Ladungen mal in die eine und mal in die andere Richtung schwingen, setzt das Team um Dolev Bluvstein, Erstautor der neuen »Nature«-Studie, auf angeregte Zustände in Rubidium-Atomen. Dazu werden die äußeren Elektronen mittels Laserlicht auf sehr hohe Energieniveaus (so genannte Rydberg-Zustände) weit weg vom Atomkern gebracht – sie werden aber nicht abgespalten wie bei Ionen, die Atome bleiben daher ungeladen. Um sie für Quantenberechnungen einsetzen zu können, müssen die Forscher die angeregten Atome mit weiteren Lasern festhalten wie mit einer Pinzette. Auf diese Weise lassen sie sich auch beliebig in einer zweidimensionalen Anordnung verschieben. Die jeweilige Positionierung der Qubits ermöglicht es, die Maschine zu programmieren. Der Vorteil: Anders als man es etwa von den supraleitenden Qubits kennt, müssen die Quantenchips nicht mittels Helium auf wenige Millikelvin heruntergekühlt werden, sondern die Rechner können bei Raumtemperatur betrieben werden. Außerdem sind alle Atome identisch und nicht von eventuellen Fabrikationsungenauigkeiten betroffen. Auch in Deutschland arbeiten verschiedene Forschungsgruppen an einer solchen Quantencomputer-Architektur.

Fachleute erwarten, dass die Maschinen eines Tages Aufgaben bewältigen können, an denen klassische Rechner scheitern. So könnten sie in der Materialforschung, bei der Entwicklung neuer Medikamente oder bei der Lösung komplexer Probleme etwa im Banken- und Versicherungsbereich helfen. Allerdings reagieren Qubits hochsensibel auf äußere Einflüsse und ändern oft während der Berechnung ungewollt ihren Zustand. Dadurch produzieren sie immer wieder falsche Ergebnisse. Dies zu bemerken und zu korrigieren, ohne dass der fragile Quantenzustand zerstört wird, ist Aufgabe der Fehlerkorrekturverfahren. Ohne solche Techniken können die Quantencomputer das ihnen zugeschriebene Potenzial nicht verwirklichen.

Quanteninformation lässt sich nicht einfach kopieren

Die besondere Herausforderung im Unterschied zu den Fehlerkorrekturmechanismen bei klassischen Computern ist allerdings das »No-Cloning-Theorem«. Es besagt, dass sich Quanteninformation nicht einfach kopieren lässt. Somit gibt es kein »Back-up«. Ebenso wenig lässt es die Quantenmechanik zu, den Zustand eines einzelnen Qubits auszulesen, ohne die gesamte Berechnung zu stören. Um dieses Problem zu umgehen, muss die gespeicherte Information von einem Qubit auf ein verschränktes System von mehreren weiteren Qubits übertragen werden. Die Idee dazu entwickelte der US-Informatiker Peter Shor bereits in den 1990er Jahren. Eine solche Funktionseinheit aus mehreren physischen Qubits bezeichnet man als logisches Qubit.

Bislang ging man davon aus, dass ein fehlerkorrigiertes, logisches Qubit mehr als 1000 physische Qubits erfordert. Eine Maschine, die brauchbare Berechnungen durchführen kann, müsste dann Millionen von physischen Qubits haben. Der Gruppe um Bluvstein ist es jetzt jedoch gelungen, die bisherigen Fehlerkorrekturverfahren weiter zu verbessern. Wie effizient die Fehlerkorrektur am Ende ist, schlägt sich in einer »Code-Distanz« genannten Kennzahl nieder: Größere Code-Distanzen bedeuten eine höhere Resistenz gegenüber Quantenfehlern, aber erfordern auch mehr physische Qubits. Eine Code-Distanz von sieben hat bislang noch kein anderes Team weltweit demonstriert. Damit ist innerhalb eines logischen Qubits die Erkennung und Korrektur von drei beliebigen Fehlern möglich, die in jedem einzelnen der physischen Qubits auftreten können. Darüber hinaus will das Team zum ersten Mal gezeigt haben, dass eine Erhöhung der Code-Distanz die Fehlertoleranz bei logischen Operationen tatsächlich verringert. Das ist nicht selbstverständlich, da mit steigender Qubitzahl auch die Fehlerwahrscheinlichkeit steigt.

QuEra | Das amerikanische Start-up QuEra, eine Ausgründung der Harvard University, betreibt bereits einen kommerziell nutzbaren Quantencomputer mit 256 Qubits.

Die externen Begutachter des Forschungsartikels bezeichnen die Arbeit des Teams als »beeindruckend«, als »bedeutenden Fortschritt« und als »Beleg dafür, dass diese Technologie aufgeholt hat und mittlerweile zu den führenden Architekturen für einen Quantencomputer gehört«. Immanuel Bloch, Leiter des Max-Planck-Instituts für Quantenoptik in Garching bei München und selbst einer der führenden Forscher auf dem Gebiet, nennt die Ergebnisse gegenüber »Spektrum.de« eine »sehr schöne Arbeit«, die viel Potenzial habe.

Der nächste Schritt muss nun aber sein, die Fehler während der Berechnung zu detektieren und zu korrigieren, nicht danach. Erst dann käme das System einer universell einsetzbaren Maschine wirklich näher. »Das ist eine spannende Zeit für unser Forschungsfeld, da der Ansatz der Quantenfehlerkorrektur und Fehlertoleranz erste Früchte trägt«, sagte Mikhail Lukin, Kodirektor der Harvard Quantum Initiative sowie Mitgründer des daraus hervorgegangenen Start-ups QuEra Computing. Der Fortschritt sei mit einem System erreicht worden, das einem noch unveröffentlichten Quantenprozessor der zweiten Generation von QuEra ähnelt, aber bislang noch in den Räumlichkeiten der Harvard University installiert ist. »Dieser neue Schritt wird die Entwicklung leistungsfähiger Quantencomputer erheblich beschleunigen und die nächste Innovationsphase fördern.« Vielleicht erhält der Quantencomputer dann ja schon in ein paar Jahren die Gymnasialempfehlung.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.