Direkt zum Inhalt

Informatik: Quantencomputer könnten künstliche Intelligenz voranbringen

Die Vereinigung von Quantencomputern mit maschinellem Lernen ist zu einem florierenden Forschungsgebiet geworden. Kann sie die Erwartungen der Wissenschaftler erfüllen?
In der Cyberwelt

In den frühen 1990er Jahren begann die Physikprofessorin Elizabeth Behrmann von der Wichita State University in den USA damit, Quantenphysik mit künstlicher Intelligenz zu verknüpfen – insbesondere mit den damals noch als Außenseiter-Technologie angesehenen neuronalen Netzen. Die meisten Forscher dachten, Behrmann versuche Öl und Wasser zu mischen. »Es war verdammt schwierig für mich, meine Forschungen zu publizieren«, erinnert sich die Wissenschaftlerin. »Fachjournale mit Schwerpunkt neuronale Netze antworteten: Was ist denn diese Quantenmechanik? Und Physikzeitschriften fragten: Was soll dieser Unfug mit den neuronalen Netzen?«

Inzwischen erscheint die Verbindung der beiden Themen als das Natürlichste auf der Welt. Neuronale Netze und andere Systeme für maschinelles Lernen sind zu den revolutionärsten, umwälzendsten Technologien des 21. Jahrhunderts geworden. Sie übertreffen die Fähigkeiten von uns Menschen nicht nur bei Aufgaben, bei denen wir niemals wirklich überragend waren – wie Schach und der Suche nach Auffälligkeiten in großen Datenmengen (»data mining«) –, sondern inzwischen auch bei genau den Dingen, für die sich unser Gehirn im Lauf der Evolution entwickelt hat, wie etwa der Erkennung von Gesichtern, Übersetzungen und der Verständigung zwischen vier aus unterschiedlichen Richtungen kommenden Fahrzeugen an einer gleichberechtigten Kreuzung. Diese Systeme konnten durch das gewaltige Anwachsen der Rechenleistung entwickelt werden. Und so war es unvermeidlich, dass die IT-Unternehmen sich auf die Suche nach Computern machten, die nicht nur größer sind, sondern bei denen es sich um eine ganz neue Art von Rechenmaschine handelt.

»Es gibt eine natürliche Verbindung zwischen der inhärent statistischen Natur des Quantencomputing … und dem maschinellen Lernen«
(Johannes Otterbach)

Nach jahrzehntelanger Forschung haben Quantencomputer nahezu das Leistungsvermögen erreicht, das für Berechnungen nötig ist, die jenseits der Fähigkeiten aller anderen Computer auf der Welt liegen. Als entscheidende Anwendung gilt dabei für gewöhnlich die für moderne Verschlüsselungsverfahren wichtige Faktorisierung großer Zahlen. Dieses Ziel dürfte frühestens in einem Jahrzehnt erreichbar sein. Doch schon die heutigen rudimentären Quantenprozessoren passen auf frappierende Weise zum maschinellen Lernen. Sie manipulieren große Datenfelder in einem einzigen Schritt, spüren subtile Muster in den Daten auf, für die klassische Computer blind sind, und sie scheitern nicht an unvollständigen oder unsicheren Daten. »Es gibt eine natürliche Verbindung zwischen der inhärent statistischen Natur des Quantencomputing … und dem maschinellen Lernen«, sagt der Physiker Johannes Otterbach von Rigetti Computing, einem kalifornischen Quantencomputer-Unternehmen in Berkeley.

Aber die Begeisterung für diese Verknüpfung schießt gegenwärtig über das Ziel hinaus. Google, Microsoft, IBM und andere IT-Großunternehmen pumpen jede Menge Geld in den Bereich des quantenmaschinellen Lernens. An der University of Toronto gibt es eine eigene auf diesen Bereich spezialisierte Fördereinrichtung für Firmenausgründungen. »Maschinelles Lernen ist zu einem Modewort geworden«, warnt der Quantenphysiker Jacob Biamonte vom Skolkovo-Institut für Wissenschaft und Technik in Moskau. »Und wenn man dieses Modewort um ›Quanten‹ ergänzt, kommt ein noch größeres Modewort dabei heraus.«

Allerdings ist der Zusatz »Quanten« bei einem Begriff mitunter mehr Schein als Sein. Man würde erwarten, dass ein Quantensystem für maschinelles Lernen enorm leistungsfähig ist – tatsächlich aber leidet es unter einer Art Locked-in-Syndrom: Es arbeitet mit Quantenzuständen und nicht mit für Menschen lesbaren Daten. Und die Übersetzung des einen in das andere kann zum Verlust der vermeintlichen Vorteile des Quantensystems führen. Es ist wie beim neuen iPhone X, das trotz all seiner eindrucksvollen Spezifikationen genauso langsam ist wie das alte Smartphone – einfach, weil das lokale Netz genauso schlecht ist wie zuvor. In einigen Spezialfällen können Physiker diesen Eingabe-Ausgabe-Flaschenhals überwinden. Doch ob solche Fälle eine Bedeutung für praktische Anwendungen des maschinellen Lernens haben, ist bislang unklar. »Wir haben darauf noch keine klaren Antworten«, gesteht der Informatiker Scott Aaronson von der University of Texas in Austin. Er gilt in Fachkreisen als Stimme der Vernunft, wenn es um Quantencomputer geht. »Die meisten gehen recht locker mit der Frage um, ob diese Algorithmen wirklich schneller sind.«

Quantensysteme leiden unter Locked-in-Syndrom

Die wichtigste Aufgabe neuronaler Netze – ob klassisches oder Quanten-Netz – ist die Erkennung von Mustern. Inspiriert vom Aufbau des menschlichen Gehirns besteht ein neuronales Netz aus gitterartig angeordneten Schaltelementen, den »Neuronen«. Bei diesen Elementen kann es sich um schlichte An-Aus-Schalter handeln. Jedes Neuron überwacht die Ausgabe vieler anderer Neurone und schaltet sich auf »an«, wenn eine ausreichende Zahl der anderen Neurone »an« sind. Typischerweise sind die Neurone in Schichten angeordnet. Die erste Schicht nimmt die Eingabedaten an, beispielsweise die Pixel eines Bilds. Zwischenschichten erzeugen unterschiedliche Kombinationen der Eingabedaten, die etwa Kanten oder geometrische Formen repräsentieren können. Die letzte Schicht schließlich liefert die Datenausgabe, zum Beispiel eine formalisierte Bildbeschreibung.

Entscheidend dabei ist, dass die Verknüpfung der Neurone nicht von vornherein festgelegt ist, sondern sich im Verlauf des Prozesses durch Ausprobieren anpasst. Nehmen wir an, das Netz wird mit Bildern gefüttert, die als »Kätzchen« oder als »Welpe« etikettiert sind. Das neuronale Netz liefert dann für jedes Bild eine dieser Bezeichnungen und überprüft, ob sie korrekt ist. Wenn nicht, verändert es seine neuronalen Verbindungen und überprüft, ob die Trefferzahl dadurch besser wird. Zunächst rät das Netz lediglich, aber im Verlauf von vielleicht 10 000 Durchgängen erkennt es jedes Bild. Ein ernsthaftes neuronales Netz besitzt eine Milliarde Verbindungen, und jede dieser Verbindungen muss im Lauf dieses Prozesses angepasst werden.

In einem klassischen Computer repräsentiert eine gewaltige Matrix aus Zahlen diese Verbindungen. Bei der Durchführung des Prozesses handelt es sich also um Matrizenalgebra. Üblicherweise lässt man solche Matrix-Operationen von speziellen Grafikprozessoren durchführen. Doch Quantencomputer sind wie geschaffen für die Matrizenrechnung. »Die Manipulation von großen Matrizen und großen Vektoren ist auf einem Quantencomputer exponentiell schneller«, sagt der Physiker Seth Lloyd vom Massachusetts Institute of Technology, einer der Pioniere der Quantencomputer-Technologie.

Speicherkapazität bei Quantensystemen wächst exponentiell

Bei dieser Aufgabe können Quantencomputer die exponentielle Natur von Quantensystemen ausnutzen. Der überwiegende Teil der Speicherkapazität eines Quantensystems liegt nicht in seinen individuellen Dateneinheiten, den Qubits, sondern in den kollektiven Eigenschaften der Qubits. Zwei Qubits haben vier verknüpfte Zustände: beide »an«, beide »aus«, »an/aus« und »aus/an«. Jeder dieser Zustände ist mit einem bestimmten Gewicht, seiner »Amplitude«, vertreten und repräsentiert ein Neuron. Addiert man ein drittes Qubit, so lassen sich auf diese Weise bereits acht Neurone repräsentieren, mit einem vierten sogar 16, und so weiter. Die Speicherkapazität des Systems wächst also exponentiell mit der Zahl der Qubits. Dabei sind die Neurone über das gesamte System verteilt. Führt man eine Operation an einem Zustand von vier Qubits durch, so verarbeitet man auf einen Schlag 16 Zahlen. Ein klassischer Computer muss die Zahlen dagegen eine nach der anderen abarbeiten.

Lloyd schätzte ab, dass 60 Qubits ausreichen würden, um die gesamte Datenmenge zu kodieren, die die Menschheit in einem Jahr produziert. Und 300 Qubits könnten gar den gesamten klassischen Informationsgehalt des gesamten beobachtbaren Universums enthalten. Die größten Quantencomputer, die es derzeit gibt – Maschinen von IBM, Intel und Google –, besitzen etwa 50 Qubits. Lloyd ging bei seinen Überlegungen vereinfachend davon aus, dass jede Amplitude einem klassischen Bit entspricht. Tatsächlich handelt es sich bei Amplituden jedoch um kontinuierliche und zudem komplexe Größen. Unter der Annahme einer plausiblen experimentellen Genauigkeit sollte es sogar möglich sein, bis zu 15 Bits in jeder Amplitude zu speichern, so Aaronson.

Allein diese Eigenschaft, immense Mengen an Informationen speichern zu können, macht Quantencomputer aber noch nicht schneller als klassische: Man muss die Qubits auch verwenden können. Im Jahr 2008 zeigten Lloyd, der Physiker Aram Harrow vom MIT und der Informatiker Avinatan Hassidim von der Universität Bar-Ilan in Israel, wie sich die wichtige algebraische Operation einer Matrix-Inversion durchführen lässt. Sie führten die Berechnung auf eine Sequenz von logischen Operationen zurück, die sich auf einem Quantencomputer ausführen lassen. Ihr Algorithmus funktioniert für eine große Vielfalt maschineller Lernverfahren. Und er benötigt bei Weitem nicht so viele Schritte wie etwa die Faktorisierung großer Zahlen. Ein Quantencomputer kann daher eine Klassifikationsaufgabe ausführen, bevor Rauschen – der große begrenzende Faktor der heutigen Quantentechnik – eine Chance hat, das Ergebnis zu verderben. »Quantensysteme könnten bereits Vorteile bieten, bevor wir einen vollständig universellen, fehlertoleranten Quantencomputer besitzen«, sagt Kristan Temme vom Thomas J. Watson Research Center des Unternehmens IBM.

Lasst die Natur das Problem lösen!

Bislang konnte maschinelles Lernen auf der Basis von Quanten-Matrixalgebra allerdings nur auf Maschinen mit gerade einmal vier Qubits demonstriert werden. Die meisten experimentellen Erfolge im Bereich quantenmaschinelles Lernen gehen bislang von einer anderen Herangehensweise aus. Dabei simuliert das Quantensystem nicht das Netz, sondern es ist das Netz. Jedes Qubit steht dann für ein Neuron. Zwar geht damit der Vorteil des exponentiellen Wachstums verloren, doch dafür kann eine solche Maschine andere Eigenschaften der Quantenphysik ausnutzen.

Das größte derartige System, entwickelt von der Firma D-Wave Systems in der Nähe von Vancouver in Kanada, enthält etwa 2000 Qubits. Das System ist nicht so, wie sich die meisten Leute einen Computer vorstellen. Statt von Eingabedaten ausgehend eine Reihe von Rechenoperationen durchzuführen und dann Daten auszugeben, sucht es nach innerer Konsistenz. Jedes seiner Qubits ist eine supraleitende elektrische Schlaufe, die als winziger Elektromagnet agiert: Er kann aufwärts oder abwärts orientiert sein – oder sich in einer Superposition dieser beiden Zustände befinden. Die Qubits sind miteinander »verdrahtet«, indem sie magnetisch miteinander wechselwirken können.

Um das System zu verwenden, setzt man es zunächst einem horizontalen Magnetfeld aus. Dadurch gelangen die Qubits alle in die gleiche Überlagerung aus »aufwärts« und »abwärts« – dem Äquivalent eines leeren Speichers. Es gibt mehrere Methoden, um dann Daten einzugeben. Bei manchen davon fixiert man die Qubits einer Schicht auf die gewünschten Eingabedaten. Häufiger repräsentiert die Stärke der Wechselwirkungen zwischen den Qubits die Eingabedaten. Dann lässt man die Qubits aufeinander einwirken. Einige richten sich unter dem Einfluss des äußeren Felds an ihren Nachbarn aus, einige in die entgegengesetzte Richtung. Dabei bringen sie jeweils weitere Qubits dazu, ihre Orientierung zu wechseln. Anfangs geschieht das häufig, weil viele Qubits ungünstig ausgerichtet sind. Mit der Zeit jedoch beruhigt sich das Geschehen. Dann wird das horizontale Feld abgeschaltet und der Zustand damit fixiert. Die Qubits zeigen jetzt ein Muster ihrer Ausrichtungen, das sich aus den Eingabedaten ergeben hat.

»Wir benötigen keinen Algorithmus. Unser Vorgehen unterscheidet sich vollständig vom konventionellen Programmieren. Die Natur löst das Problem«
(Hidetoshi Nishimori)

Es ist in keiner Weise vorhersehbar, wie das finale Muster der Qubits aussehen wird – und genau das ist der entscheidende Punkt. Einfach, indem das System sich natürlich entwickelt, löst es ein Problem, mit dem ein gewöhnlicher Computer gewaltig zu kämpfen hätte. »Wir benötigen keinen Algorithmus«, erklärt der Physiker Hidetoshi Nishimori vom Institut für Technik in Tokio. Er hat die Prinzipien entwickelt, auf deren Grundlage die von D-Wave gebaute Maschine arbeitet. »Es unterscheidet sich vollständig vom konventionellen Programmieren. Die Natur löst das Problem.«

Das Umklappen der Qubits geschieht durch den Quanten-Tunneleffekt, das natürliche Bestreben von Quantensystemen, ihre optimale Konfiguration einzunehmen und sich nicht mit einer weniger guten Anordnung zufriedenzugeben. Zwar lässt sich ein klassisches Netz aufbauen, das analog funktioniert, wobei zufälliges Schütteln die Rolle des Tunneleffekts übernimmt, um die Bits umklappen zu lassen. In einigen Fällen würde ein solches System sogar besser funktionieren. Interessanterweise erreicht ein Quantennetz aber gerade bei Problemen des maschinellen Lernens schneller das Optimum.

Die Quantenmaschine von D-Wave hat zwar auch Nachteile: Sie ist extrem verrauscht und kann, in ihrer gegenwärtigen Version, nur eine begrenzte Auswahl von Operationen durchführen. Doch andererseits sind gerade die Algorithmen des maschinellen Lernens von Natur aus sehr tolerant gegenüber Rauschen. Sie sind gerade deshalb nützlich, weil sie in der unübersichtlichen Realität Muster aufspüren können – wie beispielsweise Kätzchen von Welpen zu unterscheiden, selbst wenn Bildfehler falsche Fährten legen. »Neuronale Netze sind berühmt dafür, robust gegen Rauschen zu sein«, sagt Behrmann.

Quantensystem als einschichtiges neuronales Netz

Im Jahr 2009 zeigte ein Team unter der Leitung des Google-Informatikers Hartmut Neven – er gilt als Pionier der »erweiterten Realität« (englisch: augmented reality, kurz AR), war Mitbegründer des Projekts »Google Glass« und wandte sich schließlich der Quanten-Informationsverarbeitung zu –, wie eine der ersten Maschinen von D-Wave eine beachtliche Aufgabe aus dem Bereich maschinelles Lernen lösen kann. Die Forscher nutzten die Maschine als eine Art neuronales Netz mit nur einer Schicht, um Bilder einer Datenbank von 20 000 Straßenszenen in zwei Klassen zu sortieren: »Auto« und »kein Auto«. Die Maschine besaß nur 52 Qubits, viel zu wenig, um ein ganzes Bild zu laden. Deshalb kombinierte Nevens Team die Quantenmaschine mit einem klassischen Computer, der verschiedene statistische Größen der Bilder berechnete und ermittelte, wie diese Größen von der Anwesenheit eines Autos auf dem Bild abhängen. Meist zeigte sich nur ein geringer Effekt, aber er war zumindest aussagekräftiger als das Werfen einer Münze. Und einige Kombinationen dieser Größen könnten, so die Idee, dazu taugen, Autos verlässlich zu identifizieren – es war jedoch nicht klar, welche Kombinationen. Die Aufgabe des Quantensystems war es, genau das herauszufinden.

Das Team ordnete jeder statistischen Größe ein Qubit zu. Wenn dieses Qubit bei einem Wert von 1 zur Ruhe kam, wurde die entsprechende Größe als nützlich markiert. War der Wert des Qubits 0, war die Größe uninteressant. Die magnetische Wechselwirkung der Qubits kodierte die Anforderungen des Problems, etwa nur die wichtigsten Größen zu berücksichtigen und die finale Auswahl so kompakt wie möglich zu halten. Das Ergebnis war tatsächlich in der Lage, Autos zu erkennen.

Im Jahr 2017 hat ein anderes Team um die Teilchenphysikerin Maria Spiropulu vom California Institute of Technology und den Physiker Daniel Lidar von der University of Southern California den Algorithmus auf ein physikalisches Problem angewendet: die Einstufung von Protonenkollisionen als »Higgs-Boson« oder »kein Higgs-Boson«. Die Forscher beschränkten sich dabei auf solche Kollisionen, die Photonen produzierten. Sie verwendeten grundlegende Teilchentheorie, um vorherzusagen, welche Photoneneigenschaften die flüchtige Existenz eines Higgs-Bosons verraten würden, wie beispielsweise ein Impuls größer als ein bestimmter Grenzwert. Das Team berücksichtigte acht Eigenschaften und 28 Kombinationen davon, also insgesamt 36 Signale. Dann ließen die Forscher ein neueres D-Wave-System an der University of Southern California die optimale Auswahl suchen. Das Quantensystem identifizierte 16 Größen als nützlich und drei davon als die absolut besten. Die Quantenmaschine benötigte dazu weniger Daten als Standardverfahren für die genaue Identifikation der Größen. »Mit Blick darauf, dass die Trainingsmenge klein war, hat das Quantenverfahren ein besseres Ergebnis geliefert als die traditionellen Methoden, die in der Hochenergiephysik üblich sind«, sagt Lidar.

Allzweck-Quantencomputer sortiert Städte

Im Dezember 2017 zeigte das Rigetti-Team und seine Kollegen, wie sich mit einem Allzweck-Quantencomputer mit 19 Qubits automatisch Objekte sortieren lassen. Die Forscher fütterten die Maschine mit einer Liste von Städten und den Entfernungen zwischen ihnen. Dann sollte die Maschine die Städte in zwei geografische Regionen sortieren. Das Problem ist deshalb so schwierig, weil die Zuordnung einer Stadt von den Zuordnungen aller anderen abhängt; das ganze System muss also gleichzeitig gelöst werden.

Das Rigetti-Team ordnete jeder Stadt effektiv ein Qubit zu, das anzeigte, zu welcher Region die Stadt gehört. Über die Wechselwirkungen der Qubits – die in diesem Fall elektrisch waren und nicht magnetisch – versuchte jedes Paar von Qubits entgegengesetzte Werte einzunehmen, weil das energetisch am günstigsten ist. Für jedes System mit mehr als zwei Qubits müssen jeweils Paare von Qubits die gleiche Ausrichtung zeigen, um in die gleiche Region einsortiert zu werden. Benachbarte Städte neigten eher dazu, weil die nötige Energie, um in derselben Region zugeordnet zu werden, für sie geringer ausfällt als für weiter voneinander entfernte Städte.

Um das System in den energetisch niedrigsten Zustand zu bringen, verwendete das Team eine Methode, die dem D-Wave-Verfahren ähnelt. Die Forscher initialisierten die Qubits in einer Superposition aller möglichen Zuordnungen. Dann erlaubten sie den Qubits, kurzzeitig aufeinander einzuwirken, wodurch diese tendenziell entgegengesetzte oder gleiche Richtungen einnahmen. Dann wendeten sie das Analogon eines horizontalen Magnetfelds an. Dadurch konnten die Qubits umklappen, wenn es für sie energetisch von Vorteil war. Damit bewegte sich das System ein Stück weiter auf den Zustand mit der niedrigsten Energie zu. Dann wiederholten die Forscher diesen zweistufigen Prozess – erst Wechselwirkung, dann Umklappen –, bis das System seine Energie minimiert hatte. So wurden die Städte tatsächlich in zwei unterschiedliche Regionen sortiert.

»Generative Methoden sind sehr mächtig und sehr nützlich beim maschinellen Lernen, aber sie sind auch sehr schwierig«
(Mohammad Amin)

Solche Klassifizierungen sind nützlich, aber überschaubar. Die entscheidenden Aufgaben für das maschinelle Lernen sind generative Modelle: Verfahren, die nicht einfach Welpen und Kätzchen unterscheiden, sondern selbstständig neue Archetypen erzeugen können – Tiere, die es niemals gegeben hat, die aber ebenso niedlich sind wie jene, die es bereits gibt. Die Verfahren könnten sogar die Kategorien »Kätzchen« und »Welpen« selbst entdecken oder Bilder vervollständigen, bei denen ein Schwanz oder eine Pfote fehlt. »Diese Methoden sind sehr mächtig und sehr nützlich beim maschinellen Lernen, sie sind allerdings auch sehr schwierig«, sagt Mohammad Amin, der Chefwissenschaftler von D-Wave. Deshalb wäre die Hilfe eines Quantensystems willkommen.

D-Wave und andere Forscherteams haben sich dieser Herausforderung gestellt. Ein solches Modell zu trainieren bedeutet, die magnetischen oder elektrischen Wechselwirkungen zwischen den Qubits so einzustellen, dass das System Testdaten reproduzieren kann. Dazu kombiniert man das Quantennetz mit einem normalen Computer. Das Netz leistet die schwere Arbeit – es findet heraus, was eine gewählte Konfiguration von Wechselwirkungen für die endgültige Konfiguration des Netzes bedeutet. Der klassische Computer verwendet diese Informationen, um die Wechselwirkungen zu justieren. Bei einer Vorführung des Systems im Jahr 2017 fütterten Alejandro Perdomo-Ortiz vom Quantum Artificial Intelligence Lab der NASA und sein Team ein D-Wave-System mit handgeschriebenen Ziffern. Es fand selbstständig heraus, dass es zehn verschiedene Kategorien gibt, die den Ziffern von 0 bis 9 entsprechen, und erzeugte zusätzlich eigene gekritzelte Ziffern.

Flaschenhälse in Tunneln

So weit die guten Nachrichten. Die schlechte Nachricht: Es ist egal, wie gut der Prozessor ist, wenn man die Daten nicht in ihn hineinbekommt. Ein Matrixalgebra-Algorithmus kann in einer einzigen Operation eine Matrix aus 16 Zahlen manipulieren. Doch es sind immer noch 16 Operationen nötig, um die Matrix zu laden. »Die Vorbereitung des Quantenzustands – klassische Daten in einem Quantenzustand zu speichern – ist ein Problem, dem wir bislang aus dem Weg gehen. Aber ich denke, das ist der wichtigste Teil des Prozesses«, sagt Maria Schuld vom Quantencomputer-Start-up Xanadu, die zu den ersten Personen gehört, die ihren Doktortitel im Bereich quantenmaschinelles Lernen erworben haben. Systeme für maschinelles Lernen, die ein Problem physikalisch lösen, sind mit ähnlichen Schwierigkeiten konfrontiert: Wie bettet man das zu lösende Problem in das Netz aus Qubits ein, und wie bringt man die Qubits dazu, sich gegenseitig wie gewünscht zu beeinflussen?

Hat man es geschafft, seine Daten in das System zu bekommen, muss man sie so abspeichern, dass das Quantensystem mit ihnen in Wechselwirkung treten kann, ohne dass die laufende Berechnung kollabiert. Lloyd und seine Kollegen haben einen Quanten-RAM vorgeschlagen, der mit Photonen arbeitet. Bislang gibt es jedoch keine vergleichbaren Ideen für supraleitende Qubits oder Ionenfallen, und das sind die Techniken, die bei den führenden Quantencomputern zur Anwendung kommen. »Das ist ein weiteres großes technologisches Problem über die Schwierigkeit hinaus, überhaupt einen Quantencomputer zu bauen«, sagt Aaronson. »Die Experimentalphysiker, mit denen ich darüber gesprochen habe, sind davon geradezu eingeschüchtert – sie haben keinerlei Idee, wie sie auch nur anfangen sollen, das Problem zu lösen.«

Und schließlich: Wie bekommt man die Daten wieder aus dem System heraus? Dazu ist es nötig, den Quantenzustand des Systems zu messen. Eine solche Messung liefert aber nicht nur eine einzige Zahl pro Messung, zufällig aus einer Wahrscheinlichkeitsverteilung gezogen. Sie lässt darüber hinaus den gesamten Zustand kollabieren und vernichtet damit die restlichen Daten, bevor man auch nur die Chance hat, diese abzurufen. Man muss daher den gesamten Algorithmus wieder und wieder laufen lassen, um alle Informationen zu erhalten.

Falsche Antworten löschen sich gegenseitig

Doch noch ist nicht alles verloren. Für einige Probleme lässt sich das Phänomen der Quanteninterferenz ausnutzen. Man kann die Choreografie der Operationen so gestalten, dass falsche Antworten sich gegenseitig auslöschen und richtige sich verstärken. Misst man dann den Quantenzustand, dann erhält man nicht länger eine zufällige Zahl, sondern die gewünschte Antwort. Allerdings sind nur wenige Algorithmen, etwa ein »Brute-Force«-Suchverfahren, in der Lage, Interferenzen zu nutzen, und der Gewinn an Rechengeschwindigkeit ist dann nur mäßig.

In einigen Fällen ist es Forschern gelungen, einfachere Wege zu finden, um Daten einzuspeisen und auszulesen. So zeigten 2015 Lloyd, Silvano Garnerone von der University of Waterloo in Kanada und Paolo Zanardi von der University of Southern California, dass es bei bestimmten statistischen Analysen nicht nötig ist, den kompletten Datensatz einzugeben und zu speichern. Und man muss auch nicht alle Daten auslesen, wenn einige wenige Schlüsseldaten ausreichen. Beispielsweise nutzen manche Unternehmen maschinelles Lernen, um Kunden vorzuschlagen, welche Filme sie sich ansehen oder welche Produkte sie kaufen sollten. Dazu verwenden sie eine gigantische Matrix, die alle Daten des Kundenverhaltens enthält. »Doch Netflix, Amazon oder andere Unternehmen müssen diese Matrix nirgends abspeichern«, sagt Aaronson. »Sie müssen lediglich Empfehlungen für jeweils einen Kunden erzeugen.«

»Wir reden in unseren Veröffentlichungen nicht darüber, ob das Quantenverfahren schneller  ist«
(Alex Mott)

All das führt zwangsläufig zu einer bestimmten Frage: Wenn Quantenmaschinen nur in speziellen Fällen besonders leistungsfähig sind, könnte es dann nicht sein, dass auch klassische Computer in diesen Fällen besonders leistungsfähig sind? Das ist die große unbeantwortete Frage auf dem Gebiet. Gewöhnliche Computer sind schließlich ohnehin schon sehr leistungsfähig. Das übliche Verfahren, um mit großen Datensätzen umzugehen – Zufallsstichproben –, ähnelt tatsächlich stark der Arbeitsweise von Quantencomputern, die, was auch immer in ihrem Inneren vorgeht, ein Zufallsergebnis liefern. »Ich habe bereits eine Menge Algorithmen geschrieben, bei denen ich das Gefühl hatte, sie seien erstaunlich schnell«, erklärt Schuld. »Nur so zum Spaß schrieb ich dann ein Zufallsstichproben-Verfahren für klassische Computer – bloß um zu erkennen, dass man damit tatsächlich dasselbe erreichen kann.«

Schaut man zurück auf die bisherigen Erfolge des quantenmaschinellen Lernens, so zeigen sie alle gewisse Einschränkungen. Die D-Wave-Maschine ist beispielsweise beim Klassifizieren von Autobildern oder Higgs-Bosonen nicht schneller als eine klassische Maschine. »Wir reden in unseren Veröffentlichungen nicht darüber, ob das Quantenverfahren schneller ist«, sagt der Informatiker Alex Mott von Google DeepMind, ein Mitglied des Higgs-Forschungsteams. Matrixalgebra-Verfahren wie der Algorithmus von Harrow, Hassidim und Lloyd sind nur dann schneller, wenn die Matrizen dünn besetzt sind – also hauptsächlich Nullen enthalten. »Und niemand stellt jemals die Frage, ob solche dünn besetzten Datensätze für das maschinelle Lernen überhaupt von Bedeutung sind«, stellt Schuld fest.

»Mit ausreichend großen und schnellen Quantencomputern könnten wir viele Bereiche des maschinellen Lernens revolutionieren«
(Nathan Wiebe)

Andererseits: Selbst gelegentliche schrittweise Verbesserungen gegenüber bereits vorhandenen Technologien machen die IT-Unternehmen glücklich. »Die Verbesserungen, die man bisher sehen kann, sind nur mäßig. Sie wachsen nicht exponentiell, aber quadratisch«, sagt der Quanteninformatiker Nathan Wiebe von Microsoft Research. »Mit ausreichend großen und schnellen Quantencomputern könnten wir viele Bereiche des maschinellen Lernens revolutionieren.« Und im Lauf der Nutzung der Systeme könnten die Informatiker das theoretische Problem lösen, ob Quantencomputer tatsächlich systemimmanent schneller sind – und wenn ja, für welche Anwendungen.

Schuld sieht außerdem Spielraum für Verbesserungen im Bereich der Software. Maschinelles Lernen ist mehr als ein Bündel von Berechnungen. Es ist ein Komplex von Problemen mit einer eigenen speziellen Struktur. »Die von manchen Leuten konstruierten Algorithmen sind weit von den Dingen entfernt, die maschinelles Lernen interessant und schön machen«, sagt sie. »Deshalb habe ich versucht, die Sache auf den Kopf zu stellen: Wenn ich diese Quantencomputer bereits habe – diese kleinen Systeme –, welche Modelle des maschinellen Lernens lassen sich dann dort allgemein implementieren? Vielleicht handelt es sich um Modelle, die noch nicht erfunden wurden.« Wenn Physiker Experten aus dem Bereich maschinelles Lernen beeindrucken wollen, dann müssen sie mehr vorweisen als nur Quantenversionen bereits existierender Modelle.

So wie viele Hirnforscher inzwischen glauben, dass die Struktur des menschlichen Denkens vom Vorhandensein eines Körpers abhängt, so sind auch Systeme des maschinellen Lernens auf ihre Weise »körpergebunden«. Bilder, Sprache und die meisten anderen Daten, die durch solche Systeme strömen, entstammen der physikalischen Welt und spiegeln deren Beschaffenheit wider. Das gilt auch für quantenmaschinelles Lernen – deren Systeme jedoch in eine Welt eingebettet sind, die reichhaltiger ist als die unsere. Der eine Bereich, in dem Quantensysteme ohne jeden Zweifel herausragen werden, ist die Bearbeitung von Daten, die bereits Quanteneigenschaften besitzen. Wenn es sich bei den Daten nicht um ein Bild, sondern um das Produkt eines physikalischen oder chemischen Experiments handelt, dann befindet sich die Quantenmaschine in ihrem ureigensten Element. Das Eingabeproblem verschwindet, und klassische Computer bleiben auf der Strecke.

Gehirn verhält sich wie Quantencomputer

Auf wundervoll selbstbezügliche Art und Weise könnten die ersten Systeme quantenmaschinellen Lernens sogar dabei helfen, ihre eigenen Nachfolger zu entwickeln. »Eine Möglichkeit, diese Systeme zu verwenden, wäre tatsächlich der Bau von Quantencomputern selbst«, sagt Wiebe. »Für manche Aufgaben im Bereich der Fehlersuche ist es sogar der einzige Ansatz, den wir haben.« Vielleicht könnten solche Systeme sogar uns Menschen auf Fehler überprüfen.

Selbst wenn man die höchst umstrittene Frage, ob es sich beim menschlichen Gehirn um einen Quantencomputer handelt, einmal außen vor lässt: Mitunter verhält es sich zumindest wie eines. Das menschliche Verhalten ist ausgesprochen kontextabhängig. Unsere Entscheidungen hängen davon ab, welche Möglichkeiten uns angeboten werden, und zwar in einer Art und Weise, die sich oft nicht logisch erklären lässt. Darin ähneln wir Quantenpartikeln. »Es hängt davon ab, wie und in welcher Reihenfolge man Fragen stellt, und das ist auch typisch für Mengen von Quantendaten«, sagt Perdomo-Ortiz. Systeme für quantenmaschinelles Lernen könnten also natürliche Möglichkeiten zur Untersuchung der kognitiven Voreingenommenheit beim Menschen sein.

Neuronale Netze und Quantenprozessoren haben eines gemeinsam: Es ist verblüffend, dass sie überhaupt funktionieren. Es war keineswegs klar, dass sich ein Netz trainieren lässt – und jahrzehntelang bezweifelten viele Forscher, dass das jemals gelingen könnte. Ebenso wenig war es von vornherein klar, dass sich die Quantenphysik für Berechnungen nutzen lässt, denn die charakteristischen Effekte der Quantenphysik sind gut vor uns verborgen. Und doch funktioniert beides – nicht immer, aber häufiger, als wir erwarten durften. Deshalb erscheint es uns wahrscheinlich, dass auch die Vereinigung beider Technologien ihren Platz finden wird.

21/2018

Dieser Artikel ist enthalten in Spektrum - Die Woche, 21/2018

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnervideos