Direkt zum Inhalt

Die neue KI-Ära: »Wir können nur erahnen, was genau vor sich geht«

Statt von menschlichen Texten lernt KI inzwischen von KI-generierten Daten. Der Informatiker Sanjeev Arora erklärt, weshalb das für einen Durchbruch sorgt – und warum Mathematik eine Schlüsselrolle spielt.
Eine 3D-Darstellung zeigt eine große, futuristische Roboterhand, die in den Himmel ragt. Auf dem Zeigefinger steht eine kleine menschliche Figur, die in Richtung schwebender, halbtransparenter Benutzeroberflächen blickt. Diese Oberflächen sind in Pastelltönen gehalten und scheinen digitale Menüs oder Bildschirme darzustellen. Die Szene vermittelt ein Gefühl von Technologie und Mensch-Maschine-Interaktion.
Menschen spielen bei der Entwicklung von Sprachmodellen eine immer kleinere Rolle.

In der öffentlichen Wahrnehmung machte künstliche Intelligenz einen Sprung nach vorn, als große Sprachmodelle wie ChatGPT begannen, flüssig zu sprechen. Doch laut Fachleuten wie Sanjeev Arora von der Princeton University, einem führenden Theoretiker im Bereich des maschinellen Lernens, kam der eigentliche Wendepunkt erst später – und viel leiser. Zwischen 2023 und 2024 hat sich etwas Grundlegendes in der Art und Weise verändert, wie KI-Systeme trainiert werden, mit bis heute anhaltenden Folgen.

Herr Arora, wie haben sich Sprachmodelle seit dem Erscheinen von ChatGPT verändert – und was hat zum Durchbruch geführt?

Am Anfang waren Sprachmodelle genau das, was ihr Name aussagt: Modelle der Sprache. Sie entstanden aus der Verarbeitung natürlicher Sprache. Aber dann begannen sie, sich in etwas anderes zu verwandeln – KI-Systeme, die Aufgaben für Menschen erledigen sollten. An diesem Punkt wurden sie zu Produkten. Zu kommerziellen Angeboten.

Plötzlich ging es beim Training nicht mehr nur um die Modellierung von Text, sondern um die Optimierung von Fähigkeiten. Unternehmen begannen, miteinander zu konkurrieren – in Bezug auf Benchmarks, Funktionen und Nützlichkeit. Dieser Wettbewerbsdruck veränderte die Art und Weise, wie diese Systeme trainiert werden.

»Was ein Modell heute produziert, steht nicht mehr in direktem Zusammenhang mit extern bereitgestellten Daten«

Wie änderte sich das Training konkret?

Die Modelle werden nicht mehr nur mit statischen, von Menschen erzeugten Daten trainiert, sondern zunehmend mit synthetischen Daten, die von diesen oder anderen KI-Systemen generiert wurden. Außerdem gewinnt das verstärkende Lernen immer mehr an Bedeutung, was man auch als eine Form des Trainings mit Daten betrachten kann, die das Modell selbst erstellt.

Das verändert die Beziehung zwischen Daten und Fähigkeiten. Im Jahr 2021 bezeichneten die Menschen Sprachmodelle noch als »stochastische Papageien«. Sie versuchten, jede Ausgabe auf einen Teil des Trainingssatzes zurückzuführen. Das funktioniert nun nicht mehr. Was ein Modell heute produziert, steht nicht mehr in direktem Zusammenhang mit extern bereitgestellten Daten. Es kann aus den selbst generierten Daten oder dem Denkprozess des Modells hervorgehen. 

Sanjeev Arora | Der indisch-US-amerikanische theoretische Informatiker ist unter anderem für das PCP-Theorem über zufällig verifizierbare Beweise bekannt, das er 1990 in seiner Doktorarbeit veröffentlichte.

Aber synthetische Daten haben ihren Ursprung letztendlich in menschlichen Daten, oder?

Das ist eine vereinfachte Sichtweise. Daten werden zu Fähigkeiten, und sobald man über diese Fähigkeiten verfügt, sind die Ergebnisse des Modells nicht mehr nur schlichte Kombinationen der ursprünglichen Eingaben. Eine eingängige Analogie ist, dass die Gedanken einer Person neu sind und nicht nur einfache Kombinationen von Dingen, die sie gelesen oder gehört hat. Stellen Sie sich das so vor: Anstatt Wikipedia auswendig zu lernen, kann das Modell effektiv eine Wikipedia für alles erstellen. Wikipedia selbst ist winzig – vielleicht zehn Milliarden Wörter – im Vergleich zu dem, womit moderne Modelle trainiert werden. Mit synthetischen Daten kann das Modell weit darüber hinausgehen und Strukturen und Erkenntnisse aus dem gesamten Trainingsprozess zusammenführen.

Wie sehen diese synthetischen Daten aus?

Das ist schwer zu beantworten, da sie nicht öffentlich zugänglich sind. Das ist alles geheim. Es gibt einige Open-Source-Projekte, aber große Unternehmen veröffentlichen ihre Daten nicht. Und auch chinesische Unternehmen veröffentlichen zwar Modelle, aber keine Datensätze. Wir können also nur erahnen, was genau vor sich geht. Ich denke, dass synthetische Daten von realen Daten als Inspiration ausgehen und diese dann erweitern – sie vollständiger, systematischer und gründlicher machen.

Aber birgt das nicht die Gefahr, dass die Daten Fehler durch Halluzinationen enthalten?

Ja, das macht es so schwierig. Man kann synthetische Daten nicht einfach naiv generieren und erwarten, dass sie funktionieren. Dennoch erzielen Unternehmen auf diese Weise eindeutig bessere Ergebnisse. OpenAI hat ausdrücklich erklärt, dass die aktuellen Modelle stark auf synthetischen Daten basieren.

Sie haben argumentiert, dass KI wahrscheinlich vor anderen Wissenschaften in der Mathematik übermenschliche Fähigkeiten erreichen wird. Warum gerade dort?

Weil das Fach einen Wahrheitsstandard hat. Wir haben formale Verifizierung und Beweisprüfer. Wenn etwas richtig ist, können wir das mit Sicherheit sagen. Andere Wissenschaften verfügen nicht in gleichem Maße über solche Werkzeuge. Das macht Mathematik für den Fortschritt der KI besonders geeignet. Sobald Modelle zuverlässig Beweise generieren und verifizieren können, lässt sich die Verbesserung viel leichter messen – und automatisieren.

Dennoch nutzen die meisten Mathematiker in ihrer täglichen Arbeit keine KI. Wird sich das ändern?

Ja, aber nur, wenn KI für sie wirklich nützlich wird. Die Akzeptanz folgt immer der Nützlichkeit. Derzeit ist KI für die professionelle Mathematik nicht sehr hilfreich, daher ist die Skepsis natürlich.

Einige Bereiche – Algebra, Zahlentheorie – scheinen in dem Aspekt schneller voranzukommen als andere. Das könnte daran liegen, dass dort systematischere Daten vorhanden sind. Man beginnt mit der Algebra aus der Schule und baut diese schrittweise auf. In abstrakteren Bereichen wie der Topologie springt man hingegen fast sofort zu Material auf Doktorandenniveau. Es gibt weniger Daten, und diese sind komplexer. Das erschwert das Lernen für KI.

Was sind die größten Hürden, die überwunden werden müssen, um KI für die mathematische Forschung wirklich hilfreich zu machen?

Das Hauptproblem ist, dass es in der Mathematik – wie in jedem wissenschaftlichen Bereich – einfach nicht so viele Daten gibt. Selbst wenn man alle jemals geschriebenen Lehrbücher und Artikel zusammenzählt, ist die Datenmenge im Vergleich zu den Sprachmodellen immer noch gering.

Die Lösung besteht daher im Selbstspiel: Das KI-Modell muss mit dem arbeiten, was es bereits weiß. Es erstellt seine eigenen Fragen, versucht, sie zu beantworten, kritisiert sich selbst und wiederholt den Vorgang. Aber es gibt einen Haken. Ein einzelnes Modell kann seine eigenen Antworten nicht zuverlässig selbst bewerten, es ist voreingenommen. Sobald es eine Antwort produziert hat, neigt es dazu, diese zu verteidigen – genau wie Menschen.

Wie kann man das Problem umgehen?

Indem man unabhängige Kopien desselben Modells verwendet. Eine generiert eine Lösung, eine andere fungiert als strenger Prüfer. Gibt man dem Prüfer mehr Rechenleistung, mehr Zeit und mehr Versuche, kann er schwierigere Fragen stellen und sie bewerten – auch wenn er prinzipiell der Zwilling des Modells ist.

Nehmen wir das Beispiel der Mathematik-Olympiade-Aufgaben. Wenn man ein Modell einfach auffordert, eine Aufgabe zu lösen und sich dann selbst zu bewerten, scheitert es. Wenn man jedoch ein strukturiertes Protokoll mit unabhängigen Bewertern und vielen Aufrufen einrichtet, verbessert sich die Leistung dramatisch.

»Zum Lernen braucht man keinen perfekten Lehrer«

Ich hätte erwartet, dass Beweisprüfer diese Rolle übernehmen. Denn anders als KI folgen diese Algorithmen festen Regeln. 

Ja, formale Beweisprüfer werden in einigen Projekten verwendet, darunter im Gödel-Prover-Projekt in Princeton. Aber möglicherweise benötigt man sie gar nicht.

Zum Lernen braucht man keinen perfekten Lehrer. Als Sie in der Schule Mathematik gelernt haben, war Ihr Lehrer kein Mathematikgenie – nur jemand, der Ihnen voraus war. Und das war genug. In ähnlicher Weise kann ein Modell auf einem etwas höheren effektiven Niveau – weil es über mehr Rechenleistung oder eine andere Rolle verfügt – dennoch wertvolles Feedback liefern. Beweisprüfer sind für die absolute Wahrheit von entscheidender Bedeutung, aber auch ohne sie sind Verbesserungen möglich.

Was steht einer übermenschlichen Mathematik-KI im Weg?

Übermenschliche Mathematik erfordert definitionsgemäß Selbstverbesserung. Dafür braucht man Ressourcen und Motivation. Aber große Unternehmen haben wenig Anreiz, KI tief in die Forschungsmathematik voranzutreiben. Es handelt sich immer noch um ein Nischengebiet.

Kleinere, fokussierte Teams können jedoch erstaunliche Fortschritte erzielen. Ein Start-up hat den Beweis des Primzahlsatzes formalisiert, um ihn mit Lean Proof Assistant in nur wenigen Wochen überprüfbar zu machen – eine Aufgabe, von der man zuvor annahm, dass sie Jahre dauern würde. Sie erstellten rund 25 000 Zeilen formalen Codes. Dies zeigt, was möglich ist, wenn die Motivation vorhanden ist. 

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.