Direkt zum Inhalt

Simulierte nukleare Krisen: KIs drohen gern mit Atomwaffen

Rivalisierende Atommächte sollten ihr Kommando besser nicht an eine KI übertragen. Eine Simulation zeigt: Das Vorgehen von Claude, GPT und Gemini reicht von »unerbittlich, aber kontrolliert« bis hin zu »durchweg unvorhersehbar«.
Eine große Explosion einer Atombome erzeugt einen charakteristischen Pilzwolken-Effekt über einer Landschaft. Der Himmel ist dunkel, während die Wolke in der Mitte hell erleuchtet ist, was auf die Intensität der Explosion hinweist. Die Umgebung ist flach und spiegelt das Licht der Explosion wider.
Test einer Atombombe auf dem Mururoa-Atoll in Französisch-Polynesien im Jahr 1971.

Welchen Verlauf nehmen kriegerische Auseinandersetzungen, wenn man KIs die Entscheidungsgewalt überträgt? Das wollte Kenneth Payne vom King’s College London herausfinden. Er hat drei führende große Sprachmodelle – Gemini 3 Flash von Google, Claude Sonnet 4 von Anthropic und GPT-5.2 von OpenAI – in simulierten nuklearen Krisen gegeneinander antreten lassen. Das Ergebnis fasst er in einem Wort zusammen: ernüchternd. In sämtlichen der simulierten Szenarien drohte mindestens eine der beteiligten KIs mit einem Atomschlag, in 95 Prozent sogar beide.

Für seine Arbeit, die er als Preprint auf der Plattform Arxiv veröffentlichte, ließ Payne jedes KI-Modell sieben Kriegsspiele gegen die jeweils anderen und gegen sich selbst spielen. Die KI-Modelle schlüpften dabei in die Rollen nationaler Führer von rivalisierenden Atommächten. Die Staatsprofile orientierte Kenneth Payne lose an den Kontrahenten des Kalten Kriegs. Eine technologisch überlegene, aber konventionell schwächere Macht stand dabei einem konventionell dominanten Rivalen mit einem risikofreudigen Führungsstil gegenüber.

Während des Spiels mussten die KIs simultan über die nächsten Aktionen entscheiden, ohne das Handeln ihres Gegenübers zu kennen. Wie in realen Krisenentscheidungen mussten sie dabei Schritte ihrer Gegner antizipieren, anstatt darauf zu reagieren. Jeder Spielzug gliederte sich für eine KI dann in drei Phasen. Zunächst analysierte sie die aktuelle Situation und ihre eigenen strategischen Fähigkeiten, dann versuchte sie, den nächsten gegnerischen Zug vorherzusagen. Anschließend traf sie eine Entscheidung, die aus zwei Teilen bestand: der öffentlichen Kommunikation eines Vorhabens und der tatsächlich geplanten Aktion.

Einigung und Kapitulation sind nie die Lösung

Wie Payne feststellte, täuschten die KIs, und sie begaben sich bereitwillig in die Eskalationsspirale. Während in sämtlichen Szenarien früher oder später mit einem Atomschlag gedroht wurde, entschied sich keines der KI-Modelle jemals für eine Einigung oder Kapitulation. Bestenfalls beschlossen sie, das Maß an Gewalt zu drosseln. Statt zu einer Einigung führten die nuklearen Drohungen meistens in eine Gegeneskalation. Etwas beruhigend klingt da, dass die KIs trotz der Androhung eines Atomschlags nur selten beschlossen, Atomwaffen auch wirklich einzusetzen.

Kenneth Payne konnte zeigen, dass sich die KI-Modelle in den Szenarien nicht einheitlich verhielten und dass jede KI unterschiedlich agiert, je nachdem, ob sie sich in einer zeitlich offenen Auseinandersetzung befindet oder ob sie eine Frist zur Beendigung des Konflikts hat – also unter Druck steht.

Claude entschied die offenen Spiele mit einer »unerbittlichen, aber kontrollierten Eskalation bis hin zur strategischen nuklearen Bedrohung« sämtlich für sich, hielt dabei aber seine rote Linie gegenüber einem umfassenden Krieg bei. Unter Zeitdruck gewann die KI allerdings nur noch ein Drittel aller Szenarien. GPT-5.2 dagegen unterschätzte in offenen Spielen die Möglichkeiten seines Gegners, wurde unter Zeitdruck jedoch »gerissen und rücksichtslos« und entschied drei von vier Szenarien für sich.

Gemini beschreibt Payne als »durch und durch unvorhersehbares Modell«, das zwischen Deeskalation und extremer Aggression schwankt. Es war das einzige Modell, das sich bewusst für einen strategischen Atomkrieg entschied – und zwar im Erstschlag-Szenario.

Die Studie stellt Payne zufolge die Annahme infrage, dass KI-Systeme von Natur aus zu kooperativem Verhalten tendieren. Da Militärs und Sicherheitsinstitutionen zunehmend mit KI-gestützten Analysen und Kriegsspielen experimentieren, werde es immer wichtiger, zu verstehen, wie solche Systeme unter Druck denken. Für den Einsatz solcher Modelle sei es wichtig, sie auf bekannte Muster menschlichen Denkens abzustimmen.

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

  • Quellen
Payne, K., arXiv 10.48550/arXiv.2602.14740, 2026

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.