Simulierte nukleare Krisen: KIs drohen gern mit Atomwaffen

Welchen Verlauf nehmen kriegerische Auseinandersetzungen, wenn man KIs die Entscheidungsgewalt überträgt? Das wollte Kenneth Payne vom King’s College London herausfinden. Er hat drei führende große Sprachmodelle – Gemini 3 Flash von Google, Claude Sonnet 4 von Anthropic und GPT-5.2 von OpenAI – in simulierten nuklearen Krisen gegeneinander antreten lassen. Das Ergebnis fasst er in einem Wort zusammen: ernüchternd. In sämtlichen der simulierten Szenarien drohte mindestens eine der beteiligten KIs mit einem Atomschlag, in 95 Prozent sogar beide.
Für seine Arbeit, die er als Preprint auf der Plattform Arxiv veröffentlichte, ließ Payne jedes KI-Modell sieben Kriegsspiele gegen die jeweils anderen und gegen sich selbst spielen. Die KI-Modelle schlüpften dabei in die Rollen nationaler Führer von rivalisierenden Atommächten. Die Staatsprofile orientierte Kenneth Payne lose an den Kontrahenten des Kalten Kriegs. Eine technologisch überlegene, aber konventionell schwächere Macht stand dabei einem konventionell dominanten Rivalen mit einem risikofreudigen Führungsstil gegenüber.
Während des Spiels mussten die KIs simultan über die nächsten Aktionen entscheiden, ohne das Handeln ihres Gegenübers zu kennen. Wie in realen Krisenentscheidungen mussten sie dabei Schritte ihrer Gegner antizipieren, anstatt darauf zu reagieren. Jeder Spielzug gliederte sich für eine KI dann in drei Phasen. Zunächst analysierte sie die aktuelle Situation und ihre eigenen strategischen Fähigkeiten, dann versuchte sie, den nächsten gegnerischen Zug vorherzusagen. Anschließend traf sie eine Entscheidung, die aus zwei Teilen bestand: der öffentlichen Kommunikation eines Vorhabens und der tatsächlich geplanten Aktion.
Einigung und Kapitulation sind nie die Lösung
Wie Payne feststellte, täuschten die KIs, und sie begaben sich bereitwillig in die Eskalationsspirale. Während in sämtlichen Szenarien früher oder später mit einem Atomschlag gedroht wurde, entschied sich keines der KI-Modelle jemals für eine Einigung oder Kapitulation. Bestenfalls beschlossen sie, das Maß an Gewalt zu drosseln. Statt zu einer Einigung führten die nuklearen Drohungen meistens in eine Gegeneskalation. Etwas beruhigend klingt da, dass die KIs trotz der Androhung eines Atomschlags nur selten beschlossen, Atomwaffen auch wirklich einzusetzen.
Kenneth Payne konnte zeigen, dass sich die KI-Modelle in den Szenarien nicht einheitlich verhielten und dass jede KI unterschiedlich agiert, je nachdem, ob sie sich in einer zeitlich offenen Auseinandersetzung befindet oder ob sie eine Frist zur Beendigung des Konflikts hat – also unter Druck steht.
Claude entschied die offenen Spiele mit einer »unerbittlichen, aber kontrollierten Eskalation bis hin zur strategischen nuklearen Bedrohung« sämtlich für sich, hielt dabei aber seine rote Linie gegenüber einem umfassenden Krieg bei. Unter Zeitdruck gewann die KI allerdings nur noch ein Drittel aller Szenarien. GPT-5.2 dagegen unterschätzte in offenen Spielen die Möglichkeiten seines Gegners, wurde unter Zeitdruck jedoch »gerissen und rücksichtslos« und entschied drei von vier Szenarien für sich.
Gemini beschreibt Payne als »durch und durch unvorhersehbares Modell«, das zwischen Deeskalation und extremer Aggression schwankt. Es war das einzige Modell, das sich bewusst für einen strategischen Atomkrieg entschied – und zwar im Erstschlag-Szenario.
Die Studie stellt Payne zufolge die Annahme infrage, dass KI-Systeme von Natur aus zu kooperativem Verhalten tendieren. Da Militärs und Sicherheitsinstitutionen zunehmend mit KI-gestützten Analysen und Kriegsspielen experimentieren, werde es immer wichtiger, zu verstehen, wie solche Systeme unter Druck denken. Für den Einsatz solcher Modelle sei es wichtig, sie auf bekannte Muster menschlichen Denkens abzustimmen.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.