Springers Einwürfe: Mit künstlicher Intelligenz zum Atomkrieg?

In der Ära des Kalten Kriegs waren die Hauptmächte USA und UdSSR – nach einer hektischen Phase des ungezügelten Wettrüstens – darauf bedacht, ein Gleichgewicht des Schreckens zu etablieren, das auf »mutual assured destruction« beruhte. Jede Seite konnte auf den gegnerischen Erstschlag mit einem ebenso vernichtenden Zweitschlag reagieren.
Das war die Basis für Abrüstungsverhandlungen und eine 80-jährige Phase prekären atomaren Friedens. Er war freilich stets bedroht: durch einseitige Auf- und Nachrüstungsschritte sowie durch eine letztlich unbekannte Anzahl von hochriskanten Fehlalarmen.
Das Erbe dieser Epoche sind mehr als 12 000 nukleare Sprengköpfe in einer völlig veränderten Welt. Derzeit sind neun Staaten atomar bewaffnet; damit hat das spieltheoretisch überschaubare Gleichgewicht des Schreckens seine Grundlage verloren.
Nun kursiert wieder die Idee vom begrenzten Nuklearkrieg, vom möglichen Einsatz »taktischer« Atomwaffen. Seit Russland indirekt damit im Krieg gegen die Ukraine droht, wird in Europa über symmetrische Gegenmaßnahmen spekuliert. Das gemahnt an eine Episode aus der Frühzeit des Kalten Kriegs. Damals hielten führende Politiker wie Konrad Adenauer und Franz Josef Strauß die atomare Ausstattung der Bundeswehr für angesagt.
Als Adenauer taktische Nuklearwaffen eine bloße »Weiterentwicklung der Artillerie« nannte, löste dies die Erklärung der »Göttinger Achtzehn« aus. Prominente Kernforscher wie Otto Hahn und Werner Heisenberg protestierten gegen die Verniedlichung solcher Waffen: Deren Wirkung gleiche der Hiroshima-Bombe und bedeute den Beginn eines nicht begrenzbaren Atomkriegs.
Heute, in einer Ära multipolarer Unübersichtlichkeit, warnen Experten eindringlich vor der unterschätzten, aber tatsächlich gewachsenen Gefahr – so bei der Lindauer Nobelpreisträgertagung im Juli 2024. Anlässlich einer Tagung an der University of Chicago im Juli 2025 betonten die Fachleute: Zusätzlich verschärft werde das atomare Risiko durch den Einsatz künstlicher Intelligenz.
Nukleare Abschreckung funktioniert nur, solange die Kontrahenten über die Absichten und Fähigkeiten der anderen im Bild sind. Was, wenn mittels KI manipulierte Bilder und Nachrichten das tendenziell unmöglich machen? Als im Mai 2025 zwischen den Atommächten Indien und Pakistan ein bewaffneter Konflikt ausbrach, wurden die Medien beider Seiten sofort mit Fakenews geflutet, mit gefälschten Bildern von fremden Gräueln und eigenen Triumphen. Nur weil es unter dem äußeren Druck der USA zum Waffenstillstand kam, war der blutige Spuk nach vier Tagen vorbei.
An sich ist das mediale Anheizen von Konflikten nichts Neues. In allen Kriegen wird der Feind als Unmensch dargestellt, gegen den fast jedes Mittel recht ist, während die eigene Seite ewige Werte verteidigt. Die KI droht allerdings die Waffen der Desinformation zu perfektionieren und damit Konflikte zu eskalieren – eventuell bis hin zur Androhung nuklearer Schläge.
Noch gefährlicher ist die neuartige Versuchung, militärisches Handeln komplett an Maschinen zu delegieren. Gerade beim Einsatz von taktischen Nuklearwaffen käme alles darauf an, die Lage blitzschnell zu analysieren und dem Feind zuvorzukommen – in der Hoffnung, mit einem überraschenden Erstschlag die gegnerische Zweitschlagskapazität möglichst gründlich zu schwächen.
Wenn Sekundenbruchteile über Sieg oder Niederlage entscheiden, ist es verführerisch, den Einsatz von Kernwaffen an lernfähige Maschinen zu übertragen. Man sollte nur nicht vergessen, dass die KI bei unübersichtlichen Aufgaben zum Halluzinieren neigt – zu vorschnellen, falschen und in diesem Fall beispiellos folgenreichen Entscheidungen.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.