Direkt zum Inhalt

Autonome Waffen: Das fünfte Gebot im KI-Krieg

In den Kriegen der Zukunft dürften Maschinen entscheiden, welche Menschen sie töten. Unsere Zivilgesellschaft will die Entwicklung aufhalten. Kann sie es überhaupt? Ein Kommentar von Yvonne Hofstetter, Wolfgang Koch, Friedrich Graf von Westphalen.
Künstliche IntelligenzLaden...

Krieg ist die Fortsetzung der Politik mit anderen Mitteln, erklärte der Militärtheoretiker Carl von Clausewitz schon 1812: ein Akt militärischer Gewalt, »um den Gegner zur Erfüllung unseres Willens zu zwingen«, wo politische Überzeugungskraft nicht mehr wirkt. Krieg ist der Ausnahmezustand, wo kein Frieden herrscht. Oder, kurz und düster mit dem Militärhistoriker Martin van Creveld: »War is killing«.

Deshalb ist Krieg von der Völkergemeinschaft offiziell geächtet – und war das auch bereits nach 1928 durch den Briand-Kellogg-Pakt. Diese frühe Erklärung blieb, wie wir heute wissen, folgenlos. Nach dem Zweiten Weltkrieg machten die Vereinten Nationen dennoch rasch einen neuen Anlauf. Seitdem gilt das Gewaltverbot; für den Fall interstaatlicher Konflikte hat allein der UN-Sicherheitsrat das Machtmonopol inne. Allein die Verteidigung gegen einen bewaffneten Angriff rechtfertigt den Einsatz militärischer Gewalt: Angriffskriege sind nie erlaubt, Verteidigungskriege schon, sofern sie den Forderungen des Völkerrechts entsprechen und nur mit erlaubten Mitteln geführt werden.

Wer auf die letzten Jahre zurückblickt, dem kommen allerdings Zweifel an der Durchsetzungsfähigkeit solcher Vereinbarungen. Lässt sich Krieg einfach wegregulieren? Es stellt sich zudem die Frage, ob das Regelwerk nicht ohnehin obsolet ist: Ausdrücklich nicht erfasst sind etwa Kriegsakte gegen nichtstaatliche Akteure wie Terroristen – und auch nicht innerstaatlich geführte Kriege mit dennoch internationaler, grenzüberschreitender Bedeutung wie der Syrienkrieg. Wie könnten kriegerische Auseinandersetzungen von der Weltgemeinschaft gestoppt oder eingehegt werden? Wo soll überhaupt eine Grenze liegen, die wir nie überschritten sehen möchten?

»Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten«(Koalitionsvertrag von CDU, CSU und SPD 2018)

Die Diskussion dieser Fragen ist nicht akademisch, sondern wird intensiv und unter dem Druck bitterer Realität geführt: auf Abrüstungsforen, UN-Panels und im Koalitionsvertrag der Bundesregierung, unter Völkerrechtlern, Militärs, Sicherheitsforschern – und Technologen wie KI-Forschern. Von Letzteren wird erwartet, dass sie auch an neuer Kriegstechnologie arbeiten.

So lassen die Mutation der Kriege und der technische Fortschritt nach den heute schon bei der Flugabwehr verbreiteten »autonomen Waffensystemen« (AWS) nun die »letalen autonomen Waffensysteme« (LAWS) heranreifen. »War is killing« – auch wenn es eine Maschine ist, die entscheidet, ob ein Mensch getötet werden soll. Dafür und im Dilemma globaler Sicherheitsrisiken und staatlicher Schutzpflicht für Demokratie und Menschenrechte fordern KI-Forscher Regeln und Standards.

Waffen mit Urteilsvermögen

Diese Entwicklung war abzusehen, denn es gab noch nie eine neue Waffentechnologie, die im Ernstfall weniger statt mehr Menschenleben gefordert hätte als in den Kriegen früherer Generationen. In Zukunft, so spekuliert die NATO-Denkfabrik GLOBSEC, werden »Hyperkriege« ausgefochten: Kämpfe, in denen künstliche Intelligenz schlachtentscheidend ist; automatische oder autonome Systeme mit der Fähigkeit eigener Wahrnehmung, Erkenntnis und Selbstorganisation. Anders als bei der Utopie vom »Schlachtfeld ohne Krieger« wäre der Mensch dann aber gerade nicht vollständig durch Maschinen ersetzt – er würde durch die präzise, effiziente und emotionslose Waffenwirkung »kognitiver Waffensysteme« sterben.

»Die Weltlage ist heute so gefährlich wie seit dem Zerfall der Sowjetunion nicht mehr«(Wolfgang Ischinger)

Einige Nationen verfügen schon heute über (teil-)autonome kognitive Waffensysteme. Russland hat eine Roboterarmee aufgebaut und stellt sich vor, dass sie auf dem Schlachtfeld neben den Soldaten künftig vollautonom operieren wird. Die USA arbeiten an Systemen, die die Kampfkraft der menschlichen Soldaten – die Letalität, wie die Militärs es nennen – steigern sollen. China geht noch weiter und strebt die »Singularität« auf dem Schlachtfeld an: die, wie die Militäranalystin und Sicherheitsberaterin Elsa B. Kania beschreibt, »Überlegenheit kognitiver Maschinen, gegenüber dem Menschen Zwang auszuüben«.

Europa, laut Ex-Außenminister Sigmar Gabriel der »Vegetarier unter den Fleischfressern«, hält stattdessen am Frieden als Wert fest: In Europa soll die Künstliche-Intelligenz-Forschung rein auf höhere Wettbewerbsfähigkeit im globalen Welthandel abzielen. Immerhin: Wer kauft, argumentiert schon Immanuel Kant, schießt nicht. Über die geostrategische Bedeutung neuer Technologien, besonders der künstlichen Intelligenz, wird höchstens im Stillen nachgedacht, öffentlich zur Sprache kommt sie nicht. Gerade Deutschland wünscht sich, militärisch genutzte künstliche Intelligenz möge sich auf ein bloßes Nebenprodukt der Forschungsaktivitäten von Wissenschaft und Wirtschaft reduzieren lassen. Wünsche allein werden allerdings nicht weiterhelfen, wo globale rechtliche Rahmenbedingungen fehlen.

Die Hilflosigkeit des Rechts

Tatsächlich ist fraglich, ob das Recht ein scharfes Werkzeug gegenüber den Vorstellungen der Militärmächte ist. Recht ist stets eine lückenhafte Lex imperfecta. Das gilt gerade auch im Fall des Völkerrechts, das sich für kognitive Waffensysteme zwar für zuständig erklärt, aber auch hier keine Regelung bereithält.

Immerhin dürfen Staaten ja schon nach geltendem Völkerrecht nicht einfach »mal so« neue Waffensysteme bauen. Artikel 36 des Zusatzprotokolls vom 8. Juni 1977 zu den Genfer Abkommen vom 12. August 1949 über den Schutz der Opfer internationaler bewaffneter Konflikte antizipiert bereits die Entstehung neuer Waffensysteme, weil es Staaten auffordert zu prüfen, ob eine neue Waffe oder Methode nicht a priori als verboten gelten muss. Das setzt voraus, dass die Staaten die Menschenrechte achten. Sie sollen, so der Leitgedanke, schon bei der Entstehung neuer Waffensysteme zu erkennen geben, dass ihnen die Würde der Menschen anderer Nationalität genauso wichtig ist wie die Würde der eigenen Staatsbürger.

»Being killed by a machine is the ultimate human indignity«(Robert H. Latiff)

Der pensionierte Generalmajor Robert H. Latiff – als US-Amerikaner stets im Dilemma zwischen globaler Technologieführerschaft auch bei modernsten Waffensystemen und dem Anspruch, die Menschenrechte als die Grundlage des Staatswesens der Vereinigten Staaten schlechthin zu verteidigen – hat diese Achtung der Würde so zum Ausdruck gebracht: »Being killed by a machine is the ultimate human indignity« (von einer Maschine getötet zu werden, ist ein Akt höchster Unwürdigkeit). Die Letztverantwortung für eine Tötung solle also stets ein Mensch übernehmen.

Dafür, so einige Völkerrechtler, spricht im geltenden Völkerrecht allerdings rein gar nichts: Es enthält, so etwa der Vorsitzende des Programms Sicherheit und Recht bei der Stiftung »Genfer Zentrum für Sicherheitspolitik«, Tobias Vestner, nicht einmal den Geist des Gedankens daran, nur ein Mensch könne einen anderen Menschen töten. Vielmehr haben ja schon heute Menschen nach dem Auslösen eines Waffensystems, etwa Raketen oder Atombomben, oft keinen Zugriff mehr auf die Folgen.

Gescheiterte Abrüstungsverhandlungen in Genf

Der richtige Ort für die Verhandlung einer völkerrechtlichen Ächtung ist das internationale Genf. Die Stadt ist Gastgeberin völkerumfassender Organisationen, darunter auch der Ständigen Abrüstungskonferenz. Hier hat man zunächst bis August 2018 über die Ächtung der LAWS, also von letalen autonomen Waffensystemen verhandelt – allerdings keinesfalls mit dem von der Zivilgesellschaft erhofften Erfolg, denn zu einer Ächtung kam es nicht. Der Grund: Haarspalterei. Die Staaten konnten nicht auf eine Abgrenzung von »automatisch« zu »autonom« einigen.

Zur Diskussion gibt es auch eine Haltung der deutschen Bundesregierung: Man kann nicht verbieten, was es nicht gibt. Und LAWS gibt es nicht, wird es nicht geben und darf es nicht geben: Schließlich ist ihre »kill chain« menschlicher Kontrolle vollkommen entzogen – also alles von der Auswahl des Angriffszieles, seiner Lokalisierung, Identifizierung, Überwachung und Verfolgung, der Priorisierung von Zielen und der Anpassung des Wirksystems bis hin zur »Neutralisierung« der Ziele und allen Aufgaben und Aktionen, die auf eine solche Operation folgen. Vorerst gingen die Verhandlungen über die LAWS deshalb ohne Abschlusspapier zu Ende.

Die deutsche Haltung mag auch politisch-taktischen Überlegungen entspringen, realistisch ist sie nicht. Zudem: Mit der Verengung des Debattenraums durch ein »LAWS existieren nicht und werden niemals existieren« raubt man Deutschlands Bürgern das Recht, die Waffenentwicklung mit einer demokratischen Debatte zu begleiten und realistische Bedrohungsszenarien zu analysieren. Man macht sie gewissermaßen sprachlos. Doch auf dem Niveau der Sprachlosigkeit kann man nicht mehr diskutieren. Besser, es mit Winston Churchill zu halten: »›Everything I was sure or I was taught to be sure was impossible, has happened‹ – alles, von dem ich sicher überzeugt war, es würde unmöglich eintreten, ist geschehen«, und auch das vermeintlich Unmögliche zu debattieren und einen Umgang damit zu finden.

Die Verantwortung des einzelnen Wissenschaftlers

Wo es nicht gelingt, Verantwortung an Institutionen und Organisationen, an das Recht oder die Politik zu delegieren, da bleibt Verantwortung, was sie schon immer war: Angelegenheit jedes Einzelnen, des einzelnen Industriemanagers, des einzelnen Wissenschaftlers, eben der Person. Die Frage lautet dann neu: Wie weit darf diese Person, wie weit darf also ich gehen, wenn ich kognitive Maschinen – vom selbstfahrenden Auto bis zur selbstständigen Waffe – baue?

Diese Frage ist pauschal leicht gestellt und im Einzelnen schwer zu beantworten. Denn die Entwicklung kognitiver Waffensysteme wirft ethische und rechtliche Probleme auf, mit denen Wissenschaftler, die an neuen Technologien forschen, allein überfordert sein dürften. Sie könnten zwar den Versuch wagen, mögliche Antworten in der Beschreibungssprache der Mathematik zu formulieren und sowohl Völkerrecht als auch ethische Prinzipien als »Ethics by Design« in Programmiercode zu zwängen – vorher aber müssen Ethikberater und Juristen zu Papier gebracht haben, was rechtlichem und nationalem Ethos entspricht. Demnach sollte zumindest zur Minimalforderung werden, Ethiker und Juristen von Anfang an und als dauerhafte Begleiter dort einzubeziehen, wo kognitive Waffensysteme entwickelt werden sollen und sie in die Schranken des Rechts und des gesellschaftlichen Ethos zu verweisen.

Ermutigend könnte wirken, dass diese Forderung durchaus reale Früchte zu tragen scheint. In Europa kann man das zum Beispiel an Rüstungsprojekten wie dem »Future Combat Air System (FCAS)« erkennen: einem Luftkampfsystem der Zukunft, für das die deutschen und französischen Verteidigungsministerien Anfang 2019 eine Konzeptstudie bei den Firmen Airbus Defense and Space und Dassault Aviation beauftragt haben (siehe Infokasten). Dazu heißt es, »Vertreterinnen und Vertreter aus unterschiedlichen Bereichen der Gesellschaft [werden] die technologische Entwicklung von FCAS aus unter anderem ethischen und völkerrechtlichen Blickwinkeln begleiten«.

FCAS, die Luftverteidigung der Zukunft

Die Technologien des 21. Jahrhunderts haben nicht nur bahnbrechende Veränderungen der Wirtschaft, sondern auch unserer privaten Lebensgewohnheiten bewirkt. Doch längst erneuern sie auch den Sicherheits- und Verteidigungsbereich und stellen sowohl Staaten als auch ihre Zivilbevölkerungen vor ganz neue Herausforderungen. Irgendwo zwischen militärischen Mikrodrohnen, Quantenkommunikation, hypersonischen Waffensystemen, die so schnell sind, dass sie ihr Ziel in weniger als zehn Minuten erreichen können, findet sich künstliche Intelligenz wieder, in unbemannten Panzern oder Schwärmen kognitiver Maschinen, die künftig den Luftraum verteidigen sollen. Die Konflikte der Zukunft werden höher automatisiert geführt als je zuvor.

Mit ihrer Unterschrift am 6. Februar 2019 haben die Verteidigungsministerien Frankreichs und Deutschlands den Startschuss für die gemeinsame Studie eines Future Combat Air System (FCAS) gegeben. Ein bemannter Kampfjet neuester Generation wird von loyalen Flügelmännern begleitet, die nicht mehr bemannt sind: von Drohnen. Gemeinsam bilden sie einen Schwarm, eine Hybride aus Mensch und autonomen Luftfahrzeugen. Bei Angriffen gegen den bemannten Kampfjet schützen die Drohnen den menschlichen Piloten und lenken von ihm ab. Doch auch andere Systeme sollen über FCAS vernetzt werden: der Eurofighter, der A400M und Lenkflugkörper. FCAS gilt als das ambitionierteste Verteidigungsprojekt Europas und als Meilenstein für die Entwicklung von Hochtechnologie in Europa.

Wolfgang Koch

Und selbst das amerikanische Verteidigungsministerium hat den Schuss gehört und arbeitet offen an ethischen Grundsätzen der Verteidigung in digitalen Zeiten. Nicht ganz uneigennützig: Das Verteidigungsministerium weiß, es ist auf die Hilfe privater Technologiegiganten, namentlich aus dem Silicon Valley, angewiesen. Dort will aber niemand Steigbügelhalter der Verteidigung sein, und Wissenschaftler distanzieren sich in offenen Briefen ganz unverhohlen vom Einsatz smarter Technologien in modernen Waffensystemen. Wenn sie die Grenzen kognitiver Waffensysteme klar abstecken, glauben die Verteidigungsministerien, lässt sich vielleicht doch der eine oder andere zur Zusammenarbeit bewegen.

Dringender Bedarf an Abrüstungsverhandlungen

Die Frage bleibt, ob diese Ansätze ausreichen. Vielleicht helfen sie dabei, dass künstliche Intelligenz, ein hoher Grad an Automation oder Autonomie in kognitiven Waffensystemen nur dort zum Einsatz kommen, wo sie sinnvoll, angebracht und rechtlich wie ethisch vertretbar sind. Wie auf dem Gefechtsfeld der Zukunft gekämpft werden wird, kann aber sicher nicht allein der Verantwortung, dem guten Willen oder der Herzensbildung von Programmierern, Forschern und Managern überlassen bleiben.

Überhaupt haben ja andere Nationen – namentlich jene, für die Menschenrechte nicht denselben Stellenwert haben wie für demokratisch verfasste Staaten – weniger Bedenken, mit kognitiven Waffensystemen aufzurüsten. Auch die Politik muss also alles dafür geben, die Grenzen kognitiver Waffensysteme völkerrechtlich verbindlich festzulegen. Ethikkommissionen sind dabei kein Ersatz für demokratisches Handeln der Gesellschaft. Sie dürfen von Berufspolitikern auch nicht dazu missbraucht werden, notwendige demokratische Debatten ins Hinterzimmer zu verlegen.

Der Politiker hat von uns als Souverän in Wahlen Vollmacht und Auftrag erhalten, die Gesellschaft durch hoheitliches gesetztes Recht zu gestalten. Die schärfste Waffe der Demokratie ist die Gesetzgebung. Deshalb kann die Zivilgesellschaft nicht anders, als ihre Regierungen aufzufordern, weltweit verbindliche Standards für kognitive Waffensysteme aufzustellen und die entsprechenden völkerrechtlichen Vereinbarungen zu treffen. Abrüstungsverhandlungen müssen intensiver, über einen längeren Zeitraum und mit mehr gutem Willen geführt werden. Schon heute ist dafür kaum mehr Zeit. Doch keiner von uns will erleben, ja sich nicht einmal ausmalen, wie es sein könnte, müssten wir die Erde schon bald mit kognitiven Waffensystemen teilen.

Wie die Verteidigungsindustrie Gewohnheitsrecht schafft

Da das geltende Völkerrecht – gerade im Blick auf die ungeahnten und keineswegs schon beherrschbaren Auswüchse von Hyperkrieg und AWS – noch auf längere Sicht ein zahnloser Tiger sein wird, gilt es, wegen der unbedingt einzufordernden menschlichen Verantwortung für Einsatz und Folgen dieser neuen Waffensysteme Ausschau nach sonstigen Fixpunkten zu halten, die geeignet sind, Orientierung in existenziellen Zweifelsfragen und verlässlichen Halt zu geben. Ein alter Satz des großen Rechtslehrers Georg Jellinek muss daher bedacht werden: »Recht«, so lehrte er, »ist nur das ethische Minimum.« Da aber das Völkerrecht gegenwärtig noch versagt, bleibt als gegenwärtige Antwort lediglich die verpflichtende Indienstnahme der Unternehmen als Akteure selbst. Bezugspunkt für solche Erwägungen können und müssen – das darf nie in Zweifel gezogen werden – die unbedingt zu respektierenden Menschenrechte sein.

Deswegen macht es Sinn, auf das bewährte Konzept der »Corporate Social Responsibility« (CSR) zurückzugreifen. Die so zu verankernden Grundsätze sollten darauf abzielen, verbindliche Verhaltensnormen für alle Akteure im verantwortungsvollen Umgang mit kognitiven Waffensystemen zu schaffen. Es geht um die Begründung eines Normensystems im Sinn der Achtung der Menschenrechte. Auch die Steuerung des Verhaltens Dritter, der gesamten »supply chain«, muss eingefordert werden. Bei Vorliegen eines Fehlverhaltens sollten spürbare Sanktionen einsetzen: »Soft law and hard sanctions« – darum geht es. Was dann in Stellung gebracht wird, sind Instrumente, die von der außerordentlichen Kündigung bis hin zu Schadensersatz und Vertragsstrafen reichen.

Friedrich Graf von Westphalen

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnervideos