Direkt zum Inhalt

Autonome Waffen: Tausende KI-Forscher geloben Verzicht auf Waffenentwicklung

Wenn die KI am Abzug sitzt, droht eine neue Generation von Massenvernichtungswaffen. Tausende Forscher erklären nun öffentlich, nicht an autonomen Waffen forschen zu wollen.
Russischer Kampfroboter vom Typ Platform-M

Mehr als 2500 KI-Forscher und 176 Organisationen haben eine freiwillige Selbstverpflichtung unterzeichnet, nicht an autonomen tödlichen Waffensystemen zu forschen. Zu den Unterstützern der Initiative gehören auch prominente Figuren der Branche wie Demis Hassabis von Google DeepMind und Elon Musk. Die Kernforderung der Selbstverpflichtung ist, dass das Abfeuern einer Waffe niemals einer Maschine überlassen werden solle.

Mit ihrer Unterschrift verpflichten sich die Teilnehmer, »es weder zu unterstützen noch dabei mitzuwirken, dass autonome tödliche Waffen entwickelt, produziert, gehandelt oder eingesetzt werden«.

Bislang haben 176 Organisationen aus dem Bereich der KI-Forschung ihre Unterstützung erklärt, darunter auch wichtige Mitspieler in der Szene. Viele große Namen fehlen allerdings, so unterzeichneten weder Google noch die Google-Holding Alphabet die Selbstverpflichtung; auch Boston Dynamics – Hersteller berühmter Robotermodelle – finden sich bislang nicht auf der Liste. Ebenso fehlen einschlägige Rüstungskonzerne.

Ziel der Aktion ist es darum, weit über den Kreis der Unterzeichner hinaus Wirkung zu entfalten, indem die Aufmerksamkeit der breiten Öffentlichkeit auf die Gefahren autonomer Waffen gelenkt wird. So sollen autonome Waffen geächtet werden und Firmen, die an ihrer Entwicklung forschen, öffentlichen Druck zu spüren bekommen.

Langfristig wünschen sich die Initiatoren, dass die internationale Gemeinschaft ein Verbot autonomer tödlicher Waffen erlässt. Im Rahmen der Vereinten Nationen haben bereits 26 Länder ihre Unterstützung für ein solches Vorhaben erklärt. Als einzige europäische Staaten finden sich Österreich und der Vatikan auf dieser Liste.

Die Selbstverpflichtung wurde initiiert vom Future of Life Institute, einer in Boston ansässigen Organisation, die Projekte fördert, bei denen Technologie zum Wohle aller Menschen und im Interesse nachfolgender Generationen eingesetzt wird.

Mit ihrer Selbstverpflichtung richten sich die Initiatoren nicht pauschal gegen den Einsatz von künstlicher Intelligenz in einem Waffensystem, sondern speziell gegen Fälle, bei denen allein der Computer darüber entscheidet, ob die Waffe abgefeuert wird oder nicht. Gegen solche Systeme führen sie moralische Bedenken an – ohne menschlichen Entscheidungsträger sei die Frage der Verantwortlichkeit nicht geklärt –, vor allem aber pragmatische Überlegungen: Weil sich vollautonome Waffensysteme anders als Menschen beliebig vervielfältigen lassen, würden sie eine destabilisierende Wirkung auf Staaten entfalten und zu einem neuen Wettrüsten führen.

Wie sich KI-Waffen auswirken können, hatte das Institut im November 2017 in einem eindrücklichen Video skizziert. Darin schildern sie das fiktive Szenario einer Terroristengruppe, die mit massenhaft produzierten Minidrohnen nach ihren Gegnern fahndet und diese vollautomatisch exekutiert.

© Future of Life Institute
»Slaughterbots« – fitkives Szenario einer weltweiten Bedrohung durch KI

Schreiben Sie uns!

4 Beiträge anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.