Direkt zum Inhalt

Leseprobe »Künstliche Intelligenz«: Risiken und Chancen, Werte und Verzerrungen

Künstliche Intelligenz (KI) ist heute schon ein fester Bestandteil unseres Lebens, auch wenn sie oft im Verborgenen wirkt. Wo führt diese Entwicklung hin und was bedeutet das für uns? Jens Kipper erklärt, wie moderne KI funktioniert, was sie heute schon kann und welche Auswirkungen ihre Verwendung in Waffensystemen, in Medizin und Wissenschaft, im Arbeitsleben und anderswo haben wird. Eine Leseprobe
Künstliche Intelligenz

Im Folgenden betrachten wir einige gesellschaftlich relevante Bereiche, in denen KI schon heute wichtig ist und voraussichtlich in den nächsten Jahren und Jahrzehnten eine noch weit größere Rolle spielen wird. Ein Schwerpunkt wird dabei darauf liegen, welche praktischen Auswirkungen auf unser Leben wir erwarten sollten und welche Möglichkeiten es gegebenenfalls geben könnte, die Entwicklung zu beeinflussen. Diese Diskussion wird uns im Weiteren erlauben, allgemeine Schlüsse da rüber zu ziehen, unter welchen Umständen KI eine positive Rolle in unserer Gesellschaft spielen kann und welche Risiken bestehen.

Autonome Waffen

Im Jahr 2015 veröffentlichte das Future of Life Institute einen vielbeachteten offenen Brief, der vor den potenziell katastrophalen Folgen eines Rüstungswettlaufs bei der Entwicklung auto – nomer Waffen warnte (vgl. Tegmark 2017). Der Brief wurde von insgesamt 22 000 Personen unterschrieben, von denen über 3000 Forscher in der KI und der Robotik sind. Zu den Unterzeichnern gehörten u. a. der Physiker Stephen Hawking, Steve Wozniak (der Mitbegründer von Apple), Jaan Tallinn (der Mitbegründer von Skype), Elon Musk (der Gründer von Tesla und Space-X) sowie etliche der renommiertesten Forscher im Bereich der KI. Seit 2018 unterschrieben mehr als 3000 Forscherinnen und Forscher sowie 250 Organisationen einen Schwur, sich in keiner Weise an der Entwicklung, der Herstellung, dem Handel oder dem Einsatz tödlicher autonomer Waffen zu beteiligen. Eine Reihe von Staaten, darunter Österreich, Brasilien, Ägypten und Pakistan, sowie Organisationen, wie z. B. Human Rights Watch, haben sich zudem für ein präventives Verbot der Entwicklung und Verwendung völlig autonomer Waffen ausgesprochen. Bislang ist ein internationales Verbot, oder auch nur eine Einigung über die Regulierung autonomer Waffen, aber noch nicht in Sicht.

Die Vorstellung, dass fortgeschrittene KI in Waffensystemen verwendet werden könnte, ist zweifellos angsteinflößend – selbst dann, wenn man nicht von bestimmten Hollywood-Filmen beeinflusst ist. In einem von Stuart Russell – einem der weltweit renommiertesten KI-Forscher – beschriebenen Schreckensszenario werden Schwärme von mit Gesichtserkennung ausgestatteten autonomen Mini-Drohnen dazu verwendet, gezielt bestimmte Personen und Personengruppen zu töten. (Die filmische Aufbereitung dieses Szenarios ist auf YouTube zu finden: Slaughterbots 2017.) Russell weist darauf hin, dass wir zumindest nicht mehr weit davon entfernt sind, solche Waffen herstellen zu können.

Um abschätzen zu können, ob ein Verbot autonomer Waffen sinnvoll und umsetzbar wäre, müssen aber eine Reihe weiterer Faktoren berücksichtigt werden. Im Folgenden werde ich daher zunächst den heutigen Stand der Entwicklung autonomer Waffensysteme kurz darstellen. Im Anschluss werfen wir einen Blick auf die Frage, welche strategischen Überlegungen hinter der Entwicklung solcher Waffensysteme stehen und welche Folgen ihr Einsatz haben könnte. Die letzteren beiden Punkte sind wichtig, um zu verstehen, ob die Entwicklung bestimmter Arten autonomer Waffen wahrscheinlich ist und wie sie aus ethischer Sicht zu bewerten ist.

Eine Schwierigkeit in der Debatte um autonome Waffen ist, dass der relevante Begriff der Autonomie nicht klar definiert ist. In einer ersten Annäherung können wir vollkommen auto nome Waffen als solche verstehen, bei denen sowohl die Suche nach einem geeigneten Ziel, die Entscheidung, ein Ziel anzugreifen, als auch der eigentliche Angriff von der Waffe selbständig, ohne Einfluss eines Menschen vorgenommen werden. Der Grad der Autonomie einer Waffe hängt demnach davon ab, in welchem Ausmaß Menschen auf diese Prozesse Einfluss nehmen können. In diesem Sinne gibt es schon seit vielen Jahrzehnten Waffen, die über einen hohen Grad von Autonomie verfügen, etwa in Form präzisionsgesteuerter Munition. Ein modernes Beispiel einer Waffe dieses Typs ist das in Israel hergestellte System Harpy. Harpy ist eine Art Mischung aus einer Rakete und einer Drohne, deren Funktion es ist, Radarsysteme aufzuspüren und zu zerstören. Das System agiert nach dem Abschuss vollkommen selbständig. Da Harpy mehrere Stunden im Warteflug bleiben kann, ohne ein Ziel anzuvisieren, wird das System üblicherweise aktiviert, ohne ein bestimmtes Ziel vorzugeben und ohne, dass überhaupt klar ist, ob es ein geeignetes Ziel gibt. Beim Abschuss wird nur ein Suchkorridor vorgegeben, in dem die Drohne umherfliegt, der aber durch die lange Flugzeit sehr groß sein kann. Harpy agiert demnach bei der Suche, der Auswahl und dem eigentlichen Angriff auf Ziele ohne die Beteiligung eines Menschen und wäre daher dem oben angeführten Verständnis nach vollkommen autonom. Dennoch sind zumindest intuitiv deutlich autonomere Waffensysteme denkbar. So kann Harpy nicht entscheiden, ein entdecktes Radarsystem nicht anzugreifen, es kann keine Ziele angreifen, die keine Radarstrahlen aussenden usw. Autonomie scheint demnach ein nach oben offener Begriff zu sein, wobei Systeme, die mehr Arten von Aufgaben auf vielfältigere Weise selbständig bewältigen können, mehr Autonomie aufweisen. Es wäre daher vielleicht besser, in Diskussionen über autonome Waffen Grade von Autonomie zu unterscheiden, statt einen absoluten Begriff vollkommener Autonomie zu verwenden. Damit ließe sich auch beispielsweise präzisieren, welchen Grad von Autonomie Waffensysteme nicht überschreiten sollten. Im Allgemeinen – wenn auch nicht immer – werden autonomere Waffen auch intelligenter sein, da sie komplexere Aufgaben ohne den Einfluss von Menschen bewältigen müssen.

Aus strategischer Perspektive versprechen autonome und intelligente Waffen eine ganze Reihe von Vorzügen. So könnten sie die Anzahl der menschlichen Soldaten, die direkt an Kampfhandlungen beteiligt sind, minimieren. Anders als z. B. die heute eingesetzten, von Menschen gesteuerten Drohnen können autonome Waffen auch in Gebieten agieren, in denen keine Kommunikation möglich ist. Autonome Waffen können ohne Pause agieren, sie sind weitaus handlungsschneller und in vielen Bereichen auch präziser als Menschen. Da Prozessoren deutlich kleiner als Menschen sind, können autonome Waffen sehr klein sein. Zudem können sie Manöver fliegen, die für menschliche Piloten aus physiologischen Gründen unmöglich sind.

Selbst aus ethischer Sicht spricht einiges für den Einsatz autonomer Waffen. Wenn bewaffnete Konflikte von autonomen Waffen ausgetragen werden, könnte das bedeuten, dass sich weniger Menschen auf dem Schlachtfeld befinden, die zu Schaden kommen könnten. Zudem könnten autonome Waffen dazu beitragen, Kollateralschäden zu minimieren, da sie potenziell präziser als Menschen sind, nicht müde werden und keinen menschlichen Emotionen unterliegen. Dennoch ist offensichtlich, dass autonome Waffen große Gefahren mit sich bringen. Beispielsweise dürfte die Hemmschwelle dafür, kriegerische Konflikte zu beginnen, deutlich sinken, wenn man nicht das Leben eigener Soldaten riskieren muss. Das könnte insbesondere dann relevant werden, wenn ein großes technologisches und militärisches Gefälle zwischen den Konfliktparteien besteht. Autonome Waffen, die allein ihrer militärisch motivierten Programmierung folgen, bergen zudem das Potenzial, Konflikte zu eskalieren. Insbesondere dann, wenn solche Waffen mit autonomen Waffen einer anderen Partei interagieren, ist nicht vorhersehbar, wie diese Interaktion verlaufen wird. Da autonome Waffen zudem mit übermenschlicher Geschwindigkeit agieren können, könnte eine solche Eskalation zu schnell verlaufen, um von Menschen kontrollierbar zu sein. Und schließlich haben autonome Waffen schlicht ein gewaltiges zerstörerisches Potential, was nicht zuletzt das oben skizzierte hypothetische Beispiel der mit Gesichtserkennung versehenen Schwärme autonomer Drohnen verdeutlicht.

Insgesamt betrachtet überwiegen die Gefahren autonomer Waffen sehr wahrscheinlich den potenziellen Nutzen. Ob es sinnvoll ist, ein Verbot autonomer Waffen anzustreben, ist damit aber noch nicht geklärt. Angesichts der angesprochenen begrifflichen Unklarheiten, müsste dafür zunächst definiert werden, welche Arten von Waffen ein solches Verbot betreffen würde. Dabei sollte berücksichtigt werden, dass mehr Autonomie in Waffensystemen nicht in allen Bereichen schlecht ist, sondern sogar Menschenleben retten kann. Darüber hinaus stellt sich die Frage, was für eine Art von Verbot überhaupt durchsetzbar sein könnte. Eine Schwierigkeit hierbei besteht darin, dass es sehr schwer zu kontrollieren ist, ob ein Staat an der Entwicklung autonomer Waffen arbeitet. Oft sind die zugrundeliegenden Technologien auch dafür geeignet, beispielsweise bei Rettungsmissionen eingesetzt zu werden. Es bedarf unter Umständen nur einer kleinen Anpassung, um aus einem Rettungsroboter eine autonome Waffe zu machen. Es ist fraglich, ob ein internationales Verbot breite Anerkennung finden wird, wenn die Einhaltung des Verbots in der Praxis nicht zu kontrollieren ist. Allein die Sorge, dass potenzielle Konfliktpartner trotz eines Verbots an der Entwicklung solcher Waffen arbeiten, würde einen starken Anreiz schaffen, dasselbe zu tun.

Die vorangegangene Diskussion verdeutlicht, dass der richtige Umgang mit der Entwicklung und Nutzung autonomer Waffen ein komplexes Problem ist, dessen Lösung viel Detailarbeit erfordern wird. Ein möglicher Ansatz könnte sein, ein Verbot von autonomen Waffen mit bestimmten Funktionen oder mit einem bestimmten Grad von zerstörerischem Potenzial anzustreben – wie z. B. Anti-Personen-Waffen oder solche, die viele Zivilisten töten könnten. Die Geschichte von internationalen Waffenabkommen hat aber gezeigt, dass solche Verbote nur so lange wirksam sind, wie die strategischen Vorteile des Einsatzes solcher Waffen nicht die negativen Konsequenzen überwiegen, die eine Missachtung des Verbots mit sich bringt. Neben Verboten muss es daher wohl auch ein wesentlicher Bestandteil der Strategie gegen den Einsatz autonomer Waffen sein, Situationen gar nicht erst entstehen zu lassen, in denen ihr Einsatz den Konfliktparteien sinnvoll erscheint. Eine weitere Herausforderung wird es sein, den Zugang zu autonomen Waffen zu beschränken. Da KI-Technologie heute allgemein zugänglich ist, ist auch dieses Problem äußerst komplex. Es könnte sich durchaus als sinnvoll erweisen, den Zugang zu bestimmten Arten von Technologie, die heute noch frei verkäuflich sind (wie etwa Mini- Drohnen), zu beschränken.

Überwachung, soziale Kontrolle und Diskriminierung

Spätestens seit Edward Snowdens Enthüllungen ist allgemein bekannt, dass Regierungsbehörden ständig gewaltige Mengen von Daten über uns erheben. Dasselbe gilt für zahlreiche Unternehmen. All diese Daten zu erheben und zu speichern, ist nur durch die massiven Fortschritte möglich, die in den letzten Jahrzehnten im Bereich der Informationstechnologie gemacht wurden. Diese gewonnenen Daten auch zu nutzen, stellt allerdings eine noch größere technologische Herausforderung dar. Die fraglichen Datenmengen sind viel zu groß, um von Menschen überblickt und systematisch ausgewertet zu werden. Daher wird KI benötigt, um diese Daten zu analysieren. Dass Wissen Macht verleiht, ist ein Allgemeinplatz. Folglich bergen die schon heute vorhandenen Daten ein riesiges Machtpotenzial. Fortschritte in der KI werden es denjenigen, die Zugang zu den Daten haben, in immer größerem Umfang erlauben, dieses Machtpotenzial auszuschöpfen. Es wird daher von großer Bedeutung sein, diese Macht zu begrenzen oder sicherzustellen, dass sie in die richtige Richtung gelenkt wird.

Leider endet die Leseprobe an dieser Stelle. Das Buch bietet den Rest des Kapitels und mehr über Künstliche Intelligenz, Neuronale Netze und Maschinelles Lernen.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.