Direkt zum Inhalt

AI Safety Summit: KI braucht Regeln – aber wer wird sie aufstellen?

Auf dem KI-Sicherheitsgipfel in England trafen Regierungsvertreter und Führungskräfte der Technikbranche zusammen. NGOs kritisieren die einseitige Ausrichtung auf »Sciencefiction«-Szenarien und fordern, die Menschen und konkrete Sicherheitsprobleme ins Zentrum der Regulierung zu rücken.
Gruppenfoto der Regierungschefs vom AI Safety Summit in London, 2. November 2023.

Rund 150 Regierungsvertreter und Führungskräfte des Techniksektors aus der ganzen Welt, darunter die US-Vizepräsidentin Kamala Harris und Milliardär Elon Musk, kamen diese Woche zum KI-Sicherheitsgipfel (AI Safety Summit) nach England. Das Treffen diente als Kristallisationspunkt für eine globale Diskussion über die Regulierung künstlicher Intelligenz. Einigen Experten zufolge wurde dabei jedoch auch die übergroße Rolle sichtbar, die KI-Unternehmen in dieser Diskussion spielen – auf Kosten vieler, die zwar betroffen sind, aber finanziell am Erfolg der KI nicht teilhaben.

Am 1. November 2023 unterzeichneten Vertreter aus 28 Ländern und der Europäischen Union einen Pakt namens »Bletchley Declaration« (benannt nach dem Veranstaltungsort des Gipfels, dem Bletchley Park in England). Darin erklären sie sich bereit, weiter über den sicheren Einsatz von KI zu beraten. Viele Teilnehmer des Forums vertraten zivilgesellschaftliche Organisationen, und etwa jeder zehnte von ihnen fand die in Großbritannien geführten Gespräche nicht ausreichend.

Einseitiger Fokus auf weit in der Zukunft liegende Risiken?

Im Anschluss an die Bletchley-Erklärung veröffentlichten elf teilnehmende Organisationen einen offenen Brief, in dem es hieß, dass der Gipfel der Welt einen schlechten Dienst erweise, da er sich einseitig auf potenzielle Risiken der Zukunft konzentriere – wie Terroristen oder Cyberkriminelle, die sich generative KI zu eigen machen könnten. Oder auf die eher der Sciencefiction entspringende Vorstellung, dass KI Bewusstsein erlangen, sich der menschlichen Kontrolle entziehen und uns alle versklaven könnte. Laut dem Schreiben hat der Gipfel die bereits realen und gegenwärtigen Risiken von KI-Systemen übersehen, darunter Diskriminierung, wirtschaftliche Verdrängungsprozesse, Ausbeutung und das Verbreiten sowie Verstärken von Vorurteilen.

»Politische Entscheidungsträger und Unternehmen müssten sich dringend damit befassen, wie KI-Systeme die Rechte der Menschen beeinträchtigen«Alexandra Reeve Givens, CEO Center for Democracy & Technology

»Wir fürchten, dass der enge Fokus des Gipfels auf langfristige Sicherheitsrisiken von Dringlicherem ablenken könnte. Politische Entscheidungsträger und Unternehmen müssten sich dringend damit befassen, wie KI-Systeme bereits jetzt die Rechte der Menschen beeinträchtigen«, sagt Alexandra Reeve Givens, eine der Unterzeichnerinnen der Erklärung und Geschäftsführerin des gemeinnützigen Center for Democracy & Technology (CDT). Die KI-Entwicklung gehe rasend schnell vonstatten. Das Erstellen von Regeln zum Vermeiden hypothetischer künftiger Risiken erfordere daher einen Aufwand, der ihrer Meinung nach besser in die Ausarbeitung von Gesetzen investiert werden sollte, die sich mit den Gefahren im Hier und Jetzt auseinandersetzen.

Einige konkret schädliche Auswirkungen beruhen darauf, dass generative KI-Modelle mit Daten aus dem Internet trainiert werden, die Verzerrungen (englisch: biases) enthalten. Infolgedessen führen solche Modelle zu Ergebnissen, die bestimmte Gruppen begünstigen und andere benachteiligen. Fordert man ein bildgenerierendes KI-System etwa auf, Darstellungen von Führungskräften oder Wirtschaftsführern zu erstellen, so wird es ohne weiteres Nachtraining Fotos von weißen Männern mittleren Alters zeigen. Die eigene Forschung des CDT unterstreicht, dass Menschen, die der englischen Sprache nicht mächtig sind, durch den Einsatz generativer KI benachteiligt werden, da die meisten Trainingsdaten der Modelle in englischer Sprache eingeflossen sind und die Modelle bei Abfragen in dieser Sprache oft bessere Ergebnisse liefern.

Große KI-Unternehmen vereinnahmen Politik und Regulierung

Für einige mächtige KI-Firmen wie OpenAI, das ChatGPT entwickelt hat, haben jedoch weit in der Zukunft liegende Risikoszenarien eindeutig Priorität. Viele Unterzeichner des offenen Briefs sind hingegen der Meinung, dass die großen KI-Unternehmen einen übergroßen Einfluss auf wichtige Veranstaltungen wie den Bletchley-Park-Gipfel haben. So wurde im offiziellen Programm des Gipfels die derzeitige Flut generativer KI-Tools mit dem Begriff »Frontier AI« beschrieben, was der Terminologie entspricht, die die KI-Branche bei der Benennung ihrer Selbstkontrollinstanz, dem Frontier Model Forum, verwendet.

Indem sie Einfluss auf solche Veranstaltungen wie den UK AI Safety Summit nehmen, spielen mächtige Unternehmen auch eine unverhältnismäßig große Rolle beim Gestalten der offiziellen KI-Politik – eine Situation, die als »regulatorische Vereinnahmung« (regulatory capture) bezeichnet wird. Infolgedessen neigt diese Politik dazu, den Interessen der Unternehmen Vorrang zu geben. »Im Interesse eines demokratischen Prozesses sollte die Gesetzgebung unabhängig [von den zu regulierenden Anbietern] sein und keine Gelegenheit zur Vereinnahmung durch Unternehmen bieten«, kommentiert Marietje Schaake, Direktorin für internationale Politik am Cyber Policy Center der Stanford University.

Privatunternehmen räumen Open-Source-KI keine Priorität ein

Ein Beispiel dafür ist, dass die meisten privaten Unternehmen der quelloffenen KI keine Priorität einräumen (obwohl es Ausnahmen gibt wie das LLaMA-Modell von Meta). In den USA erließ Präsident Joe Biden zwei Tage vor Beginn des britischen Gipfels eine Durchführungsverordnung. Diese Executive Order enthielt Bestimmungen, die nach Ansicht einiger Wissenschaftler private Akteure mit proprietären KI-Modellen auf Kosten von Open-Source-KI-Entwicklern begünstigen.

»Das könnte enorme Auswirkungen auf Open-Source-KI, offene Wissenschaft und die Demokratisierung von KI haben«, erklärt Mark Riedl, außerordentlicher Professor für Informatik am Georgia Institute of Technology. Am 31. Oktober 2023 veröffentlichte die gemeinnützige Mozilla Foundation einen separaten offenen Brief, der die Notwendigkeit von Offenheit und Sicherheit bei KI-Modellen betonte. Zu den Unterzeichnern gehörte Yann LeCun. Er ist Professor für künstliche Intelligenz an der New York University und leitet die KI-Forschung bei Meta, dem Mutterkonzern von Facebook.

Existenzbedrohende Risiken standen im Zentrum des Gipfels

Als Hauptsorge nannten die großen KI-Unternehmen auch auf dem AI Safety Summit ein angeblich existenzbedrohendes Risiko durch eine künftige starke, den Menschen weit überlegene KI (Artificial General Intelligence, AGI). Einige Experten fordern die Regulierungsbehörden lediglich auf, die Diskussion über diese Sorge hinaus auf einen breiteren Katalog möglicher Risiken auszuweiten. Für andere wiederum ist selbst solch ein breiterer Rahmen nicht ausreichend.

»Ich stimme vollkommen zu, dass AGI-Risiken eine Ablenkung darstellen, und ich nehme die Sorge um die Vereinnahmung [der Politik] durch Unternehmen ernst. Aber ich beginne mir auch Sorgen zu machen, dass schon der Versuch, sich auf diese Risiken zu konzentrieren, die Interessen der Konzerne auf Kosten der Menschen unverhältnismäßig bevorzugt«, sagt Margaret Mitchell, leitende Ethikforscherin beim KI-Unternehmen Hugging Face. (Das Unternehmen war auf dem Gipfeltreffen in Bletchley Park vertreten, Mitchell selbst nahm jedoch in den USA an einem Forum teil, das von Senator Chuck Schumer aus dem Staat New York veranstaltet wurde).

»Der Mensch sollte im Mittelpunkt stehen, nicht die Technologie«Margaret Mitchell, Ethikforscherin

»Bei der Regulierung von KI sollte der Mensch im Mittelpunkt stehen, nicht die Technologie«, sagt Mitchell. »Und das bedeutet, dass wir uns weniger auf die Frage konzentrieren sollten, was diese Technologie anrichten könnte und wie wir das kategorisieren –, sondern mehr darauf, wie wir die Menschen schützen können.« Mitchells Zurückhaltung gegenüber dem risikobasierten Ansatz rührt zum Teil daher, dass zahlreiche Unternehmen auf dem britischen Gipfel und ähnlichen Veranstaltungen in der ersten Novemberwoche bereit waren, sich diesem Ansatz anzuschließen. »Das ließ bei mir sofort alle Alarmglocken läuten«, sagt die Ethikforscherin und fügt hinzu, dass sie beim Forum von Schumer in New York einen ähnlichen Standpunkt vertrat.

Ein auf Rechten basierender Ansatz bei KI

Mitchell plädiert dafür, bei der Regulierung von KI einen auf Rechten basierenden Ansatz zu verfolgen und nicht einen risikobasierten. Dies gilt auch für Chinasa T. Okolo, eine Mitarbeiterin der Brookings Institution, die an der Veranstaltung in Großbritannien teilnahm. »Die Hauptgespräche auf dem Gipfel drehen sich um die Risiken, die ›Frontier-Modelle‹ für die Gesellschaft darstellen«, sagt sie, »sie lassen jedoch die Schäden außer Acht, die KI etwa den Datenetikettierern [beim Sichten und Labeln der Trainingsdaten] zufügt – jenen Arbeitnehmern, die für die KI-Entwicklung grundlegend sind.«

Wenn man sich auf Menschenrechte konzentriert, findet die Diskussion in einem Bereich statt, mit dem Politiker und Regulierungsbehörden vertrauter sind als mit Technik. Mitchell ist der Meinung, dass dies den Gesetzgebern helfen würde, selbstbewusst Gesetze zu erarbeiten, um möglichst viele Menschen zu schützen, für die künstliche Intelligenz eine potenzielle Bedrohung darstellt. Das könnte auch einen Kompromiss für die Technologieunternehmen darstellen, die so sehr darauf bedacht sind, ihre etablierten Positionen – und ihre milliardenschweren Investitionen – zu schützen. »Indem die Politik sich auf Rechte und Ziele konzentriert, kann man Top-down-Regulierung, worin Regierungen am besten sind, mit Bottom-up-Regulierung kombinieren, womit Entwickler sich am besten auskennen«, schließt Mitchell.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.