Springers Einwürfe: Künstliche Agenten schwärmen aus

Es ist kein Geheimnis, dass die sozialen Medien auf den Kampf um Aufmerksamkeit programmiert sind. Ihre Algorithmen bevorzugen die Sensation vom Typ »Postbote beißt Hund«. Deshalb grassieren im Netz Verschwörungsmythen und Meinungsblasen.
Bislang wehrt sich die Öffentlichkeit mehr oder weniger erfolgreich durch Fakten-Checks und Überzeugungsarbeit. Das kann nur funktionieren, solange die demokratische Meinungsbildung nicht selbst von Desinformation beherrscht wird.
Just diese Gefahr droht aber, wenn sich Schwärme künstlich-intelligenter Agenten einmischen. Die technische Möglichkeit dazu besteht bereits. Darauf verweist eine internationale Gruppe von Informatikern um die norwegischen Computerwissenschaftler Daniel Thilo Schroeder und Jonas Kunst.
Mit künstlicher Intelligenz (KI) ausgerüstete Agenten sind lernfähige Softwaresysteme, die selbstständig Aufgaben planen und Ziele erreichen. Mithilfe großer Sprachmodelle (Large Language Models, LLMs) können sie sich glaubhaft an öffentlichen Debatten beteiligen und auf Einwände reagieren. Sie erwecken überzeugend den Eindruck, menschliche Diskussionsteilnehmer zu sein.
Schwärme solcher Meinungsträger wären fähig, miteinander zu kommunizieren und ihr sprachliches Verhalten kollektiv zu optimieren. Sie könnten digitale Gemeinschaften infiltrieren, wie Mitmenschen agieren und deren Meinungen wirksam manipulieren. Sie wären Propagandainstrumente von nie da gewesener Effizienz.
Solche Schwärme würden autonome Verbände bilden – möglicherweise sogar mit einer emergenten Gruppenintelligenz, die in einem für Menschen unmöglichen Tempo flexibel auf Umweltreize reagiert. Damit wären sie – anders als herkömmliche Trolle anhand ihres stereotypen Verhaltens – kaum mehr von humanen Akteuren zu unterscheiden.
Diese gruselige Perspektive bedroht eine Grundvoraussetzung jeder Demokratie: das Vertrauen in ihr Funktionieren. Schon heute ziehen viele Menschen öffentliche Verlautbarungen in Zweifel und verlassen sich lieber auf im Internet aufgeschnappte Informationen. Angesichts einer von KI-Agentenschwärmen durchsetzten Öffentlichkeit nähme, so die Autoren der Studie, ein Zustand »epistemischen Schwindels« überhand: Das fundamentale Vertrauen in den prinzipiellen Unterschied zwischen Wahr und Falsch geriete vollends ins Wanken.
Wettlauf zwischen Innovation und Regulierung
Was lässt sich dagegen tun? Ein globales Verbot kommt nicht infrage. Will man alle KI-Agenten ächten? Oder »nur« ihre Vernetzung? Die Technik ist schon in der Welt; es gilt, sie zu regulieren.
Im Grunde laufen alle möglichen Maßnahmen auf einen Wettlauf zwischen Innovation und Regulierung hinaus. Künstliche Intelligenz kann selbst mithelfen, nichtmenschliche Agentenschwärme zu entlarven. Schon heute werde ich beim Aufruf einer Website immer öfter gefragt, ob ich ein Mensch oder ein Computer bin. Die Antwort liefert in der Regel nach wenigen Sekunden das Internet.
Freilich erfordert die Prüfung im Fall einer artifiziellen Schwarmintelligenz unvergleichlich mehr Raffinesse. Die Autoren der Studie schlagen vor, ein transnationales »KI-Einfluss-Observatorium« zu schaffen, das aus vernetzten Fachleuten und Nichtregierungsorganisationen – vielleicht nach Art des »Chaos Computer Clubs« – bestünde.
Außerdem müssen Firmen, die direkt demokratiegefährdende Software anbieten, sanktioniert werden, während solche, die Schutzmaßnahmen entwickeln, mit öffentlicher Förderung rechnen dürfen. Die nächsten Jahre werden darüber entscheiden, ob sich KI-Agenten demokratisch zähmen lassen.
Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.