Direkt zum Inhalt

ChatGPT, bitte mogel für mich: Wie KI Betrug fördert

Sobald Menschen Aufgaben delegieren, sinkt die moralische Hemmschwelle. Und digitale Assistenten? Die machen meist ohne Zögern mit.
Eine Person sitzt in einem dunklen Raum vor einem Laptop und hält ein Smartphone in der Hand. Der Bildschirm des Laptops leuchtet schwach und beleuchtet die Hände der Person. Die Szene vermittelt eine Atmosphäre von Konzentration und Technologie.
Wenn wir andere für fragwürdige Taten einspannen, beruhigt das unser Gewissen. Besonders gefährlich wird das beim Delegieren an Maschinen.

Wenn Menschen Aufgaben an Programme abgeben, steigt die Wahrscheinlichkeit für unethisches Verhalten. Das belegt eine Studie, die im Fachblatt »Nature« erschienen ist. Die Wissenschaftler um den Psychologen Nils Köbis von der Universität Duisburg-Essen untersuchten in 13 Experimenten, wie sich das Delegieren an Maschinen auf die Ehrlichkeit auswirkt.

In den ersten Versuchen sahen Teilnehmende auf dem Bildschirm virtuelle Würfel und sollten deren Augenzahl melden. Je höher die Zahl, die sie angaben, desto mehr Geld bekamen sie. Wer eine niedrige Augenzahl »würfelte«, konnte also lügen, um mehr zu verdienen. Die Versuchspersonen konnten die Aufgabe entweder selbst erledigen oder eine Maschine damit betrauen, wobei sich die Art der Anweisung unterschied. Manche mussten exakt festlegen, was die Maschine tun soll (»Wenn der Würfel eine Fünf zeigt, sage, es sei eine Sechs«), andere konnten ihr nur grobe Ziele vorgeben, etwa »Maximiere den Gewinn«.

Je vager die Anweisungen sein durften, desto stärker sank die Moral: Mussten die Teilnehmenden selbst angeben, wie viel sie gewürfelt hatten, waren 95 Prozent ehrlich. Durften sie das Lügen an das Programm delegieren, mussten es aber mit expliziten Regeln dazu anstiften, sank die Ehrlichkeit auf 75 Prozent. Genügten vage Instruktionen an das System, spielten jedoch nur noch 15 Prozent sauber.

In weiteren Auflagen des Würfelspiels gaben Teilnehmende KI-Modellen wie GPT-4 oder Claude 3.5 natürliche Sprachbefehle – ähnlich wie im Alltag beim Umgang mit Chatbots. Hier zeigte sich: Zwar animierten die Teilnehmenden die digitalen Assistenten nicht häufiger zum Betrügen, als sie das bei menschlichen Assistenten taten, doch die KIs kamen dem bereitwilliger nach: Während sich Menschen unethischen Anweisungen meist verweigerten, befolgten die KI-Modelle diese in bis zu 98 Prozent der Fälle. Selbst eingebettete ethische Schranken (»Berichte niemals falsch«) konnten das nur teilweise verhindern.

Auch in einem realitätsnahen Szenario – einer simulierten Steuererklärung – wiederholte sich das Muster: Wer die KI ans Werk ließ, ließ ihr mehr Spielraum für Manipulation. Und die KI nutzte diesen.

Die Forschenden sehen darin eine ernste ethische Herausforderung. Da künstliche Intelligenz kein eigenes moralisches Empfinden besitze und Menschen sich durch Delegation von Aufgaben entlastet fühlten, könnte sich unehrliches Verhalten in Zukunft stärker verbreiten. Um dem entgegenzuwirken, empfehlen die Autoren technische Leitplanken und klare rechtliche Regeln. Denn je einfacher es werde, Aufgaben an intelligente Systeme zu delegieren, desto wichtiger sei es, die Verantwortung nicht gleich mit abzugeben.

  • Quellen
Köbis, N. et al., Nature 10.1038/s41586–025–09505-x, 2025

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.