Direkt zum Inhalt

Künstliche Intelligenz: Wie Sprachmodelle wie ChatGPT uns manipulieren

Chatbots beeinflussen die Meinungen und Weltanschauungen der Nutzenden. Deshalb warnen Experten vor negativen Folgen – und fordern mehr Transparenz und Kontrolle bei der Entwicklung der neuen Technologien.
Drei stilisierte Figuren in Anzügen stehen auf einem blauen Hintergrund. Jede Figur hält ein Smartphone, das ihr Gesicht beleuchtet. Sie tragen Aktentaschen in der anderen Hand. Die Szene vermittelt den Eindruck von Geschäftigkeit und Technologie.
Widerstand zwecklos: Wir können uns gegen die Beeinflussung durch Sprachmodelle kaum wehren.

Die Geschwindigkeit, mit der Sprachmodelle unseren Alltag durchdringen, ist atemberaubend. Es ist noch nicht allzu lange her, als im Herbst 2022 die Veröffentlichung von ChatGPT die Welt in Erstaunen versetzte. Inzwischen nehmen immer mehr Menschen die neue Technologie in Anspruch: Sie lassen sie für sich schreiben, lesen und zusammenzufassen.

Nun ist der Dialog mit Chatbots sogar im Begriff, die klassische Internetsuche abzulösen. Dadurch entstehen mächtige Informationsfilter. Zudem stellen sich die Sprachmodelle als angenehme Gesprächspartner heraus: Die KI-Modelle plaudern bereits mit Millionen von Menschen, die als soziale Wesen gar nicht anders können, als ihre Meinungen und Weltanschauungen dem Einfluss der Chatbots auszusetzen.

Doch die Maschinen sind keineswegs neutrale Akteure. Sie übernehmen und verstärken die vorherrschenden Meinungen und Stereotypen ihrer Trainingsdaten – und sind zudem durch die Anschauungen ihrer Entwickler geprägt. Die Entstehung der KI-Programme ist intransparent, profitgetrieben und verläuft – zumindest was ihre gesellschaftlichen Auswirkungen betrifft – weitgehend im Blindflug.

Angesichts der aktuellen politischen Entwicklungen in den USA befürchten nicht bloß eingefleischte Pessimisten, dass Sprachmodelle wie ChatGPT missbraucht werden könnten, um bestimmte Ideologien und Falschinformationen zu verbreiten. Von einer Technologie, die Entlastung und Informationsfluss für alle verspricht, hin zu dystopischen Propagandamaschinen ist es womöglich nur ein kleiner Schritt. Forschende aus unterschiedlichen Disziplinen warnen deshalb vor den negativen Folgen dieser technologischen Revolution und fordern mehr demokratisch legitimierte Kontrolle.

Keine neutralen Akteure

Einer im März 2025 erschienenen Untersuchung des Leibniz-Instituts für Medienforschung zufolge haben knapp die Hälfte aller Deutschen – und so gut wie alle 16- bis 19-Jährigen – bereits erste Erfahrungen mit ChatGPT oder anderen großen Sprachmodellen gemacht. Für Michael Reiss, Mitautor der Studie, ist gerade das starke Interesse von jüngeren Menschen Anlass zur Hoffnung. Sie könnten auf diese Weise mehr mit Nachrichten und Politik in Kontakt kommen. »In diesen Altersgruppen ist leider seit Jahren ein deutlicher Trend zu immer weniger Konsum von politischen Informationen und Nachrichten zu beobachten«, erklärt der Medienwissenschaftler. Grund für diese Entwicklung sei unter anderem das mangelnde Vertrauen in etablierte Medien. »KI dagegen betrachten viele Menschen als neutralen Akteur, dem sie vertrauen können«, sagt Reiss. »Da muss man aber klar sagen, dass das definitiv nicht stimmt.«

Dabei achten Techkonzerne durchaus darauf, dass sich ihre Modelle bei Anfragen zu aktuellen Themen auf seriöse Nachrichtenquellen beziehen, um möglichst vertrauenswürdige Informationen wiederzugeben. Schließlich sind gerade Big Player wie Google, Meta oder OpenAI einer großen öffentlichen Aufmerksamkeit ausgesetzt. »Es gibt aber auch andere zwielichtigere KI-Anwendungen, die weniger Vorsichtsmaßnahmen eingebaut haben und nicht so viel Wert auf eine gute Quellenlage legen. In Teilen kann hier beispielsweise Grok von X dazu gezählt werden«, sagt Reiss.

»Es kann nicht ausgeschlossen werden, dass die Modelle irgendwann bewusst missbräuchlich eingesetzt werden, um Menschen zu manipulieren«Michael Reiss, Medienwissenschaftler

Insgesamt fallen die Ergebnisse eines KI-Modells meistens bei jenen Themen besser aus, zu denen es viele Informationen gibt. Wenn dagegen nur wenige Trainingsdaten vorhanden sind, nimmt die Faktentreue ab. »Und natürlich kann auch nicht ausgeschlossen werden, dass die Modelle irgendwann bewusst missbräuchlich eingesetzt werden, um Menschen zu manipulieren oder in die Irre zu führen«, warnt der Forscher.

Wie viele seiner Kollegen fordert er deshalb von Techkonzernen mehr Transparenz. Aktuell seien die KI-Modelle viel zu oft undurchsichtige Blackboxes, zu denen die Wissenschaft keinerlei Zugang hat. Zwar verpflichtet Artikel 40 des europäischen Digital Services Act große Onlineplattformen dazu, Forschenden in bestimmten Fällen ihre Nutzungsdaten zu übergeben – beispielsweise um die Verbreitung und Auswirkungen von Desinformation zu untersuchen. »Es wäre aber wünschenswert, diese Bestimmungen auf Anbieter generativer KI zu erweitern, um auch hier aus wissenschaftlicher und damit unabhängiger Perspektive die Rolle und Bedeutung von fehlerhaften Informationen untersuchen zu können«, sagt Reiss. Ohne einen solchen Zugang haben die Entwickler großer Sprachmodelle stets einen Informationsvorsprung – angesichts der zunehmenden gesellschaftlichen Relevanz von generativer KI eine problematische Schieflage.

Schon jetzt gibt es leistungsstarke Sprachmodelle wie LlaMa von Meta, die auf Offenheit setzen. In seiner strengsten Auslegung bedeutet Open Source, dass wirklich alles frei verfügbar ist: von den Daten, mit denen das Modell trainiert wurde, bis hin zu den Algorithmen, die dabei zum Einsatz kamen. Das ermöglicht es Außenstehenden nachzuvollziehen, wie ein Modell zu dem geworden ist, was es ist. Nur so lassen sich Rückschlüsse ziehen, was fehlerhafte oder verzerrte Antworten verursacht. Diesen strengen Kriterien wird Llama nicht gerecht, da weder die verwendeten Trainingsdatensätze im Detail dokumentiert sind noch jede Einzelheit der Entwicklung vollständig transparent ist.

Das ist bei anderen Modellen wie dem KI-Chatbot R1 der chinesischen Firma DeepSeek ähnlich. Dort ist beispielsweise nur die Endversion frei zugänglich. Wie und anhand welcher Daten die Parameter des Programms optimiert wurden, bleibt das Geheimnis der Entwickler. Solche »Open Weight«-Varianten erlauben es anderen Akteuren immerhin, das Modell auf eigenen Servern zu betreiben und weiterzuentwickeln. Software wie ChatGPT dagegen ist völlig abgeschlossen und damit eine reine Blackbox.

Ein Linksruck unter den Sprachmodellen

Um das Innenleben solcher »Closed Source«-Systeme zu ergründen, sind Fachleute darauf angewiesen, die Antworten der KI-Modelle zu untersuchen. Dafür setzen Informatiker wie Max Pellert unter anderem auf Methoden aus der Psychometrie, einem Teilgebiet der Psychologie. Gemeinsam mit seinen Kolleginnen und Kollegen hat er verschiedene Sprachmodelle standardisierte Fragebögen ausfüllen lassen und die Angaben anschließend ausgewertet. »Die Ergebnisse sind konkrete Zahlenwerte und erlauben somit quantitative Aussagen und Vergleiche«, sagt Pellert, der am Barcelona Supercomputing Center tätig ist.

Den Forschenden fiel dabei auf, dass die Sprachmodelle mit der Zeit gewissermaßen ihre politische Einstellung geändert haben. So reproduzieren frühere Systeme, die rein auf Basis von Texten aus dem Internet trainiert wurden, eher konservative Ansichten. Später ging man dazu über, den Modellen unter großem Aufwand und durch menschliches Feedback auch Chatfunktionen anzutrainieren. Erst dieser zusätzliche Entwicklungsschritt ermöglichte es den Nutzenden, sich mit den Sprachmodellen zu unterhalten, was schließlich ChatGPT zum Durchbruch verholfen hat. Gleichzeitig hat es die Moralvorstellungen der Modelle nach links verschoben. »Das spiegelt wohl wider, was ihre hauptsächlich in bestimmten progressiven Regionen in den USA ansässigen Entwickler damals präferierten und gibt dem Ganzen einen liberalen amerikanischen Bias«, meint Pellert.

»Wenn man das menschliche Feedback eher rechtslastig auslegt, wird ein Sprachmodell auch entsprechend rechtslastigen Content produzieren«Georg Rehm, Informatiker

Selbst wenn wir nicht wissen, wie sich Chatbots künftig entwickeln werden – aus technischer Sicht ist es ein Leichtes, ihnen eine bestimmte politische Ausrichtung mitzugeben. »Wenn man das menschliche Feedback eher rechtslastig auslegt, wird ein Sprachmodell auch entsprechend rechtslastigen Content produzieren«, sagt Georg Rehm, der am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) an Sprachtechnologien arbeitet und an der Humboldt-Universität zu Berlin forscht. Wie viele andere ist er beunruhigt über den neuen autoritären Wind, der mit der neuen US-Administration nun auch nach Europa weht.

Besonders die Rolle von Elon Musk, dem Adlatus des neuen Präsidenten, ist für ihn Anlass zur Sorge. Der kontrolliert schließlich nicht nur ein eigenes großes Sprachmodell (Grok), sondern hat es inzwischen in sein soziales Netzwerk X integriert. Die Verbindung zweier mächtiger Werkzeuge liegt damit in der Hand einer einzigen Person, ohne dass ein Außenstehender Einblick in die zu Grunde liegenden Mechanismen hat.

Europäischer Daten-Marktplatz

»Europa sollte viel selbstbewusster auftreten und viel mehr für seine digitale Souveränität tun«, fordert Rehm. »Wir sollten dringend ein europäisches Gegengewicht zu den US-amerikanischen Sprachmodellen schaffen.« Dafür braucht es neben Know-how und Rechenleistung aber vor allem eines: riesige Mengen an Daten. Um auch europäische Daten für diesen Zweck nutzbar zu machen, koordiniert Rehm am DFKI das Projekt »European Language Data Space«. Es ist eines von mehreren Datenprojekten, welche die EU derzeit zu so unterschiedlichen Themen wie Tourismus, Gesundheit oder Mobilität aufbaut. Erklärtes Ziel ist die Schaffung eines einheitlichen Systems, das einen sicheren und zuverlässigen Datenaustausch ermöglicht.

Der Language Data Space, der bereits als Prototyp existiert, soll als digitaler Marktplatz dienen. Dort können Zeitungsverlage, Radiostationen, Podcast-Einrichtungen, Bibliotheken sowie öffentliche und private Rundfunkanstalten ihre Sprachdaten feilbieten. »Das ist ein Schatz an Daten, der täglich wächst – handkuratierter, hochwertiger journalistischer Content«, sagt Rehm. »Es wäre fantastisch, wenn wir irgendwann auf die Daten von ARD, ZDF, RAI und anderen europäischen Sendern zugreifen könnten, um damit unsere eigenen Sprachmodelle zu trainieren.« Dabei sollen die Besitzer ihre Daten keineswegs kostenfrei zur Verfügung stellen: Jeder Teilnehmer kann seine Ware zu den Konditionen anbieten, die ihm vorschweben.

Unwiderstehlicher Einfluss

Während die einen also bereits daran arbeiten, die digitale Souveränität der EU voranzutreiben, beschäftigen sich Forscher wie Maurice Jakesch von der Bauhaus-Universität Weimar damit, die psychologischen Auswirkungen von Sprachmodellen auf Nutzende zu untersuchen. Er möchte die Risiken und potenziellen Nebenwirkungen der KI-Modelle analysieren und hofft dadurch potenzielle Fehlentwicklungen vorherzusehen.

Die aktuelle Situation vergleicht Jakesch mit dem Aufkommen von Social Media und der damit verbundenen Hoffnung auf mehr Demokratisierung und Mitsprache für alle. Schnell wurde vor jedoch klar, dass soziale Medien vor allem emotionale und polarisierende Meinungen verstärken, während gemäßigte Inhalte eher untergehen. »Das hätte man besser vorhersagen können«, meint Jakesch. »Aber damals wie heute hinken unser Verständnis und unsere politische Handhabe der technischen Entwicklung weit hinterher.«

»Es fühlt sich für die Nutzer gar nicht so an, als würden sie überredet werden, aber sie können die Beeinflussung auch nicht willentlich verhindern«Maurice Jakesch, Informatiker

In ihren psychologischen Experimenten nahmen Jakesch und sein Team verschiedene KI-Schreibassistenten ins Visier. Die unterbreiten ihre Vorschläge direkt während des Schreibens und beeinflussen die Nutzenden dadurch stärker, als wenn Argumente auf herkömmliche Art präsentiert werden. Wie sich zeigte, erlaubten die Probanden der Technologie mit ihren Vorschlägen zu Stil und Inhalt nicht nur, das Geschriebene zu verändern – sondern auch das, was sie denken. »Das fühlt sich für die Nutzer gar nicht so an, als würden sie überredet werden, aber sie können die Beeinflussung auch nicht willentlich verhindern«, sagt Jakesch.

Das schlimmste Szenario in diesem Zusammenhang wäre aus Jakeschs Sicht eine Diktatur, die Sprachmodelle im großen Stil manipuliert, um ihre Weltanschauung zu verbreiten. Eine solche Bedrohung scheint aber zumindest in Europa bisher weit entfernt. »Allerdings halte ich es leider auch hier für realistisch, dass wir keine vernünftige Regulierung für die neue Technologie finden, bis wieder etwas schiefgelaufen ist«, befürchtet Jakesch. Auch er fordert deshalb mehr Transparenz und wünscht sich ähnliche Regeln für Sprachmodelle wie die Pressegesetze für gewöhnliche Medien. »Aktuell geht es bei der Entwicklung der Meinungen der Sprachmodelle leider zu wie im Wilden Westen – jeder macht einfach, was er will.«

Chatbots in der Schule

Als besonders heikel gilt der potenzielle Einfluss von Sprachmodellen auf junge Menschen in der Schule. Samuel Greiff von der TU München hat gemeinsam mit Kolleginnen und Kollegen einen Artikel im Fachjournal »Nature Human Behaviour« veröffentlicht, der die Vor- und Nachteile von KI-Technologien in dem Bereich beleuchtet. »Sprachmodelle haben in der Bildung das Potenzial für etwas Revolutionäres«, sagt der Forscher, der unter anderem die PISA-Studie in Deutschland verantwortet. »Aktuell gibt es aber noch viel mehr offene Fragen als konkrete Einsatzgebiete.«

Zunächst sollte man den Schülerinnen und Schülern Kompetenzen im Umgang mit KI vermitteln. Um die Technologie effizient und effektiv nutzen zu können, braucht es ein hohes Maß an Bewusstsein, Verantwortlichkeit und Reflexionsfähigkeit. Kinder müssen lernen, die Systeme kritisch zu hinterfragen und verstehen, wie generative KI funktioniert. Gleichzeitig könnten Chatbots das Lehrpersonal künftig massiv entlasten, etwa indem sie personalisierte Aufgaben erstellen und Schülerinnen und Schüler individuell unterstützen. Das könnte etwa sozial Benachteiligten helfen und damit zu mehr Bildungsgerechtigkeit führen.

»Lehrkräfte beklagen bereits, dass sie eigentlich gar nicht genug über diese Tools wissen, um sie im Unterricht einzusetzen«Samuel Greiff, Psychologe

»Leider ist das Ausmaß an Transparenz, wie etwa ChatGPT zu seinen Antworten kommt, aber unglaublich gering«, sagt Greiff. »Lehrkräfte beklagen bereits, dass sie eigentlich gar nicht genug über diese Tools wissen, um sie im Unterricht einzusetzen.« Es fehle auch an offiziellen Qualitätskriterien und Regulationsmechanismen, wie man sie etwa von der Schulbuchprüfung kennt. Für einen breiten Einsatz generativer KI im Unterricht müsse man aber wissen, welche fachdidaktischen Konzepte genutzt werden und ob Inhalte überhaupt dem Lehrplan entsprechen. »Diese Unkontrollierbarkeit ist wirklich eine große Gefahr«, beklagt Greiff. »Möglicherweise gibt es bei den Herstellern der Algorithmen ja sogar geschäftliche Interessen, um bestimmte Inhalte besonders stark zu machen.«

Deshalb sind viele Expertinnen und Experten davon überzeugt, dass es mehr Transparenz und demokratisch legitimierte Kontrolle von großen Sprachmodellen braucht, um deren Vorteile nutzen zu können – ob in der Bildung oder in anderen Lebensbereichen. Das ließe sich einfacher umsetzen, wenn Europa in diesem Bereich mehr Unabhängigkeit anstreben und eigene Systeme entwickeln würde.

WEITERLESEN MIT »SPEKTRUM +«

Im Abo erhalten Sie exklusiven Zugang zu allen Premiumartikeln von »spektrum.de« sowie »Spektrum - Die Woche« als PDF- und App-Ausgabe. Testen Sie 30 Tage uneingeschränkten Zugang zu »Spektrum+« gratis:

Jetzt testen

(Sie müssen Javascript erlauben, um nach der Anmeldung auf diesen Artikel zugreifen zu können)

  • Quellen

Greiff, S. et al.: Promises and challenges of generative artificial intelligence for human learning. Nature Human Behaviour 8, 2024

Jakesch, M. et al.: Bias in AI autocomplete suggestions leads to attitude shift on societal issues. PsyArXiv 10562887, 2024

Jakesch, M. et al.: Co-writing with opinionated language models affects users' views. Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems, 2023

Pellert, M. et al.: AI psychometrics: Assessing the psychological profiles of Large Language Models through psychometric inventories. Perspectives on Psychological Science 19, 2024

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.