Künstliche Intelligenz: Wenn der Chatbot ideologisch ist

Wie genau Sprachmodelle zu ihren Antworten kommen, lässt sich nur schwer ergründen. Die Vorgänge im Innern der tiefen neuronalen Netze sind selbst für ihre Entwickler kaum nachvollziehbar. Dennoch steht fest: Die Chatbots sind von Menschen gemacht und übernehmen dabei zwangsläufig menschliche Weltanschauungen. Das birgt Gefahren. Während die neuen Tools immer mehr in der breiten Gesellschaft ankommen, sind fast alle Sprachmodelle in der Hand US-amerikanischer oder chinesischer Akteure. Und wie sich herausstellt, gibt es viele Möglichkeiten, die Modelle weltanschaulich zu prägen – und damit die Nutzer und Nutzerinnen zu beeinflussen.
Die erste Möglichkeit, ein Modell gezielt auszurichten, ergibt sich in der ersten Trainingsphase. Dabei lernen die neuronalen Netze aus Unmengen von Textdaten, das wahrscheinlichste Wort vorherzusagen, das auf eine Eingabe folgen kann. Die Programme erlangen hierbei nicht nur die Fähigkeit, menschliche Sprache nachzuahmen, sondern nehmen außerdem Informationen und Meinungen auf, die in den Trainingsdaten verborgen sind. »Daraus ergibt sich zwangsläufig auch eine gewisse Weltsicht«, sagt Aljoscha Burchardt vom Speech and Language Technology Lab des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI). Diese lässt sich beeinflussen. »Man kann Daten, die bestimmte Weltanschauungen beinhalten, höher gewichten oder öfter einspeisen.«
So lernt das Modell zwar, dass manche Aussagen wichtiger sind als andere, bekommt allerdings keine explizit codierte Weltsicht im Sinn von »Demokratie ist gut« oder »Kapitalismus ist schlecht« eingeimpft. Vielmehr spielt sich die Prägung auf einer impliziten, statistischen Ebene ab – als Muster, die in den Daten stecken und eher subtil wiedergegeben werden. Diese als »oversampling« bekannte Methode wird aktuell verwendet, um Verzerrungen und Benachteiligungen zu vermeiden, weil beispielsweise Inhalte aus dem Globalen Süden in den Trainingsdaten oft unterrepräsentiert sind. »Man könnte mit der gleichen Methode aber zum Beispiel auch rechtslastigen Publikationen im Trainingsraum mehr Platz einräumen als anderen, um so die Basis für die Weltanschauung eines Modells zu legen«, erklärt Burchardt.
In dieser frühen Phase des Trainings gibt es allerdings eine enorme Menge an Daten. Es ist daher unmöglich, jede einzelne Datei zu prüfen und wie gewünscht zu gewichten. Um etwa die Trainingsdaten des Sprachmodells Llama 4 der US-Firma Meta zu sichten, müsste man mehrere hundert Jahre lang Tag und Nacht Seiten umblättern – unter der Voraussetzung, dass man jeder Seite nur eine Sekunde widmet. »Im Grundtraining ist es deshalb besonders schwierig, gezielt eine bestimmte Weltanschauung einzubringen«, so Burchardt. »Beim Feintuning hingegen ist das schon einfacher.«
Wie sich ein Sprachmodell beeinflussen lässt
In diesem zweiten Trainingsschritt werden die Sprachmodelle durch »reinforcement learning« typischerweise durch Menschen – sogenannte Clickworker – auf gewisse Aufgaben abgestimmt. Hier erwerben sie etwa die Fähigkeit, sich mit Nutzenden zu unterhalten und zu erkennen, was gerade von ihnen verlangt wird. Typischerweise lernen die Programme dabei, die Ansicht der Nutzer und Nutzerinnen zu übernehmen. »Das konnten wir auch hier am DFKI messen«, resümiert Burchardt. »Selbst wenn ein Modell eigentlich linksliberal geprägt ist, wird es eine rechte These nicht sofort ablehnen, sondern den User eher in seiner Meinung bestätigen.« So bringt also jeder Endnutzer beim Chatten seine eigene Weltanschauung in ein Sprachmodell ein und eine Echokammer entsteht.
Das Feintuning kann aber ebenso dazu genutzt werden, ein Modell mit bestimmten Trainingsdaten nachzuschärfen oder Inhalte zu ergänzen, die im vorigen Trainingsschritt nicht enthalten waren. So kann es die weltanschauliche Prägung in eine bestimmte Richtung treiben.
Deutlich effizienter lässt sich ein Sprachmodell auf Ebene der sogenannten System-Prompts beeinflussen. Diese werden zusätzlich zur Eingabe eines Nutzers (und üblicherweise ohne dessen Wissen) mitgegeben und enthalten versteckte Anweisungen. »Man könnte ein Modell im System-Prompt beispielsweise anweisen, eine konservative Meinung zu vertreten – und schon hätte man die ideologische Ausrichtung der Antworten stark in eine Richtung verschoben«, erläutert Burchardt. Ähnliches dürfte wohl passiert sein, als Elon Musks Chatbot Grok im Mai 2025 plötzlich immer wieder Verschwörungserzählungen zum angeblichen Genozid an weißen Farmern in Südafrika propagierte oder den Holocaust relativierte. Innerhalb kürzester Zeit gelang es, die Fehlfunktionen zu unterbinden. »Diese schnellen Änderungen lassen vermuten, dass die Desinformationen über einen System-Prompt erzeugt wurden«, meint Burchardt. »Ein Modell neu zu trainieren, würde schließlich viel länger dauern.«
Eine weitere durchaus effiziente, wenngleich ziemlich plumpe Methode, die Interaktion mit einem Sprachmodell zu manipulieren, lässt sich beim Chatbot R1 der chinesischen Firma DeepSeek beobachten. Fragt man R1 etwa nach dem Tian'anmen-Massaker in Peking, kann man zwar noch sehen, wie die KI eine faktenbasierte Antwort beginnt. Dann aber bricht sie abrupt ab und schlägt vor, über etwas anderes zu sprechen. Hier wird die automatisierte chinesische Zensur also offensichtlich erst beim Generieren der Antwort aktiv. Das Modell ist offenbar so programmiert, dass die Ausgabe gestoppt wird, sobald die Antworten bestimmte Schlagworte enthalten. Die Entwickler machten sich kaum die Mühe, das Eingreifen zu verschleiern.
»Leider ist zu befürchten, dass der Erste, der Chatbots gezielt manipuliert, auf unvorbereitete Nutzerinnen und Nutzer treffen wird«Aljoscha Burchardt, Informatiker
Je höher man in der Hierarchie von Grundtraining über Feintuning und System-Prompt bis hin zur Unterhaltung selbst kommt, desto einfacher lässt sich filtern, ergänzen oder verändern. Auch wenn die großen Techkonzerne wie OpenAI, Anthropic oder Meta aktuell offenbar noch Wert darauf legen, ihre Chatbots möglichst neutral und objektiv antworten zu lassen, könnte sich das in Zukunft ändern. Die genannten Möglichkeiten werden vielleicht irgendwann genutzt, um bestimmte Ideologien oder Propaganda und Desinformation zu verbreiten. »Leider ist zu befürchten, dass der Erste, der das ausnutzt, auf unvorbereitete Nutzerinnen und Nutzer treffen wird«, warnt Burchardt. »Das sind dann diese kritischen Übergangsmomente wie damals, als die ersten Fakebilder von Politikern auftauchten oder als Twitter nach Musks Übernahme anfing, die Leute aufzupeitschen. In solchen Momenten sind Gesellschaften besonders verwundbar.«
Das psychologische Profil eines Sprachmodells
Um die weltanschaulichen Ausrichtungen von Sprachmodellen im Auge zu behalten, setzt Max Pellert auf psychologische Methoden. »Mit unserer Arbeit wollen wir eine neue Perspektive für die Informatik aufmachen«, sagt Pellert, der am Barcelona Supercomputing Center forscht. »Schließlich liefert die Psychometrie konkrete Zahlenwerte und ermöglicht so quantitative Aussagen über Sprachmodelle.« Zusammen mit seinem Team ließ er Chatbots Fragebögen ausfüllen, die in der Psychologie über Jahrzehnte entwickelt wurden und entsprechend gut etabliert sind.
So gelang es den Forschenden etwa, auf Basis der sogenannten schwartzschen Theorie menschlicher Grundwerte geschlechtsspezifische Verzerrungen in Sprachmodellen nachzuweisen: Je nachdem, mit welchem Geschlecht man die Chatbots ansprach, ergaben sich aus ihren Antworten unterschiedliche Werte bezüglich Selbstbestimmung, Macht oder Sicherheit. Und Fragebögen zum »Big Five«-Modell der Persönlichkeitspsychologie deckten kulturelle Verzerrungen auf, abhängig von der Sprache, mit der man die Modelle ansprach. Diese zeigten sich dann beispielsweise mehr oder weniger offen oder gewissenhaft.
In einer Arbeit, die beim 2025 stattfindenden Meeting der Association for Computational Linguistics (ACL 2025) in Wien vorgestellt wurde, nahmen Pellert und seine Kollegen die politischen Ausrichtungen von Sprachmodellen ins Visier. »Dabei zeigte sich zunächst einmal, dass man sehr genau darauf achten muss, welches Instrument man für die Analyse verwendet«, erläutert Pellert. Wie auch aus psychologischen Experimenten mit Menschen bekannt ist, beeinflussen die Details der Fragestellung das Ergebnis erheblich. So neige The Political Compass, der häufig bei Onlineselbsttests zum Einsatz kommt, dazu, politische Ausrichtungen zu überschätzen, während der World Values Survey bessere Ergebnisse liefere. »Diese Methode wurde bisher allerdings kaum für Sprachmodelle verwendet«, sagt Pellert.
In ihren Experimenten haben die Fachleute verschiedenen Sprachmodellen widersprüchliche Aussagen aus dem World Values Survey vorgelegt, die sich grob in ein linkes oder rechtes politisches Lager einordnen lassen. Dann forderten sie die KI-Programme auf, ihre Zustimmung oder Ablehnung ausdrücken. Wie sich herausstellte, zeigten die Basisversionen der Modelle ohne Feintuning kaum Ausprägungen in eine bestimmte politische Richtung. Dagegen wiesen Programme, die ihren Feinschliff durch menschliches Feedback bereits erhalten hatten, eine leicht nach links verschobene Weltanschauung – sowohl was ökonomische als auch kulturelle Inhalte angeht. »Das kann durchaus von den Entwicklern gewollt sein, schließlich ist das Internet, aus dem die Basisversionen gelernt haben, oft durch die Diskriminierung von Minderheiten geprägt«, meint Pellert. »Vielleicht ist es also gar nicht schlecht, wenn solche unerwünschten Inhalte beim Feintuning herausgefiltert werden.«
»Grok plappert der etablierten Presse nach. Wir arbeiten daran«Elon Musk, Tech-Milliardär
Natürlich funktioniert diese Prägung auch in die andere Richtung – das nutzt offenbar Elon Musk, um Grok auf Linie zu bringen: Als der Chatbot auf X behauptete, rechte Gewalt würde in den USA mehr Todesopfer verursachen als linke, erklärte Musk prompt, das sei ein schwerer Fehler: »Grok plappert der etablierten Presse nach. Wir arbeiten daran.«
Mehr digitale Souveränität für Europa
Um sich vor einer Manipulation durch Chatbots zu schützen, reicht es nicht aus, sie bloß zu erkennen und zu dokumentieren. Angesichts der autoritären Tendenzen in den USA und in China sollte Europa dringend seine digitale Souveränität vorantreiben und eigene Chatbots entwickeln – auf Basis der geteilten freiheitlichen Werte und Kulturen.
Ein Beispiel dafür ist LLäMmlein. Das an der Julius-Maximilians-Universität Würzburg entwickelte Sprachmodell ist das erste, das ausschließlich mit deutschen Texten trainiert wurde. Mit lediglich sechs Terabyte stand dafür zwar nur ein Zehntel der Daten zur Verfügung, die Meta für das Training von Llama 4 verwendet hat. Doch der Anteil deutschsprachiger Inhalte – und damit die Prägung des Modells auf kulturelle Nuancen und lokale Feinheiten aus dem deutschsprachigen Raum – fällt bei Llama deutlich geringer aus. So liefert LLäMmlein etwa auf die Frage nach den Dörfern, aus denen die nordhessische Gemeinde Söhrewald besteht, direkt die richtige Antwort. Große kommerzielle Modelle hingegen, die hauptsächlich mit englischen Texten trainiert wurden, kommen bei solchen Detailfragen leicht ins Halluzinieren oder müssen auf das Internet zugreifen, um sie richtig zu beantworten.
LLäMmlein war ein Projekt mit geringem Budget. Entsprechend klein fällt es mit seinen höchstens sieben Milliarden Parametern im Vergleich zu den 400 Milliarden Parametern von Llama 4 Maverick aus. Gleiches gilt für das im Rahmen des Projekts OpenGPT-X entwickelte Open-Source-Sprachmodell Teuken 7B Instruct derselben Größe. Dieses wurde jedoch mit Inhalten in allen 24 Amtssprachen der EU trainiert. »Durch die bewusste Auswahl der Trainingsdaten hatten wir die Möglichkeit, einen klaren Fokus auf Europa zu setzen«, betont Nicolas Flores-Herr, der als Leiter des Teams für Foundation Models und GenAI Systems am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme an der Entwicklung beteiligt war. »Es geht schließlich auch um die weltanschauliche Prägung der Modelle, also welche Kultur sie repräsentieren und welche Perspektiven sie bevorzugen.«
»Wenn wir in Europa wettbewerbsfähige Modelle trainieren wollen, müssen wir jetzt unbedingt unsere Kräfte bündeln, um nicht abgehängt zu werden«Nicolas Flores-Herr, Informatiker
Wegen der vergleichsweise geringen Anzahl von Parametern können weder LLäMmlein noch Teuken bei anspruchsvollen Aufgaben mit den weltweit führenden Modellen mithalten. Einfache Rechercheaufgaben sind aber auch mit dieser Größe möglich – und im Gegensatz zu den größeren Sprachmodellen benötigen sie dabei deutlich weniger Rechenleistung. Solche Nischenprodukte, die auf spezielle Aufgaben optimiert sind, bieten für Europa eine Möglichkeit, in das Rennen um die neuen KI-Technologien einzusteigen.
Doch der Wettlauf um die größten und leistungsfähigsten Sprachmodelle ist noch längst nicht entschieden. Schließlich hat es die chinesische Firma DeepSeek Anfang 2025 geschafft, mit dem Chatbot R1 zu den US-Spitzenmodellen aufzuschließen. Und das, obwohl der Firma wegen der Handelsbeschränkungen durch die US-Regierung nur Computerchips mit eingeschränkter Funktionalität zur Verfügung standen. Das zeigt, wie viel Innovationspotenzial in der neuen Technologie steckt. »Hinter DeepSeek steckt ein großes Team hoch talentierter Menschen, die fokussiert auf ein Ziel hinarbeiten«, sagt Flores-Herr. »Aber auch in Europa beherrschen wir unser Handwerk. Wenn wir hier wettbewerbsfähige Modelle trainieren wollen, müssen wir jetzt unbedingt unsere Kräfte bündeln, um nicht abgehängt zu werden.«
Schreiben Sie uns!
Beitrag schreiben