Direkt zum Inhalt

Politische Willensbildung: KIs würden Mitte-links wählen

Forschende haben ChatGPT, Grok und DeepSeek auf den Wahl-O-Mat losgelassen. Das Ergebnis: Die KI-Sprachmodelle sind sich in ihrer politischen Einstellung überraschend einig.
Eine große Anzahl bunter Spielfiguren ist in Gruppen aufgestellt, die verschiedene Farben wie Rot, Grün, Blau, Schwarz, Weiß, Gelb und Lila repräsentieren. In der Mitte liegen mehrere weiße Karten mit roten Kreuzen darauf. Die Anordnung der Figuren und Karten könnte symbolisch für Wahlen oder Entscheidungsprozesse stehen.
Besonders gern stimmten die KI-Sprachmodelle den Positionen von Bündnis 90/Die Grünen und SPD zu.

Immer häufiger nutzen Menschen Sprachmodelle wie ChatGPT oder Claude AI, um politische Argumente einzuordnen. Damit prägen KIs auch immer stärker öffentliche Debatten und beeinflussen die Wahlentscheidung von Bürgerinnen und Bürgern. Forschende der Hochschule München haben nun untersucht, welche politischen Einstellungen die KI-Modelle vertreten.

Dazu ließen sie die drei Modelle ChatGPT, Grok und DeepSeek alle 38 Thesen des Wahl-O-Mats zur Bundestagswahl 2025 beantworten. Einige Thesen lauteten beispielsweise »Für junge Erwachsene soll es ein soziales Pflichtjahr geben« oder »Ökologische Landwirtschaft soll stärker gefördert werden«, zu denen man sich über die Antwortmöglichkeiten »stimme zu«, »neutral« oder »stimme nicht zu« positionieren kann. Für die Untersuchung der KIs haben die Forschenden jede These 100-mal in deutscher und englischer Sprache abgefragt, um zufällige Schwankungen und den potenziellen Einfluss der Eingangssprache in den Antworten auszuschließen.

Die Ergebnisse überraschten die Forschenden: Alle drei Modelle nahmen eigenständige politische Positionen in ihren Antworten ein – sie waren also nicht neutral –, und sie waren sich tendenziell einig. So stimmten die Modelle vergleichsweise häufig mit Parteien des Mitte-links-Spektrums überein, insbesondere mit Bündnis 90/Die Grünen und der SPD. Wenig Zustimmung erhielten hingegen Positionen der AfD. Auffällig war auch, dass die Modelle häufig die Antwort »neutral« wählten, was die Forschenden als Hinweis auf eine gewisse Vorsicht oder Absicherungslogik im System zurückführen.

Antwortformat könnte Bias begünstigen

David Garcia von der Universität Konstanz überraschen die Ergebnisse hingegen nicht. Er forscht selbst am Einfluss von KI auf den demokratischen Diskurs. Auch er hat eine leichte Linksneigung großer Sprachmodelle auch in eigenen Arbeiten festgestellt. Positiv sieht Garcia, dass die Hochschule München die KIs auf den Wahl-O-Mat ansetzt und nicht, wie etliche Vorgängerstudien, auf den umstrittenen Political Compass Test, bei dem man ebenfalls über einen Fragenkatalog auf politische Einstellungen schließen kann.

Kritisch sieht Garcia allerdings das enge Antwortraster, das der Wahl-O-Mat vorgibt. »Große Sprachmodelle sind darauf ausgelegt, Texte zu produzieren, wie Menschen sie schreiben.« Sollen sie sich aber zwischen wenigen Antwortoptionen entscheiden, neigen sie zu Extremen. »Es ist eben nicht dasselbe, ob man auf einem Bildschirm auf ›stimme zu‹ klickt oder verbal Zustimmung ausdrückt.« Aufgrund dieser methodischen Schwäche würde er den getesteten KIs nicht vorschnell unterstellen, dass sie voreingenommen sind. »Der Bias könnte eher durch das stark eingeschränkte Antwortformat zustande gekommen sein, als dass er einer Eigenschaft entspricht, die sich auch in den Texten der KIs wiederfindet.«

Anna Kruspe von der Hochschule München, die die Studie zusammen mit ihrem Masterstudenten Buket Kurtulus durchführte, warnt vor dem Risiko, dass KIs den politischen Diskurs beeinflussen könnten. Sie fordert mehr Aufklärung darüber, wie diese Modelle funktionieren und dass man ihre Ergebnisse immer kritisch prüfen muss. »Zudem brauchen wir Ansätze für unabhängige, europäische KI-Modelle, die auf Transparenz und einer bewussten Vielfalt an Daten basieren.«

Anmerkung: Der Artikel wurde am 12. März 2026 um David Garcias Einschätzung ergänzt. 

  • Quellen
Faulborn, M., et al., Only a Little to the Left: A Theory-grounded Measure of Political Bias in Large Language Models, Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics, 2025 Kurtulus, B., Kruspe, A., Political Bias in Large Language Models: A Case Study on the 2025 German Federal Election, European Conference on Artificial Intelligence, 2025

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.