Direkt zum Inhalt

Spektrum-Podcast: Wenn der Algorithmus Vorurteile hat

Künstliche Intelligenz ist nicht objektiv: Sie übernimmt die Vorurteile des Menschen. KI kann deshalb rassistisch, sexistisch oder anderweitig diskrimierend sein. Je nach Einsatzbereich wird das zum Problem.
Ein kleiner Roboter steht vor einer Tafel

Wut, Trauer, Freude: Schon heute kann künstliche Intelligenz (KI) Emotionen erkennen. Bislang kommt das vor allem in Werbung und Marketing zum Einsatz. So wird etwa mithilfe von Kameras untersucht, wie potenzielle Kundinnen und Kunden auf bestimmte Produkte im Supermarkt oder auf Messen reagieren. Auch in Bewerbungsgesprächen setzen einige Unternehmen bereits KI ein, um mithilfe der Algorithmen mehr über die Bewerberinnen und Bewerber zu erfahren.

Forschende arbeiten daran, diese Technologien noch zu verbessern und so weitere Anwendungsgebiete zu erschließen. In Zukunft könnten beispielsweise Strafverfolgung und Sicherheitsbehörden auf KI setzen, etwa bei Lügendetektoren oder an Grenzübergängen.

Rassistische KI

Dabei gibt es allerdings ein Problem: KI ist – anders als oft vermutet – nicht neutral und objektiv. Auch wenn die Algorithmen dazulernen, basieren sie nämlich auf den Ideen von Menschen und übernehmen so deren Vorurteile. Ein Beispiel ist die Theorie der Basisemotionen des Psychologen Paul Ekman, auf der die Datensätze der Algorithmen häufig basieren. Diese Theorie ist heute allerdings umstritten, weil sie kulturelle und individuelle Unterschiede nicht berücksichtigt.

Studien zeigen beispielsweise, dass KI rassistisch urteilt: So wurden in einer Untersuchung von US-Basketballern den schwarzen Spielern häufiger negative Emotionen unterstellt als ihren weißen Kollegen. Andere Beispiele zeigen einen sexistischen Bias der Algorithmen. Zum Beispiel wurden in Bewerbungsverfahren bei Amazon Frauen häufiger aussortiert als männliche Kandidaten. In einer Studie mit US-Kongressabgeordneten bewertete ein Computerprogramm Frauen als freundlicher und sympathischer.

Geht man davon aus, dass KI in Zukunft noch deutlich häufiger zum Einsatz kommen wird, gilt es daher, diese Vorurteile in den Datensätzen auszumerzen oder sich zumindest darüber im Klaren zu sein, dass auch der Computer diskriminierende Urteile fällen kann. Manon Bischoff erklärt im Gespräch mit detektor.fm-Moderator Marc Zimmer, wie das gelingen könnte und woran die Forschung derzeit arbeitet.

Der Artikel zum Nachlesen: https://detektor.fm/wissen/spektrum-podcast-ki-rassismus-vorurteile

Alle Podcasts im Überblick

Noch mehr hören? Die besten deutschsprachigen Wissens-Podcasts gibt es auf Spektrum.de. Auf dieser Seite finden Sie eine Übersicht.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.