Direkt zum Inhalt

detektor.fm: Wieso diskriminieren künstliche Intelligenzen?

Künstliche Intelligenz

Schwarze Menschen werden von Gesichtserkennungssoftware nicht so gut erkannt wie weiße Menschen. Gesundheitsapps raten bei Eingabe der gleichen Symptome Frauen zu Selbstbehandlung und Männern dazu, einen Arzt aufzusuchen. Die Chat-Software ChatGPT spuckt rassistische und sexistische Inhalte aus. Das sind nur einige Beispiele dafür, was beim Stichwort diskriminierende KI gemeint ist. Aber wie kann das sein? Sollten präzise Berechnungssysteme nicht eigentlich zu einer absoluten Objektivität führen? Im Grunde schon. Subjektiv und diskriminierend ist auch nicht die KI an sich, sondern die Datensätze, mit denen sie gefüttert wird und auf deren Basis sie Entscheidungen trifft. Und diese sind voller Stereotype sowie rassistischer und sexistischer Vorurteile. Wie kann es sein, dass künstliche Intelligenz diskriminierend handelt? Wie könnte das in Zukunft verhindert werden und welche Rolle spielt die Forschung dabei? Darüber hat detektor.fm-Redakteurin Lina Kordes mit Prof. Dr. Serhat Karakayali gesprochen. Er ist Professor für Migration and Mobility Studies an der Leuphana Universität Lüneburg.

Alle Podcasts im Überblick

Noch mehr hören? Die besten deutschsprachigen Wissens-Podcasts gibt es auf Spektrum.de. Auf dieser Seite finden Sie eine Übersicht.

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.