Direkt zum Inhalt

Doktor Whatson: Kann künstliche Intelligenz Menschen diskriminieren?

Wie künstliche Intelligenz Menschen diskriminiert, wer wirklich Schuld daran ist und wie wir dieses Problem lösen können, erfahrt ihr im Video.
Wie (und warum) KI Menschen diskriminiert | KI Teil 3

Veröffentlicht am: 27.08.2021

Sprache: deutsch

Laufzeit: 00:18:00

Wir Menschen verlassen uns heutzutage in vielen Situationen auf die »perfekten« Computer, die keine Fehler machen. Aber im Bereich Machine Learning machen Algorithmen tatsächlich eine Menge Fehler und diskriminieren sogar Minderheiten und Frauen. Wer daran wirklich schuld ist (Spoiler: Nicht der Algorithmus!) und wie man dieses Problem lösen kann, das erfahrt ihr in diesem Video.

Das Doktor Whatson Team hat sich mit dem Max-Planck-Institut für Intelligente Systeme zusammengetan, um eine große Videoserie zum Thema «Künstliche Intelligenz« zu machen. Zusammen mit Annika Buchholz erklären wir, wie Künstliche Intelligenz tatsächlich funktioniert und wie sie gerade erforscht wird.

Lesermeinung

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Quellen

1 – https://www.youtube.com/watch?v=HuorfODPjqA&lc=UgzXg3cQAEmNmg4c9sJ4AaABAg

2 – https://www.youtube.com/watch?v=HuorfODPjqA&lc=UgzH9ftO2vD9nwKS6aF4AaABAg

3 – https://research.aimultiple.com/ai-bias/

4 – https://dam-prod.media.mit.edu/x/2018/02/06/Gender%20Shades%20Intersectional%20Accuracy%20Disparities.pdf bzw. https://www.media.mit.edu/publications/gender-shades-intersectional-accuracy-disparities-in-commercial-gender-classification/

5 – https://dam-prod.media.mit.edu/x/2018/02/05/buolamwini-ms-17_WtMjoGY.pdf bzw. https://www.media.mit.edu/publications/full-gender-shades-thesis-17/

6 – https://www.thispersondoesnotexist.com, https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html

Partnerinhalte