Direkt zum Inhalt

»Herrschaft der Roboter«: Künstliche Intelligenz: über Algorithmen und ihre Vorurteile

Warum uns künstliche Intelligenz immer noch als beschränkt erscheint und welche Probleme sie zu lösen hilft, das erklärt Martin Ford in seinem informativen und lehrreichen Buch.
Person tippt auf Smartphone, Icons symbolisieren Austausch zwischen KI und Mensch

Wenn auf eine Stellenausschreibung Hunderte von Bewerbungen erfolgen, dann erscheint es fair, wenn diese von einem vermeintlich neutralen Bewertungssystem sortiert werden, das eine künstliche Intelligenz bereitstellt. Leider hat dieses die gleichen rassistischen und sexistischen Vorurteile wie sie Mitarbeiter von Personalabteilungen haben können. Wie ist das möglich?

Ein solches System besteht aus einem komplexen Algorithmus, der in einer Fülle von Daten Muster erkennen und entsprechend ordnen kann. Diese Daten werden in Netzwerken verarbeitet, die sich aus künstlichen Neuronen zusammensetzen, die ähnlich wie die Zellen im Gehirn miteinander verbunden sein sollen. Dann aber beginnt das Problem: Woher stammen diese Daten? Die Antwort lautet: aus vorhandenen Bewerbungsunterlagen, die noch Menschen mit ihren Vorurteilen erstellten. Kann man das nicht ändern?

Martin Ford ist Gründer eines Software-Unternehmens in den USA und Bestsellerautor im Bereich künstliche Intelligenz. In diesem Buch schildert er nicht nur die bekannten Potenziale der KI, die großen Menschheitsprobleme wie Klimawandel, Nahrungsmangel oder Ressourcenverschwendung durch eine immer intelligentere und damit effizientere Lenkung der Produktion zu lösen. Er diskutiert auch die damit verbundenen Risiken, die zum Beispiel in einem ausufernden Überwachungsstaat, der Informationsmacht der großen Tech-Konzerne oder der Beeinflussung der Menschen durch überzeugend gefälschte Inhalte wie etwa Filme liegen. Vor allem aber erklärt Ford, wie KI funktioniert. Ihr Wegbereiter war Alan Turing (1912–1954), der die Vision hatte, dass eine Rechenmaschine mit der menschlichen Intelligenz konkurrieren könnte. Aber bis zum Ende des 20. Jahrhunderts kam man dabei nicht allzu sehr voran.

Auch große Datenmengen reproduzieren Vorurteile

Erst dann entstanden Computerzentren mit immenser Rechenleistung, die es ermöglichen, neuronale Netzwerke zur Speicherung großer Datenmengen zu betreiben. Warum braucht man solche Datenmengen? Man muss einen Algorithmus anlernen, gleichgültig, ob er Stellenbewerber sortieren, ein Auto lenken, Röntgenbilder beurteilen oder Gesichter erkennen soll. Man zeigt ihm Bilder oder liefert Texte, aus denen er Muster entwickelt.

Aber diese müssen erst mal in großen Mengen zur Verfügung stehen. Wo findet man sie in Massen? Etwa seit der Jahrtausendwende zum Beispiel in Suchmaschinen und den sozialen Netzwerken. Oder man generiert sie selbst. Tesla rüstet seine Autos mit jeweils zwölf Kameras aus, die ihre Daten an den Hersteller liefern. Bei einigen Hunderttausend Autos kommt so eine große Datenmenge zusammen; dennoch sind wirklich selbstfahrende Autos aktuell noch Zukunftsmusik. Das hier angewandte Verfahren nennt man »Deep Learning«. Es ist der heute bei KI-Anwendungen vorherrschende Weg, den man von einem anderen, weniger begangenen unterscheiden muss: der »Trial and Error«-Methode.

Als man noch nicht wie heute über riesige Datenmengen verfügte, ließ man in Billiglohnländern Bilder zu Hunderttausenden von Menschen beschriften, damit ein Algorithmus anhand dieser Bilder lernen konnte, einen Löwen von einer Giraffe zu unterscheiden. Dieses Verfahren war behäbig: Kleine Kinder lernen schneller und mit unendlich weniger Daten. Obendrein sind sie mit zunehmender Übung in der Lage, die Sprache zu verstehen, in der solche Unterscheidungen formuliert werden.

Für einen vergleichbaren Lernvorgang braucht ein Algorithmus dagegen unendlich viele Daten und ist zudem darauf angewiesen, dass sie der Realität entstammen. Also kann ein Algorithmus, der Bewerbungen bewerten soll, nur von Unterlagen lernen, die bisher von Bewerbungen angefertigt wurden. Da er nur Muster erkennt und nichts versteht, übernimmt er die vorhandenen Strukturen, so etwa auch einen impliziten Sexismus.

Natürlich gefährden solche KI-Anwendungen Arbeitsplätze und vielleicht – das betont Ford – auch das wirtschaftliche Wachstum, wenn arbeitslos gewordene Konsumenten über weniger Geld verfügen. Auf Hilfe durch Robotertechnik im Alltag dürfe man auch noch nicht hoffen, so der Autor. Denn sie könne nur in einer gleichbleibenden Umgebung wie einer Lagerhalle operieren, schwerlich in einem Familienalltag. Noch dazu gehe ihr bis auf Weiteres die Fingerfertigkeit ab. Das richtige Bier aus dem Kühlschrank zu holen, zu öffnen und einzuschenken, dazu brauche man einen Diener beziehungsweise den Gatten.

Fazit: Das Buch ist sehr informativ, lehrreich, also unbedingt lesenswert – volle Punktzahl!

Kennen Sie schon …

Spektrum - Die Woche – Unsere Forschungshighlights aus 2025

Fortschritte in der Krebsimmuntherapie, neue Erkenntnisse zum Altern, Entwicklungen in der Quantenphysik, KI in der Mathematik und bedeutende astronomische Beobachtungen: In der letzten »Woche«-Ausgabe des Jahres 2025 blicken wir auf die zentralen Forschungsergebnisse zurück.

Spektrum - Die Woche – Ein alter KI-Ansatz für wahre maschinelle Intelligenz?

Wahre maschinelle Intelligenz – Transparenz und feste Regeln zeigen einen Weg, die KI die Fähigkeit geben könnte, logische Schlüsse zu ziehen. Außerdem: Eisen für die Energiewende verbrennen, das Paradoxon fehlender Information im Universum und Schaden Energydrinks dem Gehirn Jugendlicher?

Gehirn&Geist – Wer entscheidet? Wie das Gehirn unseren freien Willen beeinflusst

Was bedeutet es, ein Bewusstsein zu haben? Haben wir einen freien Willen? Diese Fragen beschäftigen Neurowissenschaft, Philosophie und Theologie gleichermaßen. Der erste Artikel zum Titelthema zeichnet die Entwicklung der neurowissenschaftlichen Forschung nach und zeigt, wie das Gehirn das subjektive Erleben formt. Anschließend geht es im Interview mit dem Neurophilosophen Michael Pauen um die Frage, ob wir frei und selbstbestimmt handeln oder nur Marionetten unseres Gehirns sind. Die Antwort hat Konsequenzen für unser Selbstbild, die Rechtsprechung und unseren Umgang mit KI. Daneben berichten wir, wie virtuelle Szenarien die traditionelle Psychotherapie erfolgreich ergänzen und vor allem Angststörungen und Posttraumatische Belastungsstörungen lindern können. Ein weiterer Artikel beleuchtet neue Therapieansätze bei Suchterkrankungen, die die Traumata, die viele Suchterkrankte in ihrer Kindheit und Jugend erfahren haben, berücksichtigen. Zudem beschäftigen wir uns mit der Theorienkrise in der Psychologie: Der Risikoforscher Gerd Gigerenzer erklärt, warum die Psychologie dringend wieder lernen muss, ihre Theorien zu präzisieren.

Schreiben Sie uns!

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.