Direkt zum Inhalt

Springers Einwürfe: Der variable Wert des Lebens

In extremen Fällen muss man den Tod von Menschen in Kauf nehmen, um das Leben anderer zu schützen. Aus der moralischen Zwickmühle führt kein universelles Patentrezept.
Autonome Autos der Zukunft kommen heil über die Kreuzung, weil sie mit ihren Sensoren über den perfekten Rundumblick verfügen.

Bald werden selbstfahrende Autos am Verkehr teilnehmen. Durch schlaue Programmierung sollen sie kritische Situationen besser meistern als ein menschlicher Fahrer und werden im Regelfall wohl weniger Unfälle verursachen. Doch für den Fall, dass sie in einen solchen verwickelt werden, müssen die Entwickler vorsorgen. Das belebt seit einigen Jahren die Diskussion um ein moralisches Dilemma, über das wir uns sonst selten Gedanken machen.

Nehmen wir an, dem Lenker – ob Mensch oder Automat – bleibt nur die Wahl, entweder in eine plötzlich auftauchende Fußgängergruppe hineinzufahren oder beim Ausweichen das Fahrzeug samt Insassen in einen Abgrund zu stürzen. Die Entscheidung wird von verschiedenen Parametern abhängen, etwa von der Anzahl der potenziellen Opfer, vielleicht aber auch von deren Alter und Geschlecht. Bei der Diskussion um die Programmierung für solche Fälle wird stillschweigend vorausgesetzt, es gebe einen universellen, kulturübergreifend gültigen Moralcode. Wer würde nicht notfalls dem Überleben von drei jungen Frauen mit kleinen Kindern den Vorzug geben vor dem von zwei Greisen? Doch so einfach ist es nicht.

Seit mehreren Jahren erforscht der Informatiker Iyad Rahwan vom Massachusetts Institute of Technology die oft paradoxen Präferenzen, welche die Menschen von selbstfahrenden Autos verlangen: Im Prinzip sollen Fußgänger unbedingt geschützt werden – aber kaufen will man nur ein Auto, das stets den Insassen Vorrang gibt.

Jetzt hat Rahwan das Nonplusultra einer Umfrage zum moralischen Dilemma vorgelegt. Sein Team stellte ein einfaches Straßenverkehrsspiel namens Moral Machine ins Netz, das bald mehr als zwei Millionen Menschen in 233 Ländern anregte, 40 Millionen Entscheidungen über Leben und Tod von Fußgängern oder Insassen zu treffen (Nature 563, S. 59–64, 2018).

Die Daten offenbaren durchaus globale Präferenzen: Die Mehrheit der Teilnehmer verschonte Menschen gegenüber Tieren, präferierte die jeweils größere Menschengruppe und bevorzugte Junge gegenüber Alten. Soll das aber tatsächlich heißen, Autos sollten künftig so programmiert werden, dass sie im Zweifelsfall Ältere gefährden, um Kinder zu schützen?

Das weltweite Orakel der »moralischen Maschine« offenbarte darüber hinaus allerdings überraschende kulturelle Differenzen. Als Rahwans Team das Spielverhalten nach dem Wohnort der Teilnehmer sortierte, schälten sich drei große »moralische Cluster« mit ähnlichen Präferenzen heraus. Ein westlicher Cluster umfasste Nordamerika und Europa, der östliche mehrere Länder im Fernen und Nahen Osten, und der südliche Cluster vor allem Südamerika.

Beispielsweise bevorzugt der so definierte Süden Frauen und Kinder viel stärker als der Osten, wo das Alter traditionell besonderen Respekt genießt; auch die höhere soziale Stellung gilt im Süden deutlich mehr als im Osten. Wo größere ökonomische Ungleichheit herrscht, wird das Überleben der Reichen positiver gewichtet. Frauen haben im moralischen Dilemma generell bessere Karten als Männer, aber besonders in Regionen, wo mehr in ihre Gesundheit und Lebenserwartung investiert wird.

Ein interessantes Detail ist der Status der Fußgänger. Wenn sie in einem wohlhabenden und gesetzestreuen Land wie Deutschland bei Rot die Straße zu queren versuchen, sind sie deutlich gefährdeter als in einem armen Land mit schwacher Justiz, wo sich Fußgänger ohnedies auf den Straßen tummeln.

Wäre all das beim Programmieren selbstfahrender Autos einzukalkulieren? Oder will man sich auf das Ideal einer universellen Ethik verlassen, die, wie die moralische Maschine beweist, nirgends auf der Welt streng gilt?

Schreiben Sie uns!

Wenn Sie inhaltliche Anmerkungen zu diesem Artikel haben, können Sie die Redaktion per E-Mail informieren. Wir lesen Ihre Zuschrift, bitten jedoch um Verständnis, dass wir nicht jede beantworten können.

  • Quellen
Awad E. et al.: The Moral Machine Experiment. In: Nature 563, S. 59–64, 2018

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.