Direkt zum Inhalt

Lobes Digitalfabrik: Wenn ein Gruß zum Gewaltaufruf wird

KI-Systeme haben noch immer Probleme beim Übersetzen. Das kann zu fatalen Missverständnissen führen, wie ein Fall auf Facebook zeigt.
Kommunikation und Missverständnis

Computer spielen besser Schach, Go und Poker als der Mensch, doch wenn es ums Übersetzen geht, hinken künstliche Intelligenzen hinterher. Den Romanbeginn von James Joyces "Ulysses" (1922) – "Stately, plump Buck Mulligan came from the stairhead, bearing a bowl of lather on which a mirror and a razor lay crossed" – übersetzt Google Translate mit den Worten: "Herrlich, plump Buck Mulligan kam aus dem Treppenhaus, Mit einer Schüssel Schaum, auf dem ein Spiegel und ein Rasiermesser lag Gekreuzt." Eigentlich müsste der Satz auf Deutsch eher so heißen: "Stattlich und feist erschien Buck Mulligan am Treppenaustritt, ein Seifenbecken in Händen, auf dem gekreuzt ein Spiegel und ein Rasiermesser lagen." Was Googles Übersetzungsdienst aus diesem weltberühmten Satz macht, hat mit Literatur nicht mehr viel zu tun und gleicht einer Verhunzung der deutschen Sprache. Diese technische Unzulänglichkeit wäre verzeihlich, würden KI-Systeme nicht so eine große Bedeutung in der Alltagskommunikation haben. Dort kann es auf jedes einzelne Wort ankommen.

Wie fatal ein Übersetzungsfehler der Maschine sein kann, demonstriert ein Fall auf Facebook. Dort werden seit ein paar Monaten Posts, die in einer anderen Sprache verfasst werden, automatisch übersetzt; so mancher Nutzer wunderte sich über die ungewohnten Deutschkenntnisse französischer oder spanischer Freunde. Vor zwei Wochen postete ein Bauarbeiter, der in der Siedlung Beitar Illit im Westjordanland nahe Jerusalem lebt, ein Foto, das ihn vor einem Baustellenfahrzeug zeigt, versehen mit einem umgangssprachlichen arabischen Ausdruck für "Guten Morgen!". Ein harmloser Post. Doch Facebooks KI-basierter Übersetzungsdienst, zusammen mit Microsofts Bing-Übersetzungsprogramm entwickelt, übersetzte das Wort mit "Verletze sie!" auf Englisch respektive "Greife sie an!" auf Hebräisch. Aus einem Gruß machte die Maschine kurzerhand einen Gewaltaufruf. Aufgebrachte Nutzer alarmierten daraufhin die Polizei über den Post. Laut einem Bericht der israelischen Tageszeitung "Haaretz" nahm die Polizei den Mann am nächsten Tag fest und verhörte ihn über mehrere Stunden, ob er mit dem Bulldozer einen Terroranschlag plane.

Kafkaeske Folgen

Lastwagen sind in der Vergangenheit häufiger als Waffe bei Terroranschlägen (etwa in Nizza oder Berlin) eingesetzt worden. Die Ermittler schöpften Verdacht. Das israelische Militär unterzieht auf der Suche nach "einsamen Wölfen" Social-Media-Posts von palästinensischen Accounts einer automatisierten Stichwortanalyse, um verdächtige Begriffe zu filtern. Erst nach Stunden intensiver Befragung erkannten die Polizisten schließlich den Fehler.

Wie es zu der fehlerhaften Übersetzung kommen konnte, ist nicht klar. Womöglich griff sich Facebooks Algorithmus mit "verletzen" eine sehr seltene Bedeutung des in der Grußformel enthaltenes Verbs heraus. Facebook entschuldigte sich für den Vorfall. "Leider unterlief unseren Übersetzungssystemen in der vergangenen Woche ein Fehler, der den Post eines Nutzers missinterpretierte", teilte das Unternehmen mit.

Der Irrtum war kein Einzelfall. Immer wieder kommt es zu verhängnisvollen Pannen mit maschinellen Übersetzungssystemen. Der chinesische Messengerdienst Wechat übersetzte vor wenigen Wochen den Begriff "hei laowai", was so viel wie "schwarzer Ausländer" bedeutet, mit "Nigger". Dass der Post ausgerechnet von einer afroamerikanischen Schauspielerin stammte, die damit diskriminiert wurde, ist die bittere Pointe dieser Anekdote.

Die Vorfälle belegen, dass künstliche Intelligenzen trotz beträchtlicher Fortschritte massive Probleme in der Erkennung von Satzstrukturen und Bedeutungsnuancen haben und erratische Algorithmen fatale, geradezu kafkaeske gesellschaftliche Folgen zeitigen können. Es zeigt auch, wie durch fehlerhafte beziehungsweise unzulängliche Programmierung künstlich Fake News produziert werden, die unschuldige Menschen vorverurteilen.

Man möchte sich besser nicht vorstellen, welche Reaktionen ein fehlerhaft übersetzter Post in Donald Trumps Twitter-Feed provozierte. Das Problem ist nicht, dass Denkmaschinen immer schlauer werden, sondern dass der Mensch ob dieser Automation zunehmend sein Denken ausschaltet. Im Fall des palästinensischen Bauarbeiters hätte die Konsultation eines arabischen Muttersprachlers genügt, um das Missverständnis aufzuklären.

Schreiben Sie uns!

7 Beiträge anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.