Computer spielen besser Schach, Go und Poker als der Mensch, doch wenn es ums Übersetzen geht, hinken künstliche Intelligenzen hinterher. Den Romanbeginn von James Joyces "Ulysses" (1922) – "Stately, plump Buck Mulligan came from the stairhead, bearing a bowl of lather on which a mirror and a razor lay crossed" – übersetzt Google Translate mit den Worten: "Herrlich, plump Buck Mulligan kam aus dem Treppenhaus, Mit einer Schüssel Schaum, auf dem ein Spiegel und ein Rasiermesser lag Gekreuzt." Eigentlich müsste der Satz auf Deutsch eher so heißen: "Stattlich und feist erschien Buck Mulligan am Treppenaustritt, ein Seifenbecken in Händen, auf dem gekreuzt ein Spiegel und ein Rasiermesser lagen." Was Googles Übersetzungsdienst aus diesem weltberühmten Satz macht, hat mit Literatur nicht mehr viel zu tun und gleicht einer Verhunzung der deutschen Sprache. Diese technische Unzulänglichkeit wäre verzeihlich, würden KI-Systeme nicht so eine große Bedeutung in der Alltagskommunikation haben. Dort kann es auf jedes einzelne Wort ankommen.

Wie fatal ein Übersetzungsfehler der Maschine sein kann, demonstriert ein Fall auf Facebook. Dort werden seit ein paar Monaten Posts, die in einer anderen Sprache verfasst werden, automatisch übersetzt; so mancher Nutzer wunderte sich über die ungewohnten Deutschkenntnisse französischer oder spanischer Freunde. Vor zwei Wochen postete ein Bauarbeiter, der in der Siedlung Beitar Illit im Westjordanland nahe Jerusalem lebt, ein Foto, das ihn vor einem Baustellenfahrzeug zeigt, versehen mit einem umgangssprachlichen arabischen Ausdruck für "Guten Morgen!". Ein harmloser Post. Doch Facebooks KI-basierter Übersetzungsdienst, zusammen mit Microsofts Bing-Übersetzungsprogramm entwickelt, übersetzte das Wort mit "Verletze sie!" auf Englisch respektive "Greife sie an!" auf Hebräisch. Aus einem Gruß machte die Maschine kurzerhand einen Gewaltaufruf. Aufgebrachte Nutzer alarmierten daraufhin die Polizei über den Post. Laut einem Bericht der israelischen Tageszeitung "Haaretz" nahm die Polizei den Mann am nächsten Tag fest und verhörte ihn über mehrere Stunden, ob er mit dem Bulldozer einen Terroranschlag plane.

Kafkaeske Folgen

Lastwagen sind in der Vergangenheit häufiger als Waffe bei Terroranschlägen (etwa in Nizza oder Berlin) eingesetzt worden. Die Ermittler schöpften Verdacht. Das israelische Militär unterzieht auf der Suche nach "einsamen Wölfen" Social-Media-Posts von palästinensischen Accounts einer automatisierten Stichwortanalyse, um verdächtige Begriffe zu filtern. Erst nach Stunden intensiver Befragung erkannten die Polizisten schließlich den Fehler.

Wie es zu der fehlerhaften Übersetzung kommen konnte, ist nicht klar. Womöglich griff sich Facebooks Algorithmus mit "verletzen" eine sehr seltene Bedeutung des in der Grußformel enthaltenes Verbs heraus. Facebook entschuldigte sich für den Vorfall. "Leider unterlief unseren Übersetzungssystemen in der vergangenen Woche ein Fehler, der den Post eines Nutzers missinterpretierte", teilte das Unternehmen mit.

Der Irrtum war kein Einzelfall. Immer wieder kommt es zu verhängnisvollen Pannen mit maschinellen Übersetzungssystemen. Der chinesische Messengerdienst Wechat übersetzte vor wenigen Wochen den Begriff "hei laowai", was so viel wie "schwarzer Ausländer" bedeutet, mit "Nigger". Dass der Post ausgerechnet von einer afroamerikanischen Schauspielerin stammte, die damit diskriminiert wurde, ist die bittere Pointe dieser Anekdote.

Die Vorfälle belegen, dass künstliche Intelligenzen trotz beträchtlicher Fortschritte massive Probleme in der Erkennung von Satzstrukturen und Bedeutungsnuancen haben und erratische Algorithmen fatale, geradezu kafkaeske gesellschaftliche Folgen zeitigen können. Es zeigt auch, wie durch fehlerhafte beziehungsweise unzulängliche Programmierung künstlich Fake News produziert werden, die unschuldige Menschen vorverurteilen.

Man möchte sich besser nicht vorstellen, welche Reaktionen ein fehlerhaft übersetzter Post in Donald Trumps Twitter-Feed provozierte. Das Problem ist nicht, dass Denkmaschinen immer schlauer werden, sondern dass der Mensch ob dieser Automation zunehmend sein Denken ausschaltet. Im Fall des palästinensischen Bauarbeiters hätte die Konsultation eines arabischen Muttersprachlers genügt, um das Missverständnis aufzuklären.