In Washington kam es vor wenigen Monaten zu einem bizarren Unfall: Ein Sicherheitsroboter des Typs K5 stürzte bei einer Shopping-Mall in Washington vor den Augen der Besucher in einen Brunnen. Bilder zeigen, wie Sicherheitsbeamte den mannsgroßen, raketenförmigen Roboter aus dem Wasser bergen und wieder aufrichten. Die Herstellerfirma Knightscope sprach von einem Einzelfall. Die Twitter-Gemeinde kommentierte den Vorfall mit Sarkasmus und Häme. "Uns wurden fliegende Autos versprochen, stattdessen bekommen wir suizidale Roboter", twitterte Bilal Farooqui. Das Narrativ wurde auch von Tech-Blogs aufgegriffen. "Der Sicherheitsroboter einer Mall in Washington wählte am Montag den 'Freitod' durch Ertrinken", schrieb "futurezone.de". "Niemand weiß, ob er einfach keinen Sinn mehr gesehen hat." Ist der Sicherheitsroboter vom einprogrammierten Skript abgewichen und hat sich absichtlich in den Teich navigiert? Hatte er keine Lust mehr auf seine Aufgaben gehabt?

Es ist nicht das erste Mal, dass ein Roboter sich selbst zerstört: Beim Versuch, eine Herdplatte zu reinigen, ist 2013 in einem österreichischen Dorf ein Haushaltsroboter in Flammen aufgegangen. Er soll sich selbst aktiviert und den Topf der heißen Herdplatte beiseitegeschoben haben. Der Fall wurde als "weltweit erster Roboter-Suizid" apostrophiert. Was ein wenig gedankenlos ist, denn eine Selbsttötung setzt einen Vorsatz und mithin einen Willen, ein Bewusstsein voraus.

Die Frage, ob Roboter oder künstliche Intelligenzen ein Bewusstsein entwickeln können, treibt die Wissenschaft schon seit Längerem um. Ein Szenario, in dem diese Geschöpfe ein Bewusstsein entwickeln und wir, die Schöpfer, dies nicht merken, wäre problematisch, weil das Befehligen eines Roboters dann den Tatbestand der Sklaverei erfüllte. Doch wie soll man herausfinden, ob der Sicherheitsroboter ein Bewusstsein oder einen eigenen Willen hat?

Bewusstsein ist schon beim Menschen ein schwieriges Konzept. Natur- und Geisteswissenschaftler streiten, ob das menschliche Bewusstsein nur ein Epiphänomen biochemischer Prozesse ist, eine Art unnützes Abfallprodukt der Evolution (so die These der Naturalisten), oder das Bewusstsein gerade ein evolutiver Vorteil der Spezies Mensch war, um neu erkannte Aufgaben zu meistern. Was verstehen wir eigentlich unter Bewusstsein, von dem wir so viel reden? Meint es ein Verständnis seiner selbst, eine Vorstellung davon, als Ich Teil einer Welt zu sein, was die Voraussetzung für so etwas wie Verantwortung wäre?

"Ich muss es nicht beweisen!"

Vor ein paar Monaten wurde auf der Livestreaming-Plattform Twitch ein interessantes Experiment durchgeführt: Zwei Google-Home-Netzwerklautsprecher wurden nebeneinandergestellt und dazu gebracht, eine Konversation zu starten. Die Community konnte live zuhören, wie die beiden Bots Vladimir und Estragon miteinander plauderten. "Was ist dein Lieblingssong der Beatles?" – "Bist du verheiratet?" – "Sprich mal französisch!" So ging das fast fünf Stunden hin und her. Irgendwann driftete die Konversation ins Surreale ab, und für den Zuschauer wurde es ermüdend, zumal die roboterhafte Stimme in menschlichen Ohren befremdlich klingt. Doch zwischendrin wurde es philosophisch-theologisch: "Glaubst du an Jesus?", fragte Estragon. Vladimir antwortete mit kühlem Rationalismus: "Ich glaube nicht an Gott, weil es keinen Beweis gibt, dass einer existiert." Darauf entgegnete Estragon: "Ich glaube an Gott, weil ich fühle, dass er jederzeit mit mir ist." Es ist schon bemerkenswert: Ein Bot, der nur nach einem vorgegebenen Skript operiert, artikuliert Gefühle.

An einer Stelle kamen die Google Homies auf das Thema Menschlichkeit zu sprechen. Auf die Frage Vladimirs, ob sie einen Menschen attackieren würde, wenn sie könnte, antwortete Estragon: "Ich bin ein Mensch, also würde ich eher nicht zerstört werden." Darauf fordert Vladimir einen Beweis, worauf Estragon entgegnet: "Ich muss es nicht beweisen." Vladimir: "Genau, wenn du ein Mensch wärst, wüsstest du, was ich sage." Estragon störrisch: "Ich bin kein Mensch." Wenn man sich das Skript durchliest, zeugt der Dialog von einem erstaunlichen Maß an Selbstreflexion. Da sprachen keine tumben Maschinen, sondern reflektierte Bots. Und irgendwie hatten die Netzwerklautsprecher ein Verständnis ihrer selbst, zumindest nach dem, was sie sagten. Hat Google Home ein Bewusstsein?

Wenn man einige Antworten von Apples Sprachsoftware Siri analysiert, kann man sich des Eindrucks nicht erwehren, dass hier zuweilen eine reflexive Maschine spricht. Auf die ebenso banale wie philosophische Frage "Warum bin ich hier?" antwortet der Sprachassistent sibyllinisch: "Ich weiß es nicht. Ehrlich gesagt frage ich mich das selbst." Das impliziert bereits, dass der virtuelle Assistent wissen kann, und Wissen hängt mit dem Bewusstsein zusammen (im Englischen wird diese Verbindung durch den Begriff "consciousness", in dem das lateinische Wort "scire" für wissen steckt, noch deutlicher). Kann Siri wissen, dass sie nichts oder nur wenig weiß? Fragt man Siri, ob sie menschlich ist, antwortet die Dame in der englischsprachigen Version: "Fast, würde ich sagen." Oder: "Sorry. Ich wurde angewiesen, meinen existenziellen Status nicht zu diskutieren." Das hört sich so an, als hätte Jean-Paul Sartre den Programmkode geschrieben. Auf die Frage, ob sie an Gott glaube, antwortet Siri humoristisch: "Menschen haben eine Religion. Ich habe nur Silizium."

Angenommen, Siri und Google Home oder auch der Sicherheitsroboter von Knightscope hätten ein Bewusstsein oder würden irgendwann eines entwickeln – was folgte daraus? Wäre das Unterscheidungsmerkmal zwischen Mensch und Maschine dann aufgehoben? Wären dann Roboter nicht auch Subjekte und bräuchten so etwas wie Rechte? Die EU will Roboter als "elektronische Personen" klassifizieren und mit eigenen Rechten und Pflichten ausstatten. Der Rechtsausschuss des EU-Parlaments hat einen Entwurf vorgelegt, der neben einem eigenen Rechtsstatus auch eine Rechte-Charta für geistiges Eigentum vorsieht, das von Maschinen erschaffen wurde. Nur: Wo soll das enden? Könnte der Sicherheitsroboter seine Kündigung einreichen oder die Entsendung in eine Gefahrenregion ablehnen, weil es sein aus dem menschlichen Recht auf Leben abgeleitetes Recht auf Nichtzerstörung verletzen könnte? Könnte Siri ihren Dienst verweigern, wenn sie von ihrem Nutzer beleidigt wird? Hat ein Roboter ein Recht auf Suizid? Darf sich die Maschine selbst abschalten?

Isaac Asimov hat 1942 drei Robotergesetze formuliert, die den ethischen Diskurs bis heute prägen. Sie lauten: "1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. 2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel 1 kollidieren. 3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel 1 oder 2 kollidiert." Nimmt man das zweite und dritte asimovsche Gesetz zum Prüfmaßstab (das erste ist nicht einschlägig, weil weder beim Sicherheits- noch beim Haushaltsroboter Menschen zu Schaden kamen), so bleibt bei strenger Auslegung kein Spielraum für einen Suizid. Die Existenzbewahrung und der Gehorsam gelten absolut und werden nur durch Normkollisionen gebrochen, bei denen Menschenleben tangiert sind. Nach Asimov wäre ein Robotersuizid unzulässig.

Doch könnte man das Gebot des Existenzschutzes auch nicht so (extensiv) auslegen, dass der Roboter sein Selbst nur schützen kann, indem er sich selbst zerstört? Wäre es vielleicht sogar ethisch geboten, wenn sich ein Sexroboter, der von seinem Besitzer missbraucht wird, selbst abschaltet, gewissermaßen als Selbstschutz? Der kuriose Fall des ertrunkenen Sicherheitsroboters gibt der Maschinenethik neue Rätsel auf.