Ob auf der Straße, in der Wohnung oder im OP-Saal – in naher Zukunft werden Roboter unseren Alltag bevölkern. Der Siegeszug der Roboter wirft einige wichtige ethische und soziale Fragen auf. Wer haftet, wenn der OP-Roboter pfuscht? Der Hersteller? Der Roboter? Wie soll der Fahrcomputer entscheiden, wenn ein Bremsvorgang unmöglich ist und das autonome Fahrzeug nur nach links oder rechts ausweichen kann? Soll es in die Fußgängergruppe ziehen oder den Motorradfahrer rammen?

Dieses ethische Dilemma wird schon seit ein paar Jahren diskutiert, doch inzwischen kommt Bewegung in die Sache. Die EU will Roboter als "elektronische Personen" klassifizieren und mit eigenen Rechten und Pflichten ausstatten. Der Rechtsausschuss des EU-Parlaments hat einen Entwurf vorgelegt, der neben einem eigenen Rechtsstatus auch eine Rechte-Charta für geistiges Eigentum vorsieht, das von Maschinen erschaffen wurde. Brauchen Roboter Rechte?

Der Entwurf ist mehr eine Zusammenstellung von Programmsätzen (auf Basis von Asimovs Robotergesetzen) als eine normative Begründung von Roboterrechten. Das Argument für die Rechtsfähigkeit von Robotern lautet, dass Roboter dereinst ein Bewusstsein entwickeln können (und wir es nicht merken) und der Mensch diesen Geschöpfen dann Rechte konzedieren müsste, weil es sonst Sklaverei wäre. Ein Roboter als elektronische Person würde für Fehlverhalten selbst haften (wie jede andere Person nach dem Verursacherprinzip).

Doch an dieser Rechtskonstruktion gibt es Zweifel. Bedenken an der Rechtsfähigkeit von Robotern äußert beispielsweise die französische Rechtswissenschaftlerin und Robotikethikerin Nathalie Nevejans in einer Studie, die sie im Auftrag des Rechtsausschusses angefertigt hat. Ihre Kritik zielt zunächst auf die terminologischen Unschärfen des Resolutionsentwurfs ab: Wer oder was ist ein "smarter" Roboter? Ist auch der PageRank-Algorithmus ein Roboter, den Google von der Meinungsfreiheit geschützt sehen will, der "Freedom of Speech", die der erste Zusatzartikel der US-Verfassung garantiert? Kann man ein Smartphone rechtlich einem Haushaltsroboter gleichsetzen?

Am Ende könnte sich die Menschheit selbst in den Rang einer Maschine degradieren

Das zeigt, wie wachsweich die Definitionskriterien sind. Doch Nevejans' Einwände heben vor allem auf die Dogmatik und Ethik ab: Wenn man einem Subjekt Rechtspersönlichkeit verleiht, würden wir dies klassisch mit der Menschheit assoziieren. Dies sei auch der Fall bei Tierrechten. Zwar sind Tiere, von denen Descartes annahm, sie seien bloß Automaten ohne Bewusstsein, rechtlich gesehen Sachen (wer einen Hund tötet, begeht formaljuristisch "nur" Sachbeschädigung), doch trägt der Tierschutz dem moralischen Gedanken Rechnung, dass Tiere fühlende Wesen und daher schutzbedürftig sind. Der Entwurfsbericht würde jedoch die Rechtspersönlichkeit von Robotern nicht an deren Bewusstsein knüpfen, so Nevejans.

Grundsätzlich kommen nur Einzelmenschen als Rechtpersonen beziehungsweise Rechtssubjekte in Betracht. Nach der so genannten Fiktionstheorie, die auf den Rechtsgelehrten Friedrich Carl von Savigny (1779-1861) zurückgeht, kann die Rechtspersönlichkeit auch "an künstliche, durch die bloße Fiktion angenommene Subjecte", namentlich Verbände, verliehen werden. Wenn sich Individuen zu einem Verband oder Staatswesen zusammenschließen, können sie die Rechtssubjektivität fingieren. Diese rechtliche Fiktion ließe sich möglicherweise auch auf Roboter anwenden. Hinter dem Roboter stünde dann eine natürliche Person, die in der "elektronischen Person" repräsentiert würde.

Nevejans weist jedoch auf die Problematik dieser Rechtskonstruktion hin. Handelt ein Roboter stets im Namen der dahinterstehenden natürlichen oder juristischen Person (etwa eines Unternehmens)? Das Beispiel von Microsofts Chatbot Tay, der die Twitter-Community mit rassistischen Beleidigungen überzog, zeigt, dass Roboter vom Skript abweichen können.

Die Implikationen von Roboterrechten scheinen gar nicht zu Ende gedacht: Könnte ein Landwirtschaftsroboter seine Kündigung einreichen oder die Entsendung in eine Gefahrenregion verweigern, weil es sein aus dem menschlichen Recht auf Leben abgeleitetes Recht auf Nichtzerstörung verletzen könnte? Warum sollte man dann noch Roboter produzieren, die ja so programmiert sind, dass sie auf Knopfdruck tun, was der Besitzer will? Die Frage ist auch, ob es überhaupt so etwas wie universelle Roboterrechte geben kann, wo es doch schon Zweifel an der Universalität der Menschenrechte gibt. In kollektivistischen Gesellschaften wie Japan oder Südkorea, wo das Kollektiv über dem Einzelnen steht und auch Privatsphäre eher vom Kollektiv gedacht wird, haben Roboter eine ganz andere Akzeptanz als in individualisierten Gesellschaften Europas oder der USA.

Wer Roboter als künstliche, denkende Kreationen betrachtet, schreibt Nevejans, läuft nicht nur Gefahr, Rechte an etwas zu verleihen, das lediglich ein Werkzeug ist, sondern auch, die Grenzen zwischen Mensch und Maschine einzureißen.

Worauf gründen dann die Menschenrechte, die sich der Mensch "unter dem Schutze des höchsten Wesens" (so der Wortlaut in der Präambel der Erklärung der Menschen- und Bürgerrechte von 1789) gab, wenn auch Maschinen Rechte haben? Die Schaffung einer neuen Rechtspersönlichkeit, der elektronischen Person, würde nicht nur Ängste vor künstlichen Intelligenzen schüren, so die Robotikethikerin, sondern auch die humanistischen Fundamente Europas in Frage stellen. Der Mensch schafft sich ab, wenn er Maschinen menschenähnlich macht. "Die Anerkennung der Rechtspersönlichkeit für nichtlebende, gewissenlose Entitäten wäre ein Fehler, weil am Ende die Menschheit in den Rang einer Maschine degradiert würde."

Der Zweck der Robotikgesetze ist der Schutz der Menschheit. So progressiv die Idee von Roboterrechten klingen mag – vielleicht sollten die Parlamentarier ihren Entwurf noch mal überdenken.