Spektrum der Wissenschaft: Herr Park, ist die aktuelle Diskussion um die Digitalisierung angemessen?

Enno Park: Es ist ein wahnsinniges Kuddelmuddel zwischen Technikangst und Technikeuphorie. Aber weder das eine noch das andere sind hier wirklich angebracht. Viel wichtiger sind die konkreten Fragen im Hier und Jetzt: Was zum Beispiel der Einsatz von Algorithmen im großen Stil wirklich für uns bedeutet.

Zum Beispiel wird im Digitalen Manifest das "Nudging" erwähnt und sehr hart kritisiert. Ich frage mich, ob diese Kritik in diesem Maß fair ist, weil die Mechanismen hinter Nudging eine eigentlich sehr menschenfreundliche Angelegenheit sind: Ich mache jetzt nicht das harte Gesetz und stecke Menschen ins Gefängnis, sondern ich versuche die Leute relativ sanft in die gewünschte Richtung zu bringen. Es gibt Leute, die durchschauen das, und es gibt Leute, die tun das nicht, aber die Art, wie da jetzt drüber gesprochen wird, erinnert mich so ein bisschen an die Hysterie der 1960er Jahre um die Manipulation durch Werbung.

Ein anderes Beispiel, das im Manifest auftaucht, ist China. Algorithmen, die verwendet werden, um Menschen einzustufen und danach diesen Menschen Rechte und Privilegien anhand eines Social Scores – oder wie immer man das nennen will – zu gewähren. Das ist eine ganz fürchterliche, widerwärtige Angelegenheit. Das ist aber nicht die Schuld der Algorithmen, sondern eines Scheißsystems, sag ich mal jetzt so, das die da halt haben, das anhand solcher Gesichtspunkte Privilegien gewährt.

Wie ist das im konkreten Fall eines Algorithmus, der Kredite vergibt?

Bei der Kreditvergabe hier zu Lande möchte ich vor allem gerne wissen: Was hat dazu geführt, dass mir jetzt dieser Kredit nicht gewährt wurde? Da muss Transparenz hergestellt werden. Die wird heute mehr schlecht als recht tatsächlich hergestellt, indem ich eine Schufa-Anfrage stelle. Da kann ich relativ gut erkennen, was die Gründe dafür sind. Das ist die Offenheit und Transparenz, die ich dabei fordere, und die auch weiter gehen könnte. Den grundsätzlichen Einsatz von Algorithmen finde ich überhaupt nicht problematisch.

"Das Telefon ist für viele Menschen ein höchst intimer Gegenstand"

Vorher bist du in deine Sparkasse gegangen, und da hat dann der Angestellte oder vielleicht sogar der Filialleiter entschieden, ob du diesen Kredit bekommst. Der hat drauf geguckt, ob du einen Schlips trägst, ob du lange Haare hast, und in der Kleinstadt vielleicht noch, was dein Vater so beruflich macht. Von dort aus auf Kriterien zu wechseln, die nichts mit deiner Herkunft zu tun haben und stärker die tatsächlichen Risiken der Bank ausdrücken, halte ich tatsächlich für einen Fortschritt. Ich glaube diese Beispiele demonstrieren ganz gut, was ich eingangs sagte: Weder eine zu große Angst noch eine zu große Euphorie sind hilfreich im Umgang mit der neuen Technik.

Was bedeutet das für unseren Umgang mit Smartphones und Algorithmen?

Mittlerweile sind wir an einem Punkt angekommen, an dem wir Entscheidungen ein Stück weit automatisieren können, und ich glaube, das ist der Grund, weshalb jetzt auch bestimmte Diskussionen unter dem Stichwort künstliche Intelligenz aufkommen.

Mit künstlicher Intelligenz im engeren Sinn haben diese Diskussionen aber gar nicht so viel zu tun, sondern mit Entscheidungen. Da wird entschieden, ob dieser oder jener Mensch kreditwürdig ist oder nicht oder ob eine Ampel auf rot oder auf Grün geschaltet wird – das machen nun digitale Systeme, und jetzt stellt sich für uns die Frage nach der Kontrolle noch einmal neu.

Enno Park
© Lars Fischer
(Ausschnitt)
 Bild vergrößernEnno Park
Enno Park studierte Wirtschaftsinformatik und schreibt heute unter anderem für den "Elektrischen Reporter" und andere Medien. In seinem Texten beschäftigt er sich mit den Auswirkungen des digitalen Wandels auf die Gesellschaft bis hin zur Verschmelzung von Mensch und Maschine. Seit er Cochlea-Implantate trägt, bezeichnet er sich selbst als Cyborg und war 2013 einer der Gründer des Cyborgs e. V. in Berlin.

Im Grunde genommen ist das nicht anderes als Politik: Wenn unsere politische Antwort auf die Frage nach der Kontrolle die Demokratie ist, dann muss das auch im Bezug auf Algorithmen gelten. Das heißt, wir müssen schauen: Wo führen die Effekte von Algorithmen zur Entscheidungsfindung, zu Eingriffen in die individuelle und gesellschaftliche Freiheit? Wo müssen wir dann auch Verwendung und Programmierung solcher Algorithmen demokratischen Standards unterwerfen?

Wie könnte das in der Praxis aussehen?

Das ist nicht so einfach zu beantworten. Ich glaube tatsächlich, dass wir eine neue Form von Politik brauchen. Wir haben jetzt schon ein sehr komplexes System in der Politik, nämlich den Umgang mit gesetzlichen Regelungen, die für Laien oft nicht mehr verständlich sind. Der Gesetzestext der Zukunft könnte tatsächlich Programmierkode sein, beziehungsweise ein komplizierter Algorithmus. Politik der Zukunft würde meiner Meinung nach auch bedeuten, zusätzlich zu Gesetzestexten mit solchem Kode zu arbeiten.

Muss der Einzelne in einer kodebasierten Demokratie den Kode verstehen?

Jein. Musst du nicht, denn du musst ja auch nicht dein Auto selbst reparieren. Es muss dir aber möglich sein, wenn du es möchtest. Kode sollte immer so weit offen gelegt sein, dass interessierte Bürgerinnen und Bürger lesen und kritisieren können, eine Debatte anstoßen können. Das heißt aber nicht, dass jeder einzelne sich jetzt ständig mit allem beschäftigen muss. Dazu sind wir gar nicht in der Lage. Deswegen haben wir ein System, in dem wir Menschen als unsere Vertreter wählen, die sich damit beschäftigen.

Heißt das, demokratischer Kode muss offen gelegt werden?

Notwendigerweise. Wie wir jetzt gerade zum Beispiel an den TTIP-Verhandlungen sehen, sind Verschlusssachen undemokratisch. Es mag sein, dass bestimmte Dinge aus Gründen der Staatsräson besser unter Verschluss bleiben, aber ich glaube, dass es dabei nur um sehr wenige Dinge gehen sollte. Für Kode sollte ähnliches gelten, sobald er gesellschaftlich relevant ist.

"Kode sollte immer so weit offen gelegt sein, dass interessierte Bürgerinnen und Bürger lesen und kritisieren können"

Man kann niemanden zwingen, einen kommerziellen Kode zu veröffentlichen, der einfach irgendeine Aufgabe erfüllt. Aber wenn Plattformen wie Google, Facebook und so weiter gesellschaftliche Relevanz entwickeln, dann liegt die Forderung nach Demokratisierung dieser Plattformen auf der Hand.

Wo ist die Grenze bei Geschäftsgeheimnissen? Was ist zum Beispiel mit dem Kode medizinischer Geräte wie einem Hörgerät?

Auch der sollte meines Erachtens öffentlich sein. Das Hörgerät ist kein Konsumgegenstand wie jeder andere, sondern der wird – zumindest theoretisch – vom Gesundheitssystem bezahlt. Ich finde aber auch, je mehr wir Technik an uns und unsere Körper heranlassen und je bestimmender die Technik für unser Leben und für unseren Alltag ist, desto wichtiger ist, dass wir auch gucken können, was diese Technik eigentlich macht.

Warum lassen wir die Technik überhaupt so nah an uns heran?

Technik ist für mich Natur. Unsere zweite Natur wäre schon das falsche Wort – sie ist unsere erste Natur. Wir sind von Anbeginn das Wesen, das sich selbst und seine Umwelt mit unseren technischen Hilfsmitteln manipuliert, von Anfang an. Mich stört diese Dualität, Kultur und Technologie gegen die Natur zu setzen. Die Natur hat uns, unsere Kultur und Technik hervorgebracht. Das ist alles eins. Das heißt nicht, dass das alles supertoll ist, was wir da machen, ganz sicher nicht. Aber ich glaube, dass dieses Denken in Dualität uns im Weg steht, wenn es darum geht, Probleme zu lösen.

Ist denn der massive Einfluss der Technik auf unsere Kultur – und durch Implantate, Prothesen, Hilfsmittel auch auf unsere Körper – nicht neu?

Nein. Das Einzige, was wirklich neu ist, ist die Überwindung der Körperbarriere – und die ist gar nicht so wahnsinnig wichtig. In den Körper implantierte Technik könnte man aus einer bestimmten Sicht als sehr krasses Instrument der Kundenbindung bezeichnen. Wir werden aber die allermeisten Dinge nicht implantieren, weil es sich nicht lohnt.

"Das Smartphone ist tatsächlich eine Internet-Prothese geworden, ein Sinnesorgan"

Das müssen wir aber auch nicht, denn es macht keinen großen Unterschied für uns, ob Geräte implantiert sind oder ob wir sie immer bei uns tragen. Das Smartphone zu verlieren oder dass es gar gestohlen wird – ich behaupte jetzt mal, das ist mittlerweile vielen Menschen unangenehmer als der Zwei-Millimeter-Schnitt beim Chirurgen um die Ecke. Es geht tatsächlich nicht um den Schnitt, sondern darum, wie stark wir uns mit einem Gerät verbunden fühlen. Das Smartphone ist tatsächlich eine Internetprothese geworden, ein Sinnesorgan, das wir uns gebaut haben, um das Internet möglichst überall nutzen zu können.

Also doch eine neue Art von Technik?

Sicher eine neue Art von Technik, nur dass die Implantation dabei lediglich eine sehr untergeordnete Rolle spielt. All diese Effekte, die man in Zukunft auf die Cyborgs der Sciencefiction projiziert, können wir heute schon beobachten: nicht nur punktuell, sondern massenhaft auch im Mainstream, anhand von Geräten wie den Smartphones.

Algorithmen
© iStock / maciek905
(Ausschnitt)

Müsste man diese Ausweitung des Körpers dann nicht regulatorisch und kulturell anders behandeln als klassische Besitztümer?

Ich fände es spannend zu sagen, ein Smartphone zu beschädigen oder zu stehlen sei Körperverletzung. Das ist allerdings juristisch Quatsch. Eine seriösere Forderung ist, es so einzustufen wie einen Wohnungseinbruch beziehungsweise wie eine Hausdurchsuchung.

Ich finde es auch nicht unter allen Umständen falsch, dass Behörden mal ein Telefon aufmachen und mal reingucken wollen – nur die Hürden dafür müssen sehr hoch sein. Es muss ein hinreichend schweres Verbrechen vorliegen und ein Gericht muss das beschließen. Wir haben jetzt in Deutschland die Situation, dass es reicht, auf eine Demo zu gehen und das Telefon von irgendeinem Polizisten konfisziert zu bekommen, der da gerade langläuft und dem deine Nase nicht passt. Aber das Telefon ist für viele Menschen ein höchst intimer Gegenstand geworden.

Geht es bei solchen Fragen dann überhaupt noch um Technik?

Es geht um Entscheidungen. Ich habe mal in einem anderen Interview gesagt: Ich habe keine Angst vor Technik, ich habe nur Angst vor Menschen.

Ist die Technikdebatte also nur eine Stellvertreterdebatte?

Nicht ganz. Man darf jetzt nicht übersehen, dass die Digitalisierung Dinge möglich macht, die in diesem Maß vorher nicht möglich waren. Wenn man zum Beispiel das heutige Maß an Überwachung mit der DDR und der Stasi vergleicht, dann kann die DDR nicht im geringsten gegen heutige Zustände anstinken. Trotzdem kann man das, was heute hier passiert, nicht mit der DDR und der Stasi vergleichen, weil wir in ganz anderem Maß in einer freien Gesellschaft leben, Rechte haben und so weiter.

"Es besteht immer die Chance auf eine Revolution"

Ich glaube dieser Vergleich zeigt gut, dass diese reflexartige Reaktion, dieses Big Brother, 1984-Metapher eben nicht funktioniert für das, was bei der Digitalisierung in der Praxis passiert. Das ist vielschichtig, mit Vorteilen und Nachteilen. Die Digitalisierung ist ein Instrument, das totalitäre Diktaturen nutzen können, um Macht durchzusetzen, aber digitale Technologien können als Instrument für sehr vieles benutzt werden, wie viele andere Technologien auch.

Die Bezeichnung "Diktatur der Algorithmen" geht also an der Sache vorbei?

Ja, Diktatur geht immer von Menschen aus. Wenn wir so doof sind, einem Algorithmus die komplette Entscheidungsgewalt zu überlassen, dann sind immer noch wir es, die dem Algorithmus die Entscheidung überlassen haben. Es ist wie im alten Märchen, in dem ein Kind dem Kaiser sagt, dass er nackt ist. Das lässt sich genauso gut mit dem Algorithmus statt dem Kaiser denken.

Eine Schwierigkeit ist aber tatsächlich die Frage nach Macht und Autorität, zum Beispiel strahlt eine Zahl auf einem Computerbildschirm immer eine gewisse Autorität aus. Da sind natürlich Machtmechanismen im Spiel, die man nicht unterschätzen darf. Aber es ist nicht so, dass wir jetzt mit den Algorithmen einen bösen Geist geschaffen haben. Irgendwoher kommen die Dinger. Irgendwer sitzt an der Spitze und koordiniert ihren Einsatz, irgendjemand evaluiert den ganzen Kram. Da sind die Punkte, an denen wir ansetzen können. Und wir können diese Kontrolle auch erzwingen, nämlich durch Demokratisierung von Algorithmen und öffentliche Kontrolle.

Besteht nicht die Gefahr, dass unsere Gesellschaft irgendwann so stark von den Algorithmen abhängt, dass wir diese demokratische Kontrolle nicht mehr durchsetzen können?

Die Gefahr besteht immer. Aber dann besteht auch immer die Chance auf eine Revolution.

Vielen Dank für das Gespräch.