Herr Professor Helbing – im Dezember 2015 haben Sie gemeinsam mit acht weiteren Experten ein Digital-Manifest auf "Spektrum.de" vorgelegt, in dem Sie vor Gefahren für die Demokratie durch Algorithmen und künstliche Intelligenz warnten. Was hat sich seither getan?

Das Digital-Manifest hat eine Lawine losgetreten, nahezu alle großen Medien sind aufgewacht. Inzwischen wird viel über die Gefahren berichtet, Wahlen über die sozialen Medien zu beeinflussen, über die Manipulation von Meinungen durch Google, Facebook und Social Bots, über die Risiken durch Filter-Bubble-Effekte und mehr.

Haben Sie damit erreicht, was Sie intendierten?

Wir wollten keinen politischen Skandal verursachen. Uns war die Brisanz unserer Aussagen natürlich bewusst. Die Menschen müssen aber verstehen, welche gefährlichen Entwicklungen weitgehend unbemerkt im Gange sind – Entwicklungen, die uns alle wesentlich mehr betreffen als die Snowden-Enthüllungen. Denn es geht nicht nur um Überwachung und Terrorbekämpfung, sondern um die Steuerung unseres eigenen Verhaltens und die Bewertung der Nützlichkeit von Bürgern durch einen Citizen Score, mit potenziell schwer wiegenden Konsequenzen. Das könnte uns leicht in einen Feudalismus 2.0 führen.

Dirk Helbing
© Spektrum der Wissenschaft
(Ausschnitt)
 Bild vergrößernDirk Helbing

Ist Ihr Thema in der Politik angekommen?

Vor allem im Zusammenhang mit den Gefahren durch Populismus und Extremismus hat die Politik erkannt, dass die Filter-Bubble- und Echokammer-Effekte der digitalen Welt die Gesellschaft zunehmend zersetzen. Außerdem hat das Digital-Manifest eine Diskussion über die verantwortungsvolle Nutzung von künstlicher Intelligenz angestoßen. Unsere Akademien der Wissenschaften wurden von der deutschen Politik aufgefordert, sich jetzt mit diesen Fragen zu befassen. Und weltweit hat die Diskussion über die Zukunft von künstlicher Intelligenz mit Fokus auf verantwortungsvolle Innovation eingesetzt. Der durchschnittliche Bundestagsabgeordnete freilich dürfte nach wie vor nicht wirklich im Bilde sein, was die Implikationen der Digitalisierung für unsere Wirtschaft und Gesellschaft sind.

Auch nicht, wenn er selbst Opfer eines Spähangriffs war, wie beim aktuellen Fall im August, als mutmaßlich russische Hacker mit gefälschten NATO-E-Mail-Adressen Zugriff auf die Rechner zahlreicher deutscher Politiker zu erlangen versuchten?

Das hat sicher zur Sensibilisierung für Cyber-Gefahren geführt, aber die gesellschaftliche Dimension ist noch viel größer. Die Souveränität von Individuen und Staaten ist gleichermaßen gefährdet.

In Ihrem Digital-Manifest haben Sie den Begriff des Big Nudging eingeführt, die Verhaltenssteuerung von Individuen und Gesellschaft auf Grundlage von Big Data. Wie wurde der Begriff in der Fachwelt aufgenommen?

Big Nudging ist inzwischen ein fest etablierter Begriff in der Fachliteratur. Er wird von den Experten häufig benutzt.

Sind die Gefahren für die Demokratie durch Big Nudging seit Publikation des Digital-Manifests weiter gewachsen?

In der Tat. So haben bei der Brexit-Entscheidung Social Bots anscheinend ein ganz gewichtiges Wörtchen mitgeredet und damit das Auseinanderbrechen der Europäischen Union mitverursacht. Das legt eine Studie von Philip Howard und Bence Kollanyi nahe, die vor dem britischen Referendum eine Woche lang die Twitter-Nachrichten zum Thema analysiert haben. Demnach haben automatisch generierte Nachrichten von Twitter-Accounts, hinter denen gar keine Personen stehen, das Pro-Brexit-Lager in dem sozialen Netzwerk sehr stark gemacht. Die Quittung zahlen wir alle: Da ist zum einen der politische Schaden für Europa, hinzu kam der Einbruch der Märkte um drei Billionen Dollar nach Bekanntwerden des für viele unerwarteten Ergebnisses.

Wer soll diese Social Bots installiert haben?

Das genau zu klären, ist Detektivarbeit, die Social Bots haben ja keinen Personalausweis. Aber man darf sicher davon ausgehen, dass hier handfeste politische und wirtschaftliche Interessen im Hintergrund standen.

Was steht aus Ihrer Sicht am Ende der digitalen Entwicklung?

Im Digital-Manifest haben wir vor einer Top-down-Kontrolle der Gesellschaft gewarnt und dabei auf China verwiesen; gemeint haben wir aber auch die USA und Europa. Denn hier sind die Gesellschafts- und Verhaltenssteuerung ebenfalls auf dem Weg, wie zum Beispiel das britische "Karma Police"-Programm zeigt. Der Gedanke dahinter lautet stets: Wenn man nur genügend Daten hat, enthüllt sich die Wahrheit quasi wie von selbst. Die Daten sagen einem sozusagen, was zu tun ist, und dann muss man das nur noch wie ein wohlwollender Diktator umsetzen. Die Technologien dafür stehen bereits zur Verfügung. Am Ende könnte die digitale Entwicklung auf eine globale zentrale Gesellschaftssteuerung hinauslaufen, die von künstlicher Intelligenz gelenkt wird.

Und dennoch verteufeln Sie die Digitalisierung nicht.

Nein, auf keinen Fall. Es geht nicht um Maschinenstürmerei, sondern um eine vorwärts gerichtete Nutzung der Technologien zur Weiterentwicklung von Demokratie und Wirtschaft, aber eben mit Transparenz und partizipativen Möglichkeiten. Und anders als noch vor einem Jahr ist auch klar, wie das gehen kann, denn mit dem Internet der Dinge, mit Blockchain-Technologie und Komplexitätsforschung haben wir heute das Werkzeug für einen neuen Ansatz in der Hand.

Wir können einen neuen sozioökonomischen Rahmen bauen für unsere Wirtschaft und Gesellschaft, mit dem Ziel einer kohlenstoffarmen Kreislaufwirtschaft und einer Sharing Economy, an der wir uns alle mit Ideen, Produkten und Services beteiligen können. Mit weniger Ressourcen höhere Lebensqualität für mehr Menschen zu schaffen und die Demokratie zu stärken – das muss unser Ziel sein, und es ist erreichbar. Wir arbeiten mit Hochdruck an den Konzepten dafür.