Herr Professor Weikum, was ging Ihnen bei der Lektüre des Digital-Manifests durch den Kopf?

Gerhard Weikum: Dass man sich sehr ernsthaft mit den Risiken von „Big Data“ und der fortschreitenden „Digitalisierung“ unserer Gesellschaft auseinandersetzt, halte ich für enorm wichtig. Von daher finde ich den Artikel erst einmal sehr verdienstvoll. Aber man sollte den Risiken immer auch die Chancen gegenüberstellen: der bessere Umgang mit knappen Ressourcen wie Energie, Optimierungen in Verkehr und Logistik, Fortschritte in der Medizin und vieles mehr. Das Digital-Manifest ist für meinen Geschmack etwas einseitig geraten, aber vielleicht braucht man die starke Betonung der Risiken, um uns alle zu sensibilisieren. Das kürzere Strategiepapier derselben Autoren ist hingegen sehr zielführend.

Wie beurteilen Sie die Gefahr, dass wir uns zu einer automatisierten Gesellschaft in einer ausgehöhlten Demokratie entwickeln?

Professor Gerhard Weikum
© Mit frdl. Gen. von Gerhard Weikum
(Ausschnitt)
 Bild vergrößernGerhard Weikum

Hier sollte man gesellschaftliche und technologische Trends auseinanderhalten. Die Tendenz, dass Bürger unmündiger werden und sich von populistischen Trends manipulieren lassen, gibt es doch schon länger. Technologie verstärkt und beschleunigt solche Trends, aber man kann den Zeitgeist nicht nur auf Technologie abwälzen. Nehmen Sie zum Beispiel die Einführung des Privatfernsehens vor rund 30 Jahren. Das hatte einen enormen Einfluss auf die Kultur, Subkultur und Kommerzialisierung unserer Gesellschaft – aber es war keine technologische Innovation.

Sie forschen selbst auf dem Gebiet der Informationsextraktion, also dem automatisierten Gewinnen von Erkenntnissen aus unstrukturierten Daten. Wohin geht die Entwicklung hier?

Wir entwickeln Methoden zum Aufbau großer Wissensgraphen, die ihrerseits maschinenlesbares Weltwissen und tiefere Semantik für Internetsuche, Textanalytik und generelles Sprachverstehen liefern – und potenziell auch für das Verstehen multimodaler Information wie zum Beispiel Videos. Dabei kommen zum einen computerlinguistische Verfahren und logikbasierte Inferenzmethoden zum Einsatz, zum anderen aber auch statistische Lernverfahren. Im Digital-Manifest ist dies alles stark vereinfacht als „KI“ bezeichnet.

Wissenschaft darf nicht reguliert werden; das wäre wie das Verbot anatomischer Studien durch die Kirche im Mittelalter

Auch in unserem Forschungsbereich spielt die Menge der verfügbaren Daten eine große Rolle, weil wir so bessere multivariate Statistiken – über Texte – erhalten und maschinelle Lernverfahren besser trainieren können. Wer viele Texte gesehen hat, kann neue Texte besser verstehen und selbst auch besser schreiben. Das gilt auch für uns Menschen.

Müssen wir bei der Debatte um Big Data und Big Nudging klarer unterscheiden zwischen Risiken dadurch, dass Fremde über immer mehr Wissen über uns verfügen können, und der potenziellen Gefahr, dass jemand mit diesem oder ohne dieses Wissen unser individuelles Verhalten steuert?

Ja, das ist ein wichtiger Punkt. Digitale Daten und Hintergrundwissen über uns sind ja oft auch nützlich. Die Personalisierung von Suchresultaten bei der Internetsuche oder beim elektronischen Einkaufen erlaubt bessere Dienstqualität und wird von vielen Menschen geschätzt. Und wenn es um die eigene Gesundheit geht, wird man auch den Wert individualisierter Medizin schätzen. Entscheidend ist Transparenz: Der Einzelne muss selbst entscheiden können, wer seine Daten erhält und ob dadurch Information und Dienste personalisiert werden sollen oder nicht.

Wo müsste nach Ihrer Ansicht regulierend eingegriffen werden?

Zur Eindämmung des Risikos potenzieller Verhaltensmanipulation gibt es sicher Regulierungsbedarf. Beispielsweise könnte man bei individualisierten Preisen eine starke Kennzeichnungspflicht einführen, und falls es bald auch politische Tagesnachrichten in individuell zugeschnittener Form aufs Handy oder Tablet geben sollte, gilt dies dort erst recht. Parallel dazu muss man aber auch Aufklärungsarbeit leisten und das Bewusstsein für die Chancen und Risiken von „Big Data“ verbessern.

Was man regulieren kann und soll, ist die privatwirtschaftliche Verwertung, also die vielfältigen Dienste der großen Internetakteure, insbesondere der Anbieter sozialer Netzwerke

Wie sieht die Scientific Community, wie sehen Informatiker, die selbst an der Entwicklung lernender KI-Systeme arbeiten, die anhebende Debatte über mögliche Folgen ihres Tuns?

Technologiefolgenabschätzung und die ethische Dimension sind enorm wichtig; daran müssen sich unbedingt auch Fachwissenschaftler beteiligen. Digitalisierung an sich ist ein evolutionäres Phänomen, das sich schon lange abzeichnet. Aber jetzt erleben wir eine rasante Beschleunigung der technischen Möglichkeiten und Anwendungstrends, so dass wir eben auch die Diskussion um die gesellschaftlichen Auswirkungen stark intensivieren müssen. Wir brauchen eine „Ethik für Nerds“, um einen meiner lokalen Informatikkollegen zu zitieren. An der Universität des Saarlandes zum Beispiel gibt es bereits eine solche Vorlesung, die gemeinsam von der Informatik und der Philosophie getragen wird. Aber das ist natürlich nur ein Baustein von vielen.

Würden Sie sich auch für mehr Regulierung der weltweiten Forschung zu lernenden KI-Systemen aussprechen?

Wissenschaft darf nicht reguliert werden; das wäre wie die Zensur im Journalismus oder das Verbot anatomischer Studien durch die Kirche im Mittelalter. Dass viele Erkenntnisse der Wissenschaft ambivalente Anwendungen haben, ist auch nicht neu: Denken Sie an Kernenergie, Satellitentechnik, Mikrobiologie, Gentechnik, Robotik und anderes. Hier ist die politische Demokratie gefragt – mit Beratung durch die Wissenschaft und im gesellschaftlichen Diskurs.

Was man hingegen regulieren kann und soll, ist die privatwirtschaftliche Verwertung, also die vielfältigen Dienste der großen Internetakteure, insbesondere der Anbieter sozialer Netzwerke. Nur muss man Regulieren als Schaffen von Randbedingungen und Anreizsystemen verstehen, nicht einfach nur als Verbots- und Strafkatalog. Wenn man beispielsweise den großen Suchmaschinen das Erfassen von Nutzer-Clicks generell untersagt, würde die Qualität der Suchresultate auf den Stand von 1995 zurückfallen – das will man sicher auch nicht. Wenn man personalisierte Werbung im Internet komplett verbietet, entzieht man den großen Internetakteuren ihre Basis, profitabel zu operieren. Das Betreiben einer großen Suchmaschine kostet auch viele Milliarden pro Jahr. Warum sollte man als Unternehmen Internetsuche anbieten, wenn man damit nur Verlust machen würde?

Von Verlusten sind diese aber weit entfernt! – Bräuchten wir nicht eher Alternativen zu den Quasimonopolisten Google und Facebook?

Vielleicht nützt hier als Vergleich unser Umgang mit privaten Fernsehsendern. Da gibt es auch Sendungen, die ich persönlich für absolut sinnlos halte. Aber der Staat verbietet sie nicht, weil das Zensur wäre – außer bei gesetzlich verbotenen Inhalten natürlich. Wenn man diese Analogie weitertreibt, führt dies zu dem Gedanken eines „öffentlich-rechtlichen Internets“, das unter staatlicher Aufsicht parallel zum „wilden Internet“ betrieben würde. Natürlich muss man dann auch sorgfältig über „öffentlich-rechtliche“ Inhalte und Dienste nachdenken, und man muss die Kosten tragen können und dafür gegebenenfalls kreative Business-Modelle finden oder erfinden. Jetzt wäre ein guter Zeitpunkt, ernsthaft darüber nachzudenken.

Die gesellschaftliche Diskussion zu Big Data muss intensiviert werden, und sie muss dann auch die Breite der Nutzer erreichen

Was ist zu tun, damit die beschleunigte Anhäufung von Daten im Zuge der Industrie 4.0 sowie die gleichzeitige Entwicklung immer leistungsfähigerer KI-Systeme, möglicherweise gar von funktionstüchtigen Quantencomputern, nicht die schlimmsten Dystopien wahr werden lassen?

Daten sind ein Rohstoff, der zunächst weder gut noch böse ist. Maschinelles Lernen braucht Daten zum Training; mit mehr Daten werden die analytischen Fähigkeiten und Vorhersagen besser. Es gibt viele positiv belegte Anwendungen, die darauf beruhen. Zum Beispiel ist die moderne Bildverarbeitung ohne statistisches Lernen nicht mehr denkbar – das beinhaltet auch die bildgebenden Verfahren in der medizinischen Diagnostik. Darauf will sicher niemand mehr verzichten.

Lernende KI-Systeme sind keine größere Bedrohung als vernetzte Computersysteme generell. Es sind immer noch Algorithmen für klar definierte Aufgaben, die ihrer Programmierung folgen. Dass Software Bugs hat und sich daher nicht immer wie gewünscht verhält, ist etwas anderes als die „Verselbständigung der Maschinen“, die das Digital-Manifest apokalyptisch heraufbeschwört.

Kommen wir noch einmal auf die konkreten Vorschläge des Digital-Manifests zu sprechen!

Dies sind gute Ideen, aber vieles muss noch ergänzt, verfeinert und praktikabel gemacht werden. Ein sehr guter Vorschlag ist, dass persönliche Daten von der erfassenden Seite dem betroffenen Nutzer in einer dedizierten Daten-Mailbox mitgeteilt werden müssen. Das schafft Transparenz und ist Voraussetzung für das Recht des Nutzers, das Löschen von Daten erwirken zu können. Allerdings ist die nutzerfreundliche und unangreifbare Realisierung dieser Forderung technisch alles andere als einfach. Das „Recht auf Vergessen“ wurde in den letzten Jahren ja schon öfter diskutiert, aber man kennt derzeit kein robustes kryptografisches Verfahren, das Daten mit Verfallsdatum effektiv realisieren könnte.

Was fehlt im Digital-Manifest aus Ihrer Sicht?

Ein wichtiger Aspekt, der bei den Thesen des Manifests fehlt, ist die Intensivierung der Informatikforschung zu den Themen Sicherheit, Privatsphäre und Vertrauen von Internetdiensten im breiten Sinn, einschließlich Suche und sozialer Medien. Hier gibt es nämlich auch viele technisch-algorithmische Herausforderungen. Dabei ist es essenziell, dass diese Forschung im öffentlichen Raum stattfindet, so dass die Ergebnisse und die sich möglicherweise ergebenden Handlungsempfehlungen für jedermann zugänglich sind.

Der allerwichtigste Aspekt ist aber wohl die Aufklärungsarbeit vor allem bei jungen Internetnutzern. Die gesellschaftliche Diskussion zu Big Data muss intensiviert werden, und sie muss dann auch die Breite der Nutzer erreichen. Die besten Werkzeuge zur Datentransparenz und zum Schutz der Privatsphäre werden nicht helfen, wenn sie keine Akzeptanz bei den Nutzern haben.