Direkt zum Inhalt

Digitalmanifest: Meinung: Die Digitalisierung der Gesellschaft geht alle an!

Das Digitalmanifest ist zu einseitig negativ, findet Machine-Learning-Experte Matthias Hein. Gleichzeitig schlägt er Regeln vor, um die negativen Effekte, etwa Intransparenz von maschinellen Entscheidungen, abzuschwächen oder gar zu verhindern.
Deep Learning

Das Digitalmanifest ist ein wichtiger Beitrag zu einer hoffentlich stärker werdenden Debatte über die Digitalisierung unserer Gesellschaft. Leider werden die gesellschaftlichen Auswirkungen von Entwicklungen in Technologie und Forschung generell viel zu wenig diskutiert. Von daher halte ich das Manifest für einen wertvollen Beitrag, auch wenn es mir etwas zu einseitig geraten ist: Es werden praktisch ausschließlich Negativszenarien angesprochen, während positive Entwicklungen und Chancen in wenigen Nebensätzen abgehandelt werden. Fortschritte in der Medizin wie etwa neue Diagnosemethoden und personalisierte Medikamente sowie bessere Ausnutzung von Ressourcen und Synergieeffekte in der Industrie 4.0 sind nur einige Beispiele für eine positive Beeinflussung der Gesellschaft durch die Digitalisierung.

Gewisse Entwicklungen sind allerdings sehr wohl kritisch zu sehen. Ich werde diese im Folgenden aus der Sicht meines eigenen Forschungsgebiets, dem maschinellen Lernen, kommentieren. Dabei integriere ich Stimmen des Symposiums "Algorithms Among Us: The Societal Impacts of Machine Learning", das auf der letzten Haupttagung des maschinellen Lernens Neural Information Processing Systems (NIPS) im Dezember 2015 zum ersten Mal veranstaltet wurde.

Matthias Hein

Wir produzieren ständig selbst neue Daten durch Suchanfragen, Surfverhalten, Kreditkartenbenutzung. Geräte, die wir ans Internet angeschlossen haben, senden Daten weiter, oft ohne unser Wissen und unsere Kontrolle. Diese Daten werden hauptsächlich aus kommerziellem Interesse erhoben und erlauben es einigen wenigen Firmen, durch besser platzierte, das heißt personalisierte Werbung sehr viel Geld zu verdienen. Dies hinterlässt bei Etlichen ein diffuses Gefühl, immer mehr an Privatsphäre zu verlieren. Andererseits ist es auch keine realistische Option, die Benutzung dieser Dienste einzustellen.

Dies steht im Gegensatz dazu, dass viele bereit sind, sehr persönliche Daten zum Beispiel auf Facebook zu teilen. Es scheint, als ob einer Mehrheit der Bevölkerung völlig unklar ist, was die möglichen Auswirkungen der Preisgabe von bestimmten Informationen sind. Ein Beispiel ist der große öffentliche Protest bei der Einführung von Google Street View in Deutschland im Jahr 2010. Die Häuserfassaden sind jederzeit öffentlich zugänglich, und von daher werden durch die Verfügbarkeit der Bilder keine persönlichen Informationen weitergegeben. Auf der anderen Seite sind ungefähr ein Viertel aller Deutschen bereit, ihr komplettes Kaufverhalten für ein paar Bonuspunkte zu offenbaren, ohne zu wissen, an wen diese Daten eigentlich weitergeleitet werden. Das erscheint absurd, wenn man bedenkt, dass man mittels des Kaufverhaltens sehr private Informationen wie Gewohnheiten, Vorlieben und Einkommen wohl relativ genau vorhersagen kann. Es ist vielen Nutzern auch gar nicht klar, dass sie selbst bei anonymen Postings im Internet – etwa in Medizinforen – durch Korrelationen mit anderen Quellen gegebenenfalls identifiziert werden können. Ich stimme hier mit dem Digitalmanifest überein, dass einerseits mehr Aufklärung notwendig ist und andererseits der Nutzer wieder Herr über die eigenen Daten werden muss. Dazu sollten Regularien geschaffen werden, die es jedem erlauben, zum einen zu bestimmen, welchen Daten herausgegeben werden, und zum anderen müssen die entsprechenden Firmen den Nutzern die Möglichkeit bereitstellen, die eigenen Daten einzusehen und gegebenenfalls zu löschen (siehe auch T. Hofmann und B. Schölkopf, "Vom Monopol auf Daten ist abzuraten" (PDF), FAZ, 29.1. 2015).

In Bezug auf die Entwicklung der künstlichen Intelligenz wird in den Medien derzeit oft übertrieben

In Bezug auf die Auswertung der Daten und die generelle Entwicklung im Bereich der künstlichen Intelligenz wird in den Medien derzeit oft übertrieben. Man könnte meinen, dass man nur noch wenige Schritte von einer Superintelligenz entfernt ist. Richtig ist, dass es gerade rasante Fortschritte im Bereich der künstlichen Intelligenz gibt, die hauptsächlich durch das maschinelle Lernen, insbesondere "Deep Learning", getrieben sind. "Deep Learning" ist vereinfacht gesagt das Lernen mittels neuronaler Netzwerke großer Tiefe. Im Unterschied zu früher können diese heute durch die stark gewachsene Rechenleistung, aber auch insbesondere durch die mittlerweile verfügbaren größeren Datensätze trainiert werden. Der Einsatz von "Deep Learning" hat vor allem im Bereich der Spracherkennung, der maschinellen Übersetzung und des maschinellen Sehens zu starken Verbesserungen geführt, die mittlerweile schon kommerziell genutzt werden. Bei all der derzeitigen Diskussion um "Deep Learning" und eine mögliche Superintelligenz sollte nicht vergessen werden, dass dies Lernalgorithmen sind, die für eine bestimmte Aufgabe trainiert wurden. Sie sind lernfähig im Sinn, dass mehr Trainingsdaten die Vorhersagen potenziell verbessern, aber sie sind nicht in der Lage, sich selbstständig weiterzuentwickeln und neue Aufgaben zu lösen. Selbst die überwiegende Mehrheit der Hauptprotagonisten im Bereich "Deep Learning" schätzt die Entwicklung einer echten künstlichen Intelligenz (was immer das im Detail heißen mag) in mittelbarer Zukunft als äußerst unwahrscheinlich ein.

Deutlich realistischer ist, dass wir in den nächsten zehn Jahren in immer mehr Gebieten menschenähnliche oder sogar bessere Leistungen mittels Lernalgorithmen erreichen können. Jüngstes Beispiel ist die Entwicklung des Go-Programms AlphaGo durch Google DeepMind, dass kürzlich einen der besten Go-Spieler der Welt geschlagen hat. Ein wahrscheinliches Szenario ist daher, dass wir in den nächsten Jahren in vielen Bereichen digitale Assistenten bekommen, die uns in Aufgaben unterstützen und so unsere Leistung deutlich steigern. Auch wenn durch die damit erhöhte Produktivität Arbeitsplätze verloren gehen, erscheint es doch derzeit unklar, inwieweit das zu einem radikalen und vor allem schnellen Jobverlust führen soll, der von einigen vorhergesagt wird.

Ein Problem, das im Digitalmanifest angesprochen wird, ist die potenzielle Manipulation von Verbrauchern durch personalisierte Suchergebnisse oder Nachrichtenauswahl. Hier besteht tatsächlich die Gefahr einer Informationsblase, in der dem Verbraucher nur noch Informationen gezeigt werden, die er gerne sehen möchte. Dies kann im Extremfall zu einem eingeschränktem Weltbild führen, in dem nur noch die "eigene" Wahrheit existiert und Alternativen ausgeblendet werden. Dies würde die derzeit schon stattfindende Abschottung von gewissen gesellschaftlichen Gruppen noch intensivieren. Allerdings liegt meiner Meinung nach der Grund für diese Entwicklung im Moment weniger in personalisierten Empfehlungen, sondern in der Möglichkeit, sich im Internet mit Gleichgesinnten zusammenzutun und sich so gegenseitig in der eigenen Meinung zu verstärken (Echokammereffekt). Um eine Manipulation durch Personalisierung frühzeitig zu verhindern, könnte man Firmen verpflichten, bei der Anzeige von Suchergebnissen und Nachrichten eine Wahlmöglichkeit zwischen personalisierter und allgemeiner Empfehlung einzuführen.

Die potenzielle Entwicklung und Nutzung dieser neuen Technologien darf kein Monopol von wenigen großen IT-Firmen sein!

Durch Fortschritte in der natürlichen Sprachverarbeitung erscheint es realistisch, dass es in naher Zukunft möglich wird, mit dem Einsatz von Chatbots Menschen gezielt zu beeinflussen: um durch direkte Manipulation eine gewünschte Meinung zu forcieren oder durch massiven Einsatz von künstlichen Chatbots die gewünschte Meinung in einem Forum als Mehrheitsmeinung darzustellen. Der Gesetzgeber sollte hier frühzeitig eine Kennzeichnungspflicht künstlicher Dialogsysteme vorschreiben, damit jederzeit erkennbar ist, ob mit einem Menschen oder einem Computer kommuniziert wird.

Ein Punkt, der im Manifest am Rand diskutiert wurde, ist der derzeitige Einsatz von maschinellen Lernverfahren in sensiblen Bereichen etwa zur Bewertung eines Kreditrisikos. Hierzu muss man wissen, dass in Lernalgorithmen typischerweise die Fähigkeit zur Generalisierung optimiert wird, also die Fähigkeit, von den Trainingsdaten auf zukünftige bisher ungesehene Daten zu verallgemeinern. In sensiblen Bereichen wäre es aber wünschenswert, wenn der Lernalgorithmus nicht nur eine gute Vorhersage, etwa zur Bewertung eines Kredits, sondern auch eine Erklärung mitliefert, wie es zur Vorhersage kam. Denn ohne eine solche Erklärung gibt es auch keine Möglichkeit, die Entscheidung im Zweifel zu überprüfen und, wenn notwendig, zu korrigieren. Die Interpretierbarkeit und die Güte der Vorhersage sind dabei aber oft gegenläufige Ziele. Interpretierbare Modelle sind typischerweise sehr einfach. Allerdings können diese komplexe Zusammenhänge nicht erklären und produzieren daher im Normalfall schlechtere Vorhersagen.

Ein weiterer Punkt ist, dass die Vorhersagen eines Lernalgorithmus genau wie die des Menschen implizit oder explizit diskriminierend sein können. Um beim Beispiel des Kreditrisikos zu blieben, könnte der Algorithmus Frauen generell besser bewerten als Männer. Dies muss kein Fehler des Lernalgorithmus sein, wenn es so in den Daten steckt. Denn die Güte der Vorhersage und Fairness können gegenläufige Ziele sein. Gegenüber dem Menschen hat allerdings der Algorithmus den Vorteil, dass wir diesen leichter ändern können, um Fälle impliziter oder expliziter Diskriminierung zu verhindern. Dies würde auch zu einer gerechteren Gesellschaft beitragen. Die Integration von Interpretierbarkeit und Fairness in Lernalgorithmen ist daher ein aktuelles Forschungsthema.

Abschließend betrachtet ist es auf Grund der wachsenden gesellschaftlichen Bedeutung essenziell, dass die Forschung zu den genannten Themen offen und transparent stattfindet. Die potenzielle Entwicklung und Nutzung dieser neuen Technologien darf kein Monopol von wenigen großen IT-Firmen sein! Zurzeit ist die Situation noch erfreulich gut, da Google, Facebook und Microsoft zumindest teilweise ihre Forschung publizieren und Software als Open-Source-Projekte der Forschungsgemeinde zur Verfügung stellen. Wir müssen aber jetzt und in Zukunft sicherstellen, dass ein entsprechendes Gegengewicht auch in öffentlichen Forschungseinrichtungen vorhanden ist.

Schreiben Sie uns!

1 Beitrag anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.