Direkt zum Inhalt

Mäders Moralfragen: Der Algorithmus-TÜV

Computer können Menschen schaden – manche mehr, manche weniger. Die Datenethikkommission fordert nun eine nach Risiko abgestufte Kontrolle. Einigen Kritikern geht das zu weit – gerade mit Blick auf Facebook, Google und Co.
Warum bevorzugt Youtube extreme Videoclips?

Letzte Woche hat die Datenethikkommission nach nur einem Jahr Beratungen ein 240-seitiges Gutachten mit 75 Empfehlungen vorgelegt – und das, obwohl das 16-köpfige Gremium divers besetzt war. So eine Leistung sieht man nicht alle Tage. Doch die Reaktionen auf den Bericht sind gemischt. Das Portal Netzpolitik.org bezeichnet das Gutachten als »beachtlich«, die gemeinnützige Organisation Algorithmwatch spricht von einer »Steilvorlage für die Zivilgesellschaft« und die Experten, die vom Science Media Center zitiert werden, sind ebenfalls im Grundsatz zufrieden. Viele dieser Rezensenten bemängeln zwar Fragen, die offengeblieben seien, und kritisieren einzelne Empfehlungen, doch das ist nichts gegen die Kritik der Branchenverbände: Bitkom warnt zum Beispiel vor »Regulierungswut« und davor, »Deutschland zu einem analogen Inselstaat zurückzubauen«.

Bitkom hätte es lieber gesehen, wenn die Kommission eine kleine Gruppe von Algorithmen benannt hätte, die wegen ihres Risikos reguliert werden müssen. Doch die Kommission, klagt Bitkom, stelle »fast alle Algorithmen unter einen Generalverdacht« – darunter viele, die wir schon seit Langem nutzen. Lieber spät als nie, könnte man hier erwidern. Gerade weil uns die Algorithmen seit Jahren im Griff haben, ohne dass wir sie wirklich kennen, ist es an der Zeit, sich darüber Gedanken zu machen. Doch grundsätzliche Kritik kommt auch aus einer anderen Richtung: von Leuten, die sich um die Meinungsfreiheit sorgen. Christoph Kucklick zum Beispiel, Chefredakteur des Magazins »Geo«, verreißt das Gutachten auf Twitter: Es sei »die Blaupause für Totalregulierung der digitalen Sphäre«. Damit hat er eine ordentliche Debatte angestoßen, in der er viel Zustimmung erhält.

Droht die politische Manipulation?

In der Debatte geht es um das Stufenmodell der Datenethikkommission. Zwei Stufen sind hier nicht so relevant: Auf der untersten Stufe stehen die Algorithmen, die man nicht regulieren muss. Dazu gehören Getränkeautomaten, die im schlimmsten Fall das Geld schlucken, ohne die Ware auszugeben. Und auf der höchsten Stufe stehen gefährliche Anwendungen wie Killerroboter, die wir vielleicht sogar ganz verbieten wollen. Die Debatte betrifft die Stufen dazwischen. Hier geht es um computergestützte medizinische Diagnosen, um Scoring-Systeme in der Finanzwelt oder – hier wird es heiß – um Google, Facebook und Co. Wie sind deren Algorithmen einzustufen?

Pauschal lasse sich das nicht sagen, antwortet die Datenethikkommission. Wenn Amazon seinen Kunden auf der Grundlage ihrer bisherigen Käufe weitere Produkte empfiehlt, sei das Schadenspotenzial vermutlich gering. Auch wenn Facebook oder Twitter den Nachrichtenstrom nach den Präferenzen der Nutzer sortieren, sei dagegen im Grundsatz nichts einzuwenden. Doch wenn die sozialen Netzwerke »ethisch fragwürdige oder gar extremistische Inhalte verbreiten, weil diese eine höhere Verweildauer der Nutzer auf der Plattform versprechen, wodurch Werbeeinnahmen steigen«, dann sei das nicht mehr allein Sache der Betreiberfirma.

Soll der Staat bei Facebook mitlesen?

In einem ersten Schritt könnten die Firmen zu einer internen Risikoabschätzung verpflichtet werden, erläutert die Kommission. Wenn Kunden den Eindruck haben sollten, dass sie wegen ihres Geschlechts oder ihrer Religion bestimmte Inhalte nicht mehr angezeigt bekommen, könnte man den Vorwurf überprüfen. Wenn ein größerer Schaden droht, könnte man auch verlangen, dass die Algorithmen ein Zulassungsverfahren durchlaufen wie ein Medikament. In ernsten Fällen könnte man auch über eine Live-Schnittstelle zur kontinuierlichen Überwachung des Algorithmus nachdenken. Diese Stufe ist nach Ansicht der Kommission spätestens dann erreicht, wenn über den Algorithmus politische Manipulation möglich wird: wenn der Algorithmus also nicht mehr danach entscheidet, was für die Nutzer interessant sein könnte, sondern danach, was sie in ihrer politischen Haltung bestätigen oder diese in Frage stellen könnte. Der Staat solle also »Echtzeit-Zugang zu Daten und Algorithmen von Facebook, Twitter, YouTube, Google etc. haben«, schreibt Kucklick. »Das ist China.«

Auf Twitter und in einem Interview von »Stern.de« verteidigt sich Christiane Woopen, Ko-Sprecherin der Datenethikkommission. Es entstünden keine wirtschaftlichen Nachteile, wenn ein Unternehmen dem Staat beweisen müsse, dass es kein Risiko für die freiheitlich-demokratische Grundordnung darstelle, sagt sie. Die Daten der sozialen Netzwerke müssten auch nicht zwangsläufig dauerhaft überwacht werden. Aber Facebook, Google und Co. müssten sich den Prinzipien unterwerfen, die auch für klassische Medien gelten. Und an der Frage, welche Prinzipien das sind, entzündet sich der Streit. Es gehe nicht um die Inhalte, sagt Woopen, sondern um deren Vielfalt. Im Gutachten heißt es: »Der Gesetzgeber muss geeignete Maßnahmen treffen, um sicherzustellen, dass im Gesamtangebot die plurale Vielfalt der Meinungen abgebildet sowie die Ausgewogenheit, Neutralität und Tendenzfreiheit in der Informationsgesellschaft gewährleistet ist.« Doch das beruhigt die Kritiker nicht.

Was bedeutet Ausgewogenheit bei Google?

In der analogen Welt hieß Vielfalt früher vor allem: viele Medien. Das Rezept für einen lebendigen gesellschaftlichen Dialog lautete: Die Medien müssen sich auf dem Markt positionieren, dann ist für jeden politischen Geschmack etwas dabei. Außerdem machen sie sich gegenseitig Konkurrenz. In der digitalen Welt gibt es aber nur wenige Plattformen, und diese haben wiederum sehr viele Nutzer auf einmal. Hier muss man anders ansetzen. Die Kommission hat Angst, dass die Nutzer in ihren Filterblasen gefangen bleiben und irgendwann dem gesellschaftlichen Diskurs die Basis entzogen wird, weil jeder andere Nachrichten liest. Davor sollen ihre Pluralismus-Regeln schützen. Wie berechtigt diese Angst ist, ist ein Thema für einen anderen Artikel. Hier frage ich mich: Wie sehen die Pluralismus-Regeln aus?

Es kann nicht darum gehen, alle möglichen Geschichten in meine Timeline zu spülen – Hauptsache anders. Ich lese zwar gerne von Andersdenkenden, aber ich will darüber nicht die Menschen aus den Augen verlieren, die ich schätze und denen ich folge. Pluralismus ist außerdem ein Argument, mit dem Populisten und Verschwörungstheoretiker darauf drängen, dass ihre verqueren Ansichten häufiger zitiert werden. Neben der Vielfalt setzt die Kommission daher auch auf Ausgewogenheit, Neutralität und Tendenzfreiheit. Werte wie diese stehen im Pressekodex, doch der gilt bisher nicht für Plattformen, zumal die sich ausdrücklich nicht als Redaktionen verstehen. Wie soll man die grundlegen Werte der Medien auf sie übertragen? Ich kenne die Antwort noch nicht, aber ich glaube, es ist an der Zeit, sich auch mit dieser Frage auseinanderzusetzen.

Die Moral von der Geschichte: Wir müssen als demokratische Gesellschaft neu definieren, wie wir informiert werden möchten.


Schreiben Sie uns!

1 Beitrag anzeigen

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Zuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Zuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmende sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Zuschriften können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!

Partnerinhalte

Bitte erlauben Sie Javascript, um die volle Funktionalität von Spektrum.de zu erhalten.