Als am 17. März 2014 die Erde in Kalifornien bebte, dauerte es nur drei Minuten, bis die "Los Angeles Times" die erste Meldung veröffentlichte. Als Autor firmierte der Programmierer Ken Schwencke, doch die Meldung schrieb in Wirklichkeit eine Software. Quakebot, so der Name, ist derart programmiert, dass er auf einen Alarm des US Geological Survey reagiert (der ab einem bestimmten Schwellenwert ausgelöst wird), die relevanten Daten des Berichts extrahiert und diese in vorgefertigte Templates einbaut. Die Meldung wird dann im Content-Management-System angelegt, wo der Redakteur nur noch auf einen Knopf drücken muss, um sie zu publizieren. Der Schreibroboter ist präzise, hellwach und vor allem billiger. Man benötigt keinen Spät- oder Frühdienst am Dienstpult mehr – der Algorithmus schläft nie.

Die Robotik hält Einzug in die Redaktionsräume. Nachrichtenagenturen wie die AP (Associated Press), aber auch Zeitungen wie die "New York Times" und die "Washington Post" setzen Computerprogramme ein, die automatisiert standardisierte Finanz- und Sportartikel generieren. Das Prinzip funktioniert vereinfacht so: Algorithmen setzen strukturierte Daten in so genannte Templates, eine Art Schablone, ein und fügen die Textbausteine nach vorgegebenen syntaktischen Regeln zu einem logisch kohärenten Text zusammen. Das Verblüffende ist, dass schon jetzt computergenerierte Meldungen von handwerklich sauberen Meldungen aus Menschenhand kaum zu unterscheiden sind (die "New York Times" hat dazu ein Quiz erstellt, bei dem der Leser anhand von Versatzstücken die algorithmische beziehungsweise menschliche Autorenschaft erraten muss). Das Technikmagazin "Wired" ließ eine Maschine sogar einen Nachruf auf Marvin Minsky, einen Pionier der künstlichen Intelligenz, schreiben. Kristian Hammond, der Gründer von Narrative Science, prognostiziert, dass News-Bots bis 2025 mehr als 90 Prozent aller Artikel schreiben werden. Heliograf, das KI-System der "Washington Post", das im Pilotbetrieb während der Olympischen Spiele in Rio 2016 rund 300 Kurzberichte und News-Alerts produzierte, hat nach einem Bericht des Branchendienstes "Digiday" in seinem ersten Jahr 850 Artikel generiert, darunter 500 zur US-Präsidentschaftswahl, die insgesamt über eine halbe Million Klicks erzielten.

"Roboterjournalisten" versprechen, dass ihr Einsatz Ressourcen für wichtigere Aufgaben wie Recherche freisetzt. Die AP schätzt, dass durch die Automatisierung 20 Prozent der Zeit, die Reporter für Quartalsberichte aufwenden, frei würden. Man kann über unterklassige Fußball- oder Basketballligen berichten, ohne einen freien Mitarbeiter für schmales Zeilengeld am Sonntagnachmittag auf einen verregneten Fußballplatz zu schicken.

Die Frage ist, wo die Grenzen künstlicher Intelligenz liegen. Kann der Blechkollege irgendwann auch Leitartikel oder Reportagen schreiben? Seth C. Lewis, Professor an der Journalistenschule der University of Oregon und Experte für Big-Data-Anwendungen im Journalismus, teilt auf Anfrage mit: "Wenn bestimmte Ereignisse hoch vorhersagbar, die Daten strukturiert und die Geschichten routinisiert sind, ist das ein Rezept für Journalismus, das automatisiert werden kann." Man sehe das bereits an einer wachsenden Anzahl automatisierter Geschichten über Quartalsberichte oder Sportergebnisse. Wo die Themen aber unsicher und die Daten nicht quantifizierbar seien, würden kaum Automatisierungsprozesse stattfinden. "Ich denke, wir sind noch weit davon entfernt, dass Roboterjournalisten Meinungsstücke oder Hintergrundgeschichten schreiben."

KI-Systeme, so Seth, könnten Reportern jedoch als "komplementäre Agenten" assistieren, indem sie ihnen Hinweise geben – zum Beispiel interessante Datenpunkte markieren oder einen großen Datensatz strukturieren. Bei den Football Leaks mussten sich die Investigativ-Reporter durch einen 1,9 Terabyte umfassenden Datensatz wühlen. In dem Wust an Daten könnte der Algorithmus Anomalien identifizieren und Reporter so auf die entscheidende Spur bringen.

Matthew Waite, Journalismusprofessor an der University of Nebraska-Lincoln, hält die Potenziale von Roboterjournalisten für begrenzt. "Diese automatisierten Schreibsysteme basieren auf einem Datenstrom, der irgendwo herkommt. Und solange dieser Datenstrom das Drama und die Emotion des menschlichen Befindens absorbiert, wird ihr Einsatz begrenzt sein." Ein Algorithmus könne einen Polizeichef nicht auf Grundlage der Kriminalstatistik mit der steigenden Kriminalität konfrontieren, geschweige denn eine packende Geschichte über eine Familie schreiben, die von Gewalt betroffen ist. Computerprogramme vermögen zwar Meldungen zu verfassen, seien jedoch auf diese Daten beschränkt. "Solange Menschen besser als Computer darin sind, mit Menschen zu sprechen, werden menschliche Autoren auch noch einen Platz haben", prophezeit Waite. Journalisten, die jedoch Textbausteine aus Daten-Feeds montieren, hätten in Zukunft keinen Job mehr. "Lassen wir Menschen das tun, worin sie gut sind, und Computer das, worin sie besser sind – bei repetitiven Aufgaben", fordert Waite.

Während der Mensch immer formelhafter kommuniziert (Stichwort Emojis), machen Computer auch in kreativen Prozessen beharrlich Fortschritte. Im März 2016 schaffte es ein gemeinsam von Forschern und einem KI-System verfasster Roman mit dem Titel "The Day A Computer Writes A Novel" in die zweite Runde eines japanischen Literaturwettbewerbs. In den USA hat ein Algorithmus ein Drehbuch samt Regieanweisungen geschrieben. Und IBMs Superhirn Watson hat eine ganze Ausgabe des britischen Marketing-Magazins "The Drum" gestaltet. Der Computer als Chefredakteur. Doch in einem medialen Ökosystem, in dem Roboter zunehmend redaktionelle Aufgaben übernehmen, stellt sich auch die Frage nach der Maschinenethik, ob Maschinen eine Form journalistisch-ethischer Grundregeln, wie sie im Pressekodex niedergelegt sind, einprogrammiert werden muss. Soll die Software die nordafrikanische Herkunft eines Vergewaltigers hervorheben? Soll der Computer auf politisch inkorrekte Formulierungen verzichten? Welcher Programmierer entscheidet das am Ende?

Medienexperte Lewis sagt: "Da Automatisierung zunehmend in den Journalismus einkodiert ist, müssen wir jedes Mal aufs Neue fragen: Wem dient diese Software? Welche Art von Werten – wessen Werte vor allen Dingen – werden in den Programmkode, der Nachrichten produziert, geschrieben? Welche Geschichten werden erzählt, welche nicht, und warum? Wir gehen wir mit Fairness, Meinungsvielfalt und Repräsentation um?" Wenn man sich Bots, automatisierte Skripte, anschaut, die in sozialen Netzwerken Diskurse manipulieren und Meinungen maschinell unterdrücken, scheint es mit der Diversität nicht allzu weit her zu sein.

"Wir können nicht annehmen, dass Algorithmen entweder neutral oder besser als menschliche Alternativen sind", betont Lewis. Das sieht Journalistikprofessor Waite ähnlich. Das Problem des automatisierten Journalismus liege darin, dass die Geschichten genauso verzerrt seien wie die Menschen, die den Algorithmus programmierten. Die Annahme, automatisierter Journalismus erzeuge mehr Glaubwürdigkeit und produziere weniger Vorurteile, sei naiv. Einig sind sich die Experten auch darin, dass man Roboterjournalisten Transparenzregeln unterwerfen müsse, also computergenerierte Texte klar als solche ausweisen. Fazit: Roboter werden den Reporter in Zukunft nicht ersetzen, ihm aber wohl stärker zuarbeiten.