Wenn Algorithmen Texte schreiben – Roboter im Journalismus

Der rasende Reporter Egon Erwin Kisch könnte heute nicht mehr mit Schnelligkeit punkten. In den Nachrichtenredaktionen erstellen inzwischen Algorithmen Texte und Entwickler programmieren aus massenhaft anfallenden Daten aus dem Internet Datenvisualisierungen. Auch das Verhältnis zwischen Journalisten und Lesern hat sich durch das Web 2.0 verändert, denn oft spielen letztere bei der journalistischen Produktion eine nicht unbedeutende Rolle. Die Nachrichtenmacher müssen lernen, digitale Systeme in ihre Arbeit einzubeziehen.

Redaktionelle Arbeit von Robotern erledigt

Die Tageszeitung Los Angeles Times nahm als eine der ersten einen Roboter in ihr Team auf. Seinen ersten Artikel schrieb das „Quakebot“ getaufte Programm über das Erdbeben am 14. März 2014 in Kalifornien. Bei Associated Press erstellt der Algorithmus Wordsmith (Automated Insights) die Quartalsberichte für große Unternehmen wie Yahoo und Apple, und die von Narrative Science entwickelte Plattform Quill steht im Dienst des US-amerikanischen Wirtschaftsmagazins Forbes

Der Trend kommt auch in Europa an. Im März 2015 verfasste das Programm Data2Content für das Nachrichtenportal der französischen Tageszeitung Le Monde 36 000 Artikel über die Kantonalwahlen. In der Berliner Morgenpost erstellt ein Roboter namens Feinstaub-Monitor die täglichen Berichte über die Feinstaubkonzentrationen. 

Für komplexe Aufgaben konzipiert

Bei diesen Roboter-Journalisten und -Redakteuren handelt es sich um Algorithmen, die für die Umwandlung von Daten in Text programmiert wurden. Manche ergänzen dazu einfach bereits existierende Lückentexte mit Informationen von Webseiten oder öffentlichen Daten. Andere Programme sind für komplexere Aufgaben konzipiert. So ist der Algorithmus Stats Monkey von IIL (Intelligent Information Laboratory) auf die Berichterstattung über Baseball-Spiele spezialisiert. Im Minutentakt erfasst er die Informationen über ein Match, sucht sich die Fotos der Spieler aus dem Internet und erstellt orthografisch und grammatikalisch fehlerfreie Artikel, deren Stil allerdings „nur mehr oder weniger anschaulich“ ist (Le Monde, März 2010). Das Roboter-Programm der Berliner Morgenpost ist in der Lage, die aktuellen Feinstaubkonzentrationen in der deutschen Hauptstadt mit denen von 2008 zu vergleichen und Titel, Texte sowie interaktive Visuals automatisch anzupassen (Morgenpost.de, April 2015).

 

2025: 90 Prozent aller Informationen automatisch erstellt

Mit den neuen Programmen wurden in der letzten Zeit bereits unzählige Artikel erstellt; allein Automated Insight generierte 2014 eine Milliarde Texte (Frankfurter Allgemeine Zeitung, April 2015). Für Kris Hammond, den Gründer von Narrative Science, ist dies erst der Anfang: „Schon 2025 werden Roboter 90 Prozent aller Informationen für das breite Publikum erstellen.“ (La Revue européenne des médias et du numérique, Herbst 2014)

 

Und die Zuverlässigkeit?

Doch wer ist für die von Algorithmen verursachten Fehler verantwortlich? Sind die für die Textproduktion verwendeten Daten rechtefrei? Wer lektoriert automatisch erstellte Texte? Diese und andere berufsethische Fragen stellen sich bei der automatischen Textproduktion. „Daran ist der Computer Schuld“ ist für Tom Kent keine ausreichende Rechtfertigung. Der für Deontologie zuständige Redaktionsleiter bei The Associated Press untersucht die Auswirkungen des Einsatzes von Programmen zur Textgenerierung (NLG). Mit zehn Fragen will er Unternehmen, die früher oder später auf diese Systeme zurückgreifen werden, dazu anhalten, Zuverlässigkeit und Triftigkeit ihrer Daten zu überprüfen. „Ein Politiker könnte nachfragen, warum auf diese oder jene Weise über ihn berichtet wurde. Möglicherweise möchte er die Parameter und den Quelltext Ihres Roboters kennen“, erläutert Tom Kent. Dies erfordert absolute Transparenz. (medium.com, 24. Februar 2015)

 

Bedrohung für die Journalisten?

Auf die Verunsicherung in Journalistenkreisen reagieren die Algorithmen-Entwickler beschwichtigend: „Wir wollen den Journalisten lediglich Werkzeuge an die Hand geben, die ihnen die uninteressantesten, wiederkehrenden Aufgaben abnehmen. Dadurch haben sie mehr Zeit für den edlen Teil ihres Auftrags: Reportagen vor Ort, investigativer Journalismus, Hintergrundinformation“, erklärt Kris Hammond (Le Monde, März 2010). Quakebot-Schöpfer Ken Schwencke sieht in der Künstlichen Intelligenz alles andere als eine Bedrohung für die Journalisten. Er meint, mit diesen Programmen werde viel Zeit gespart, auch nähmen sie keinem die Arbeit weg, sondern machten die Arbeit für alle interessanter (Slate.com, März 2014). Fest steht, dass die Roboter-Journalisten nicht dazu in der Lage sind, Zusammenhänge zu erkennen, Hintergründe aufzuzeigen und den Bürgern das aktuelle Geschehen zu erläutern. Dies leisten  – bisher? – nur ihre menschlichen „Kollegen“.

„Wir werden auch in der Zukunft gut ausgebildete professionelle Journalisten brauchen“,  so die Überzeugung von Rémy Le Champion, dem stellvertretenden Direktor der Journalistenschule des Institut Français de Presse, der in einem Interview für ARTE Future auf die (noch) beschränkten Einsatzmöglichkeiten des Roboter-Journalismus hinweist.

 

Neue Berufsbilder

Der Journalistenberuf scheint also nicht vom Aussterben bedroht. Doch kein Nachrichtenprofi wird bestreiten, dass die Digitaltechnik aus den Redaktionen nicht mehr wegzudenken ist. Um fortbestehen zu können, muss sich der Journalismus weiterentwickeln und an das digitale Umfeld anpassen. Genau deshalb fördert das Netzwerk Hacks/Hackers (laviedesidées.fr, Juni 2011) die „Verzahnung der Printmedien mit der Informatik, um den Journalismus zu verändern oder sogar neuzustarten“. In dieser internationalen Community arbeiten seit 2009 Journalisten, Grafiker und Entwickler zusammen.

Unterdessen zeichnet sich in den Vereinigten Staaten schon seit einigen Jahren ein neuer Trend ab. Bei Schulungen lernen die Journalisten dort das Programmieren und die Programmierer/Entwickler das Einmaleins des Journalismus. Angeboten werden solche Lehrgänge u. a. an der Columbia University New York und an der Medill-Journalistenschule der Northwestern University in Illinois. Für Sylvain Parasie, Soziologe und Autor zahlreicher Abhandlungen über die Auswirkungen der neuen Technologien auf Medien und Kommunikation, ist das Portal owni.fr in Frankreich ein gutes Beispiel für diese Konvergenz zwischen Informations- und Informatikberufen: „Sie entwerfen neue journalistische Produkte in Form von Online-Datenbanken, interaktiven Karten und Animationen“ (laviedesidées.fr, Juni 2011).

Ken Schwencke, der Journalist bei der Los Angeles Times ist und den Quakebot-Algorithmus entwickelt hat, ist ein gutes Beispiel für die Verquickung von Journalismus und Informatik. Den Journalismus von morgen werden Journalisten, Datenanalysten und Programmierer gemeinsam erfinden. Die Technik kann mit Schnelligkeit punkten. Stil, Einordnung und Reflektion hingegen sind vorerst noch die Domäne des Journalisten aus Fleisch und Blut. 

Von Sophie Roche