Die Nachrichtenagentur AP verwendet seit 2014 Software der Firma „Automated Insights“, um über aktuelle Bilanzen von Unternehmen zu berichten. Mehr als 3.000 Finanzberichte pro Quartal werden so von AP ohne menschliches Zutun erstellt. Die Fehlerquote sei seitdem gesunken, weiß die Agentur zu berichten.
Mit „Quakebot“ produzierte die Los Angeles Times im vergangenen Jahr am schnellsten eine Nachricht nach dem lokalen Erdbeben. Hierfür musste kein Reporter aufwachen, nachdenken und schreiben. Die Daten wurden automatisiert zu einer Nachricht geformt. Sport- und Finanzjournalismus sind zurzeit die Haupteinsatzfelder für Algorithmen-basierte Nachrichtenproduktion. Die sprachlichen Variationen im Ringen um Tabellenplätze und Umsatzrankings sind technisch zu bewältigen.
Doch diese Technik beschränkt sich nicht auf solch standardisierte Produkte: Die Firma „Narrative Science“ ist darauf spezialisiert, aus großen Datensätzen Geschichten zu generieren. Nicht die Datenanalyse, sondern deren Umsetzung in Geschichten, sei die Leistung künstlicher Intelligenz, meint Kristian Hammand, Professor für Informatik und Journalismus sowie einer der Firmengründer. Er prognostiziert, dass in zehn Jahren 90 Prozent der journalistischen Nachrichten Algorithmen-basiert erstellt würden.
Man muss seinem unternehmerischen Optimismus nicht unbedingt folgen, um zu erkennen, was das für professionellen Journalismus bedeutet. Hier naht radikale Desillusionierung: Wer sich einst als Kreativer wähnte, sieht sich nun von Robotern ersetzt. Das Problem besteht darin, dass Algorithmen grundsätzlich aus bisherigen Daten auf künftige Relevanz schließen: What-you-get-is-what-you-got. So finde „systematisches Mainstreaming“ statt. Erwartungen würden stets an bislang Erhaltenes gebunden, darauf weist der Medienwissenschaftler William Uricchio hin. Mit dem Algorithmus als Selektionsmodus löst sich das bislang etablierte Verhältnis zwischen Text und Autor auf.
In dieser Entwicklung liegt aber zugleich eine Chance für den Journalismus. Wird Routinearbeit automatisiert, bleibt Zeit für das Wesentliche: Recherche, Kritik und Kontrolle. Danach besteht ausreichend Bedarf.
Dieser Beitrag erschien in leicht veränderter Form im Tagesspiegel vom 29. März 2015
Bildquelle: Chris Isherwood/flickr.com
Schlagwörter:Algorithmen, AP, Datenanalyse, Los Angeles Times, Mainstreaming, Roboter-Journalismus