Digitalisierung und Internet haben den Journalismus völlig verändert, und der Medienwandel geht weiter. Vor allem durch den sogenannten Roboterjournalismus entstehen für Nachrichtenredaktionen neue Anforderungen, auf die sie vorbereitet sein sollten.
Spätestens seit den WikiLeaks-Enthüllungen 2010 zu den Kriegen im Irak und in Afghanistan hat sich die automatische Auswertung und Aufbereitung großer Datenmengen im Journalismus immer mehr verbreitet. Über einen solchen Datenjournalismus hinaus wächst seit einigen Jahren auch der sogenannte Roboterjournalismus, in dem Daten nicht bloß ausgewertet und aufbereitet, sondern darüber hinaus automatisch zu Nachrichtentexten verarbeitet werden. Dabei sind die Grenzen zwischen Daten- und Roboterjournalismus fließend.
Einsatzgebiete von Nachrichten-Bots
Die automatische Produktion journalistischer Texte wird zwar als Roboterjournalismus bezeichnet, aber statt dem Maschinen-Begriff „Roboter“ sollte man besser „Bot“ verwenden. Bots sind nämlich Programme, die automatisch anhand festgelegter Algorithmen bestimmte Aufgaben erfüllen. Solche Nachrichten-Bots können nicht nur zahlengeprägte Meldungen zu Finanzdaten, Lottozahlen, Sportergebnissen, Schadstoff- und Wetterdaten oder Verkehrsdaten erstellen. Machbar sind auch (über Finanzdaten hinausgehende) Wirtschaftsmeldungen zu kleineren Unternehmen und (über Spielergebnisse hinausgehende) Sportmeldungen zu Kreisligen oder Randsportarten. Es ist aber auch möglich, Nachrichten-Bots für Lokalmeldungen oder Promi-News einzusetzen.
Hier einige Beispiele: In den USA erstellt das Unternehmen Automated Insights mit seinem Programm Wordsmith für die Nachrichtenagentur Associated Press (AP) automatisch Wirtschafts- und Sportmeldungen. In Großbritannien arbeiten das Startup Urbs Media und die Nachrichtenagentur Press Association (PA) im Projekt Radar zusammen, um aus nationalen Statistiken automatisch Lokalmeldungen zu produzieren. In Deutschland erzeugen die Software-Unternehmen Retresco und Sportplatz Media mit ihrem Programm Textengine automatisch Vor- und Nachberichte der Fußballspiele aller deutschen Ligen. Und die Firma Aexea erstellt mit ihrer Software AX Semantics gemeinsam mit der Stuttgarter Zeitung zweimal täglich automatische Meldungen für das „Feinstaub-Radar“.
Vorteile automatischer Textproduktion
Die Vorteile von automatischen gegenüber menschlichen Textproduzenten sind offenkundig: Nachrichten-Bots werden nie krank, müde oder urlaubsreif, sie machen bei korrekter Programmierung keine Fehler und sie können in kurzer Zeit riesige Textmengen erzeugen. Dadurch betragen die Kosten nur wenige Cent pro Meldung. Häufige Einsatzbereiche sind Themen, die Journalisten wegen zu wenig Zeit oder zu kleiner Zielgruppe selbst bearbeiten können. Die beiden wichtigsten Vorteile automatischer Textproduktion mit Hilfe von Nachrichten-Bots sind also, die Personalkosten zu senken und den Textausstoß zu erhöhen.
Somit sind einerseits Nachrichtenangebote im Internet denkbar, die vollständig automatisch mit Texten von Nachrichtenagenturen und -Bots gefüllt werden. Ein solches Billigmodell könnte im Extremfall sogar völlig ohne Journalisten auskommen, weil nur noch technische Fachleute wie Computerlinguisten, Datenanalysten oder Programmierer benötigt würden. Andererseits könnten Redaktionen durch Nachrichten-Bots aber auch von Routineaufgaben entlastet werden und Zeit für anspruchsvolle Aufgaben wie Analysen, Kreativität und Recherchen gewinnen. Bei einem solchen Qualitätsmodell könnten sich die Journalisten auf fachkundig einordnende, originell geschriebene, sorgfältig recherchierte Beiträge konzentrieren. Inhalte, die nur wenig Einordnung, Originalität und Recherche benötigen, ließen sich dagegen von Bots erstellen und würden die journalistischen Qualitätsbeiträge nur ergänzen. So könnten Journalisten die Analysen und Kommentare zu einigen Spitzenspielen des aktuellen Spieltages der Fußball-Bundesliga schreiben, während Bots “bloß” die Spielberichte und Tabellen für hunderte Begegnungen von der Ersten Bundesliga bis hinab zu den Kreisligen zuliefern. Oder Redakteure würden die hintergründigen Unternehmensanalysen verfassen, während die Nachrichten-Bots “nur” tausende automatisch produzierte Finanzmeldungen und Börsenberichte ergänzen.
Auch die Stärken von menschlichen gegenüber automatischen Textproduzenten sind somit deutlich: Nachrichten-Bots sind nicht in der Lage, quellenkritisch, phantasievoll oder investigativ zu arbeiten. Die erfolgversprechendste Strategie im Konkurrenzkampf mit Bots ist für Journalisten also, sich vom Termin- und Verlautbarungsjournalismus zu verabschieden und auf fachkundig einordnende, originell geschriebene, sorgfältig recherchierte Beiträge zu besinnen. Wenn Journalisten wieder auf diese journalistischen Tugenden setzen, werden sie weitgehend unersetzbar bleiben.
Ethik im Roboterjournalismus
Die wachsende Bedeutung von Roboterjournalismus sollte nicht zu dem Trugschluss führen, dass dadurch die Berichterstattung im Allgemeinen oder die Nachrichten im Besonderen automatisch neutraler oder objektiver werden. Daten sind keineswegs neutral, weil sie jeweils in ihren Zusammenhängen betrachtet und richtig interpretiert werden müssen. Redaktionen sollten deshalb beim Einsatz von Nachrichten-Bots die Datenquellen offenlegen und die Zuverlässigkeit der Daten regelmäßig prüfen. Grundsätzlich sollte die Arbeit von Bots auch im laufenden Routinebetrieb ständig überwacht werden.
Ein wichtiger Gesichtspunkt bei der Frage, in welchem Ausmaß und in welchen Bereichen sich die automatische Textproduktion mit Hilfe von Nachrichten-Bots durchsetzen wird, ist deren Akzeptanz durch die Nutzer. Es ist allerdings zu erwarten, dass die meisten Menschen die Texte von automatischen und menschlichen Produzenten gar nicht unterscheiden können. Im Gegenteil: Studien belegen, dass viele Nutzer die Texte von Bots sogar glaubwürdiger und informativer finden, als die von Journalisten. Redaktionen sollten Ihre Nutzer dennoch darüber informieren, welche Texte mit Hilfe eines Nachrichten-Bots erstellt wurden. Das Vertrauen in die Medien, insbesondere in den Bot-unterstützten Journalismus, kann nur durch Transparenz bewahrt werden.
Die Nachrichtenproduktion mit Hilfe von Roboterjournalismus stellt Journalisten also vor neue ethische Anforderungen. Dabei müssen Nachrichtenredaktionen nicht nur journalistische, sondern auch andere Gesichtspunkte berücksichtigen:
- Überprüfen Sie, ob die Ihren Texten zugrunde liegenden Daten zuverlässig sind
- Vergewissern Sie sich, dass Sie die Rechte an der Nutzung der Daten haben
- Legen Sie die Datenquellen offen, auf deren Grundlage die Texte erstellt wurden
- Informieren Sie Ihre Nutzer darüber, welche Texte mit Hilfe eines Nachrichten-Bots erstellt wurden
- Erklären Sie Ihren Nutzern, weshalb Sie Texte mit Hilfe eines Nachrichten-Bots erstellen lassen
- Überwachen Sie fortlaufend, ob Ihr Nachrichten-Bot zuverlässig arbeitet
- Verwenden Sie Nachrichten-Bots, um sich von Routineaufgaben zu entlasten und Zeit für anspruchsvolle Aufgaben zu gewinnen
- Nutzen Sie Nachrichten-Bots nicht vorrangig, um Personalkosten zu senken, sondern um die Produktqualität zu sichern
Bei letzterem sollte beachtet werden, dass Roboterjournalismus die Arbeit von Nachrichtenjournalisten erleichtern und beschleunigen kann, aber vermutlich zu Arbeitsverdichtung und Personalabbau führt. Dieser Prozess sollte von Redaktionen nicht nur erlitten, sondern aktiv gestaltet werden. Journalisten sollten nicht versuchen, Nachrichten-Bots zu besiegen, sondern lernen, mit ihnen zu arbeiten.
Erstveröffentlichung: https://www.stefre.de/html/nachrichtenbots.html
Bildquelle: Stefan Frerichs
Schlagwörter:automatische Textproduktion, Datenjournalismus, Ethik, Nachrichten-Bots, Nachrichtenjournalismus, Roboterjournalismus