Roboter-Journalismus

23. März 2015 • Digitales, Forschung aus 1. Hand, Qualität & Ethik • von

Das amerikanische Technik-Unternehmen „Automated Insights“, zu Deutsch automatisierte Einblicke, verkündete kürzlich, dass es 3.000 gewinnbringende Artikel pro Quartal für die Nachrichtenagentur Associated Press produziere und publiziere – alle automatisch aus Daten generiert. Eine andere US Software-Firma, „Narrative Science“, lässt auf dieselbe Art Geschichten in den Bereichen Finanzen, Sport und Web verfassen.

Überall gibt es klare und gut strukturierte Daten, aus denen Algorithmen Nachrichtenbeiträge erstellen können. Oft lassen sie sich von den von Menschenhand geschriebenen nicht mehr unterscheiden. Die Technik, die dahinter steht, wird auch als Roboter-Journalismus bezeichnet. Sie bietet neue Möglichkeiten, billig und massenhaft Inhalte zu erstellen und sie zugleich auf den einzelnen Nutzer abzustimmen. Auch über bestimmte Ereignisse kann die Technik schneller berichten als ein Mensch das je könnte.

Roboter-Journalismus bietet offensichtlich ökonomische Vorteile. Aber könnte er irgendwann auch einem höheren Ziel, etwa dem öffentlichen Interesse dienen? Ist es denkbar, dass Roboter-Journalisten das Interesse auf gesellschaftlich relevante Fragen lenken oder öffentlichen Druck erzeugen können? Wie werden sie unsere Medienwelt von heute verändern?

Zusammen mit Tanya Lokot von der Maryland Universität habe ich die Rolle und Funktion von Roboter-Journalisten vor allem für Social Media erforscht. Die bisherige Forschung hat sich häufig auf den Einsatz von solchen, sogenannten Bots und seine negativen Folgen konzentriert. Von denen gibt es viele: die künstliche Schaffung sozialer Realität, die Produktion von Informations- und Datenmüll, Manipulation in Computerspielen durch automatisierte Spieler, als Bürgerinitiativen verdeckte PR (astroturfing) und andere. Medien haben ebenfalls auf die Nutzung von Roboter-Journalisten hingewiesen: auf die Manipulation der Themenagenda während des mexikanischen Wahlkampf oder auf die Verwässerung von oppositionellen Meinungen in Russland.

In unserer Forschung haben wir uns jedoch mehr für die positiven Aspekte von Robotern interessiert. Können sie auf einer Plattform wie Twitter Nachrichten und Informationen im öffentlichen Interesse verbreiten?

In unserer Studie haben wir Hunderte von Nachrichten-Robotern, die wir auf Twitter fanden, untersucht. Es gibt zweifellos auch positive Aspekte:  Roboter teilen automatisiert Nachrichten und Informationen, führen verstreute Daten zusammen oder schaffen Nischenkanäle, die nur für ein sehr kleines Publikum interessant sind. Ein Bot wie @BadBluePrep zum Beispiel setzt nur solche Nachrichten zusammen, die im Zusammenhang mit „Überleben“ und „Vorbeugung“ stehen. Der @North_GA Roboter sammelt Nachrichten und produziert daraus News-Feeds, die den nördlichen Teil des US-Bundesstaates Georgia betreffen. Die Vorteile liegen auf der Hand: Mikro-Publika mit sehr speziellen oder räumlich stark begrenzten Interessen können so mit geringen Kosten bedient werden.

Wir fanden auch einige Roboter, die sich in ihrer journalistischen Funktion bereits in Richtung „höherer Ziele“ – etwa Verantwortlichkeit oder kritisches Kommentieren – bewegen. Der @cybercyber Bot macht beispielsweise auf eine bestimmte Wortwahl aufmerksam, indem er die inflationäre Verwendung des Begriffs „cyber“ in Nachrichten kritisiert.

Der @NYTAnon Bot spürt New York Times Artikel auf, in denen anonyme Quellen verwendet werden, und verbreitet sie. Er ist besonders interessant, weil er Bedenken ausgelöst und eine Debatte unter Journalisten auf Twitter über die Verwendung anonymer Quellen angestoßen hat. Und auch die Ombudsfrau der New York Times nutze ihn als Anlass, um über das Thema zu diskutieren. Ich würde hier noch nicht von media accountability sprechen, doch wir sind nahe dran: Der Bot trägt immerhin zur Medienkritik bei und provoziert Reaktionen.

Ob diese automatisierten Twitterer aber wirklich einen weitreichenden Beitrag zur Rechenschaftspflicht des Journalismus leisten können, ist noch offen. Unsere Analyse zeigte nämlich auch, dass nur etwa 45 Prozent aller untersuchten Journalisten-Roboter Informationen darüber veröffentlichen, auf welche (Daten-)Quellen sie zugreifen. Deshalb wird Transparenz ein wichtiger Aspekt bei der Verbreitung von solchen Robotern sein.

Wie könnte das journalistische Ideal der Transparenz bei ihnen greifen und wie könnten Nachrichtennutzer ihr Verständnis von Vertrauen und Glaubwürdigkeit gegenüber einem solchen Automaten anpassen? Selbst wenn wir davon ausgehen, dass mehr Bots für Medienkritik und Kommentierung eingesetzt würden, ist das Problem der Eigentümerschaft der Plattformen noch nicht gelöst. Twitter schätzt, dass etwa 8,5 Prozent aller Accounts in irgendeiner Form automatisiert sind und löscht deshalb routinemäßig offenkundige Spam-Nachrichten.

Doch dieselben Löschkriterien, die Twitter an sie anlegt, träfen auch auf Nachrichten-Roboter zu, die ein hehreres Ziel verfolgen als ihre Spam-Kollegen. Was passiert, wenn ein Unternehmen sich entschließt einen Nachrichten-Roboter abzuschalten, mit dem er nicht einverstanden ist?

Erstveröffentlichung: EJO englisch vom 11. Februar 2015

Übersetzung: Judith Pies

 

Bildquelle: Alberto D’Otavi/flickr.com

Print Friendly, PDF & Email

Schlagwörter:, , , , ,

Send this to friend