Wenn Algorithmen Journalismus machen

17. Mai 2016 • Digitales, Forschung aus 1. Hand • von

Vor knapp zwei Jahren hat die Nachrichtenagentur AP damit begonnen, ihre Meldungen über Quartalsberichte von Unternehmen von Algorithmen erstellen zu lassen. Seitdem hat der sogenannte automatisierte Journalismus die Medienbranche in Aufruhr versetzt.

robot-1Bislang funktioniert die automatisierte Berichterstattung vor allem in den Ressorts Sport und Finanzen gut, da hier Texte auf Basis von Datenmengen erstellt werden können, die weitgehend strukturiert vorliegen. Auch Themen wie Erdbeben und Feinstaubkonzentrationen, die auf Sensordaten basieren, bieten sich an. Sind die Algorithmen erst einmal entwickelt und konfiguiert, ist es möglich eine schier unendliche Anzahl an Berichten zu erstellen – und dies schneller, günstiger und fehlerfreier als ein menschlicher Journalist dazu jemals in der Lage wäre.

Die wirtschaftlichen Vorteile des automatisierten Journalismus liegen klar auf der Hand und passen perfekt zu den aktuellen Zielen der Medienhäuser, Kosten einzusparen, aber gleichzeitig ihre Berichterstattung auszubauen und personalisierte Inhalte anzubieten. Es überrascht deshalb nicht, dass das World Editors Forum im vergangenen Jahr automatisierten Journalismus zu einem der wichtigsten Trends in Newsrooms erklärt hat. Auch die Mainstream-Medien haben der neuen Technologie viel Aufmerksamkeit geschenkt. So hat sich zum Beispiel ein Journalist des US-amerikanischen National Public Radio (NPR) mit einem Algorithmus einen Wettkampf im Nachrichtenschreiben geliefert. Die New York Times wollte in einem Quiz von ihren Lesern wissen, ob ein bestimmter Text von einem Menschen oder einem Algorithmus verfasst worden ist.

Ein ähnliches Erkenntnisinteresse verfolgten wir mit einer Studie, deren Ergebnisse wir kürzlich in der Fachzeitschrift Journalism veröffentlicht haben. Im Fokus unserer Untersuchung stand die Frage, wie die von Algorithmen verfassten Texte bei den Lesern ankommen und ob sie einen Qualitätsunterschied zwischen automatisierten und von Journalisten verfassten Beiträgen wahrnehmen. Wir wählten aus dem Sport- und Finanzbereich zwei journalistische Texte beliebter deutscher Websites aus, und zwar einen Beitrag über ein Fußballspiel und einen über die Kursentwicklung eines Autozulieferers. Zu denselben Themen erstellte ein Algorithmus, der am Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie entwickelt wurde, Texte.

Insgesamt lasen 986 Studienteilnehmer die Texte. Sie enthielten eine kurze Notiz, ob sie von einem Journalisten oder einem Algorithmus geschrieben worden waren. Was die Testpersonen dabei nicht wussten: Diese Angabe wurde in einigen Fällen bewusst verfälscht.

Von Journalisten verfasste Texte werden lieber gelesen

Die Leser fanden die Texte von Journalisten angenehmer zu lesen als die von Algorithmen – ein Ergebnis, das man so auch erwarten konnte. Allerdings gaben sie einem Text auch bessere Noten, sobald sie annahmen, dass er von einem Journalisten verfasst worden war, selbst wenn der Text in Wirklichkeit computergeneriert war.

Das heißt, sobald man die Leser nur glauben ließ, dass der Artikel von einem Menschen geschrieben wurde, waren sie der Ansicht, er wäre besser zu lesen. Die Leser hatten somit eine gewisse Erwartungshaltung, die implizit ihre Wahrnehmung beeinflusste.

Ein Ergebnis unseres Experiments aber hat uns selbst überrascht: Die von Menschen geschriebenen Texte wurden zwar lieber gelesen, aber die von Computer generierten Texte galten als glaubwürdiger. Automatisch generierte Texte sind sehr fakten- und datenlastig, Zahlen werden bis auf die zweite Kommastelle genannt. Wir nehmen an, dass dies zur Glaubwürdigkeit beiträgt.

Insgesamt waren die von den Studienteilnehmer wahrgenommen Unterschiede aber gering. Studien aus Dänemark und den Niederlanden kamen bereits zu ähnlichen Ergebnissen. Dies ist als Zeugnis dafür zu werten, dass die von Computern generierten Texte im Bereich von Sport- und Finanzkurznachrichten bereits sehr ansprechend sind.

Bei Routine-Aufgaben kein Unterschied zwischen Mensch und Maschine

Auch von Menschen verfasste Nachrichtentexte lesen sich oft so, als seien sie von einer Maschine geschrieben wurden: Sie orientieren sich an Standards und geben lediglich Fakten wider, ohne auf anspruchsvolle Erzählkunst Wert zu legen. Aus diesem Grund ist es von vornherein so einfach, das Schreiben von kurzen Nachrichtentexten zu automatisieren, und auch keine große Überraschung, dass Leser dabei keinen Unterschied zwischen Mensch und Maschine wahrnehmen. Das heißt, Journalisten, die Routine-Aufgaben wie Nachrichtenschreiben erledigen, agieren selbst wie Maschinen, was ironischerweise der Grund dafür ist, warum sie so einfach zu ersetzen sind.

Es ist verständlich, dass Journalisten die Automatisierung als Bedrohung wahrnehmen und im Fokus ihrer Berichterstattung über dieses Thema oft die „Mensch gegen Maschine“-Argumentation steht. Natürlich werden durch die Automatisierung einige Arbeitsplätze wegfallen. Aber im Bereich der automatisierten Nachrichtenproduktion werden auch neue Arbeitsplätze entstehen. So braucht es für die Entwicklung von Algorithmen, die Texte erstellen, ein großes redaktionelles Expertenwissen, zudem müssen sie manuell konfiguriert und gewartet werden.

Höchstwahrscheinlich werden zukünftig auch im Journalismus Mensch und Maschine einen Bund eingehen, in dem beide jeweils die Aufgaben erledigen, die sie am besten können: Ein Algorithmus könnte Daten analysieren, interessante Aufhänger für Storys finden und einen ersten Entwurf zum Thema anfertigen, während Journalisten dann den Text mit einer detaillierten Analyse, Zitaten aus Interviews und Hintergrundinformationen anreichern könnten.

Automatisierte Artikel zu Wahlprognosen für die US-Präsidentschaftswahl

Bislang ist die automatisierte Nachrichtenerstellung auf Routinethemen begrenzt, bei denen Artikel sich auf die Wiedergabe von Fakten beschränken. Wie aber werden automatisierte Nachrichten wahrgenommen, wenn diese über sensible oder emotionale Themen berichten, die zudem mit Unsicherheit behaftet sind? Dieser Frage gehen wir zurzeit im Rahmen des PollyVote-Projekts nach, das 2004 ins Leben gerufen wurde, um Erkenntnisse aus der Prognoseforschung am Beispiel von Wahlen einer breiten Öffentlichkeit zu demonstrieren.

Mit Unterstützung der Volkswagen Stiftung und in Zusammenarbeit mit AX Semantics haben wir einen Algorithmus entwickelt, der auf Grundlage der PollyVote-Daten automatisiert journalistische Artikel zu Wahlprognosen für die diesjährige US-Präsidentschaftswahl entwickelt. Das Projekt bietet zum einen eine Servicefunktion für Journalisten, indem es für sie computergenerierte Prognosen bereitstellt, und will zum anderen herausfinden, wie beim Leser automatisierte Nachrichten für solch ein sensibles und stark in der in der Öffentlichkeit stehendes Thema ankommen.

Graefe, H.; Haim, M.; Haarmann, B. & Brosius, H.-B. (2016): Readers’ perception of computer-generated news: Credibility, expertise, and readability. Journalism, Published online before print April 17, 2016. 

Bildquelle: Wikimedia Commons:Caught Coding (9690512888).jpg

 

Print Friendly, PDF & Email

Schlagwörter:, , , , , , ,

Send this to a friend