Roboter-Journalisten: Konkurrenz oder Unterstützung?

10. Juli 2015 • Digitales, Redaktionsmanagement • von

In vielen Redaktionen kommen mittlerweile sogenannte Roboter-Journalisten zum Einsatz. Die Forschung darüber, bei welchen Aufgaben sie menschliche Journalisten tatsächlich ersetzen können, steht noch am Anfang.

Mensch-Roboter

Leser können menschlich und algorithmisch produzierte Artikel kaum noch unterscheiden.

Gleich in zwei wissenschaftliche Studien, die auf Experimenten beruhen, haben Medienforscher herausgefunden, dass Leserinnen und Leser journalistische Texte, die von „Robotern“, also von Computer-Software und somit algorithmisch generiert sind, kaum noch von Artikeln zu unterscheiden vermögen, die leibhaftige Profi-Journalisten verfasst haben.

Christer Clerwall (Karstad University, Schweden) legte insgesamt 45 Testpersonen Texte vor, die teils von Computern, teils von Journalisten erstellt worden waren. Die Respondenten stuften die maschinengenerierten Texte als geringfügig „informativer“, „genauer“, „vertrauenswürdiger“ und „objektiver“, aber auch „langweiliger“ ein, während die Journalisten bei „Kohärenz“, „Klarheit“ und „Lesespass“ punkteten – aber insgesamt waren diese Differenzen „nicht signifikant“.

Hille van der Kaa und Emiel Krahmer (beide: Tilburg University in den Niederlanden) spürten speziell der Glaubwürdigkeit von „Roboter“-Texten nach und befragten dazu 232 Holländer, unter ihnen 64 Journalisten. Interessanterweise vergaben die befragten Normalbürger an Computer und Journalisten gleich gute Noten im Blick auf Glaubwürdigkeit und Expertise. Nur die Journalisten bescheinigten ihrem eigenen Berufsstand mehr Vertrauenswürdigkeit als den Roboter-Kollegen.

Doch das ist womöglich nur die Spitze des Eisbergs. Noch wichtiger als das Schreiben von Artikeln ist in Zeiten, in denen auf einen Journalisten in den USA bereits vier bis fünf PR-Leute kommen, das Auswählen aus den zugelieferten Medienmitteilungen. Auch diese Auswahl übernehmen bei Suchmaschinen und sozialen Netzwerken zunehmend Algorithmen. Medienexperten wie Caitlin Dewey (Washington Post) oder Walter Quattrociocchi (Institute for Advanced Studies, Lucca) sorgen sich, dass auf diese Weise unser Weltbild sehr einseitig werden könnte – einfach, weil uns die Algorithmen nur noch das zuliefern, was wir erfahren wollen und nicht das, was wir erfahren sollten.

Nikki Usher (George Washington University) gibt da allerdings Entwarnung. Aus ihrer Sicht ist und bleibt das Problem der „selektiven Wahrnehmung” – also die Tatsache, dass wir vorzugsweise Medienangebote konsumieren, die unsere Vorurteile bestätigen – unser Problem als Mediennutzer. Es sei nicht das der Suchmaschinen und sozialen Netzwerke, die uns mit Informationen versorgen. Deren Algorithmen seien sehr viel komplexer, als die Kassandra-Rufer das gemeinhin darstellten. Zum Beispiel würde der Algorithmus von Google News bestimmte Nachrichten favorisieren: etwa jene, die große Redaktionen wie The New York Times zulieferten, oder Angebote, die mehr Kontext etwa in Form von Originalzitaten enthielten, oder eben besonders aktuelle News. Im Prinzip würden sich die Leute, die für Google News verantwortlich sind, ähnlich wie Profi-Journalisten darum bemühen, eine „bestmögliche Nachrichtenauswahl“ zu offerieren – nur eben mit Hilfe von Algorithmen, welche auf Nutzerinteressen eingehen.

Die Kritiker würden oftmals übersehen, was „Algorithmen, die Nachrichten filtern, mit herkömmlichen Verfahren bei der Nachrichtenselektion gemein“ hätten: „Auch Redaktionen waren lange Zeit so etwas wie ‚black boxes‘ – besetzt mit Journalisten, die hinter undurchdringlichen Mauern über die Top-Stories des jeweiligen Tages entschieden.“

Gleichwohl bleibt natürlich für Manipulation und Fernsteuerung Tür und Tor geöffnet, wenn gigantische Konzerne wie Google oder Facebook zentral über den Algorithmen-Einsatz entscheiden – und damit weltweit programmieren können, was Chen Cheng in Singapur, John Sixpack in Tennessee und Frau Hinz und Herr Kunz im Appenzeller Land zu sehen, hören und lesen bekommen.

Auch den Optimismus einiger Forscher, dass der Roboter-Einsatz in den Redaktionen Ressourcen für wichtigere Aufgaben wie die Recherche freisetzen könnte, muss man nicht unbedingt teilen. Clerwall sieht das realistischer als „einen Weg, mit dem Medienunternehmen Personal einsparen können“. Schon eine ganze Zeitlang herrscht ja in den Redaktionen Götterdämmerung: Jahrzehntelang waren es Journalisten gewohnt, nur über die Arbeitslosigkeit anderer zu berichten, ohne selbst davon betroffen zu sein. Spätestens seit der Jahrhundertwende hat sich das gründlich geändert. Computerprogramme und Algorithmen werden den Job-Abbau in den Redaktionen wohl noch einmal dramatisch beschleunigen – und dann vermutlich auch vor den redaktionellen Zulieferern, der PR-Branche, nicht Halt machen.

Erstveröffentlichung: Werbewoche vom 10. Juli 2015

Literatur:

Christer Clerwall (2014): Enter the Robot Journalist, in: Journalism Practice 8:5, 519-531

Hille van der Kaa/Emiel Krahmer (2014): Journalist versus news consumer: The perceived credibility of machine written news, Tilburg University

Nikki Usher (2015): Who’s afraid of a big bad algorithm? In: Columbia Journalism Review,.June 11,.

 

Bildquelle: Mario Sixtus/flickr.com

Schlagwörter:, , , , , ,

Schreibe einen Kommentar

Send this to a friend