Bots: Wer trägt die Verantwortung?

8. März 2017 • Digitales, Qualität & Ethik • von

Wissenschaftler warnen vor den Risiken der Automatisierung im Journalismus und in der Wissenschaft.

Wie lange dauert es, einen journalistischen Bericht über ein aktuelles Ereignis zu schreiben? Drei Minuten. So schnell jedenfalls veröffentlichte die Zeitung US-amerikanische Zeitung LA Times im März 2014 einen Artikel über ein Erdbeben und löste damit eine heftige Debatte in den Medien aus. Das Zaubermittel: „Quakebot“ – ein Roboter, den der Journalist und Programmierer Ken Schwencke  genau zu diesem Zweck erstellt hatte. Der Algorithmus ist darauf programmiert, die relevanten Informationen aus Meldungen des U.S. Geological Survey herauszufiltern und in einen vorgefertigten Schablonentext einzufügen. Einen Pulitzer-Preis würde Quakebot zwar nicht gewinnen, so kommentierte das US-amerikanische Online-Magazin Slate – aber er generiert einen sinnvollen Text aus nachprüfbaren Fakten.

Ähnliche digitale Werkzeuge gibt es auch für das Schreiben wissenschaftlicher Arbeiten, erklärt Social-Media-Experte Professor Andreas Hotho von der Julius-Maximilins-Universität Würzburg beim 10. Deutsch-Französischen Journalistenseminar in Straßburg. Er demonstriert dies mithilfe des Programms „Scigen“: Gibt man dort einen oder mehrere Autorennamen ein, generiert es künstlich einen grammatisch korrekten, inhaltlich aber sinnlosen Text. Ein solches Fake Paper wurde auf der World Multiconference on Systemics, Cybernetics and Informatics 2005 veröffentlicht, ohne dass jemand den „Betrug“ bemerkte. Durch soziale Medien wie Twitter und Facebook können sich falsche Informationen – seien es „wissenschaftliche“ Arbeiten oder Fake News – leicht verbreiten.

Quakebot und Scigen sind nur zwei Beispiele für die sogenannten Bots – Programme, die mithilfe von Daten selbst Inhalte erstellen. „Maschinen könnten in Zukunft Wissenschaftler und Journalisten ablösen“, warnt Hotho. Das Generieren, Auswerten, Aufbereiten und Verbreiten von Informationen würden dann Roboter und Algorithmen erledigen. Die rasante Entwicklung und die wachsende Bedeutung sozialer Medien werden sich in Zukunft immer stärker auf die Qualität der Informationen, die journalistische Arbeit und auf die nationale und internationale Politik auswirken. Dies fällt mit dem schrumpfenden Vertrauen in traditionelle Medien zusammen.

Die Vermutung Hothos, dass die neuen Möglichkeiten der Automatisierung auch den Journalismus beeinflussen werden, wird dadurch untermauert, dass das Internet als Informationsquelle zunehmend an Einfluss gewinnt. 2016 belegte zum Beispiel eine Studie der französischen Zeitung La Croix, dass 20 Prozent der französischen Bevölkerung sich zuerst online informieren. Ähnlich sieht es in anderen europäischen Ländern aus. Auf diesem Wege werden zwar nicht nur, aber auch automatisierte Nachrichten immer stärker konsumiert, denn, wie Hotho anmerkt, ist gerade für Laien der Unterschied zwischen automatisierten und konventionell erstellten Nachrichten oft schwer zu erkennen. Nicht alle Nachrichten in sozialen Medien stammen aus seriöser Quelle.

In traditionellen Medien werden Informationen von Journalisten als Gatekeeper ausgewählt, recherchiert und aufbereitet. Auch wissenschaftliche Veröffentlichungen durchlaufen einen langen Redigaturprozess. Online generieren hingegen auch Maschinen Inhalte und führen sie durch Algorithmen den Nutzern zu. Das Problem: Wahrheit und Relevanz einer Information werden dadurch immer schwieriger zu durchschauen.

Mit den Konsequenzen dieser Entwicklung beschäftigt sich auch Charlotte Altenhöner-Dion von der MSI-Net Media & Internet Division des Europarats. Beim deutsch-französischen Seminar spricht sie die rechtliche Herausforderung durch die sozialen Medien an: „Auf europäischer Seite existiert momentan keine eindeutige Rechtslage. Intermediäre, also Anbieter von Internetdiensten, sind nicht verantwortlich für das, was durch sie verbreitet wird.“ Es herrsche das Recht der freien Meinungsäußerung. Solange falsche Informationen nicht gegen andere Grundrechte verstoßen, gehe man daher nicht gegen sie vor. Werde aber bekannt, dass Äußerungen im Internet zum Beispiel menschenverachtend sind, entscheiden Richter im Einzelfall, ob der Beitrag gelöscht oder der Autor bestraft wird. Ein Problem dabei sei, dass Intermediäre wie Google und Facebook derzeit abstritten, Medienunternehmen zu sein und daher nicht unter die Medien-Rechtsprechung fielen. Zudem träfen in diesen Fällen amerikanisches und europäisches Recht aufeinander. Altenhöner-Dion glaubt: „In Zukunft wird man vielleicht zwischen dem medialen Angebot von Firmen wie Google und deren anderen Angeboten unterscheiden. Selbst, wenn Newsfeeds von Robotern hergestellt werden, gibt es dort medienrechtliche Verantwortung“.

Andreas Hotho appelliert direkt an Wissenschaft und Politik: „Es kann nicht sein, dass die Wissenschaft ein System schafft, das sich nicht mehr beherrschen lässt. Die Politik muss die Rahmenbedingungen schaffen, um damit umzugehen.“ Die Lösung ist für ihn aber nicht unbedingt eine stärkere Regulierung der Märkte. Stattdessen plädiert er für mehr Konkurrenz, um den Einfluss der großen Unternehmen einzudämmen. Ein Beispiel dafür wäre die Idee einer deutsch-französischen Suchmaschine – ähnlich der chinesischen Baidu oder der russischen Yandex – die anstelle von Google genutzt werden könnte. Der Versuch einen solchen Internetdienst (geplanter Name: Qaero) einzurichten, scheiterte allerdings bereits 2006. Hotho: „Man muss die Technik in verschiedene Hände geben, die sich gegenseitig kontrollieren.“

Bildquelle: Amber Case / Flickr CC: Robot; Lizenzbedingungen: https://creativecommons.org/licenses/by-nc/2.0/

 

 

Schlagwörter:, , , , , , , ,

Schreibe einen Kommentar

Send this to a friend