Facebooks zaghafte Reaktion auf Fake-News

16. Dezember 2016 • Aktuelle Beiträge, Digitales, Qualität & Ethik • von

Hasskommentare, Filterbubble-Diskussion und jetzt auch noch Fake-News: Facebook steht unter Druck. Falsche Behauptungen und Desinformationen werden dort verbreitet und gewinnen dank der Mechanismen des Netzwerks auch noch an Reichweite. Das Unternehmen will nun gegensteuern.

reporting-a-story-as-fake

Neue Option: “It’s a fake news story” (größere Ansicht durch Klicken auf das Bild)

Das „Schlimmste des Schlimmsten“ wolle Facebook mit den neuen Maßnahmen bekämpfen, schreibt der zuständige Facebook-Manager Adam Mosseri am Donnerstag in einem Blogpost. Mit einigen technischen Veränderungen und einer Kooperation mit journalistischen Redaktionen will das Unternehmen gegen offensichtliche Falschmeldungen von Spammern vorgehen. Eine sehr entscheidende Eingrenzung des Begriffs Fake-News. Wie Sascha Lobo in seiner Spiegel Online-Kolumne angemerkt hat, wird in der öffentlichen Debatte so ziemlich alles als Fake-News bezeichnet, was irgendwie vielleicht nicht stimmt, krass tendenziös, Propaganda, Satire oder schlicht unüberprüfbar ist. Dass Facebook das Phänomen erst einmal auf einen kleinen Bereich eingrenzt, macht also Sinn. Ob die Maßnahmen reichen, ist hingegen eine andere Frage.

Was plant Facebook genau?

Um Fake-News zu bekämpfen, ergänzt Facebook das System, über das jeder Nutzer bereits heute Inhalte als zum Beispiel anstößig oder beleidigend melden kann. Unter den Gründen, die Nutzer angeben können, wenn sie einen Post melden, findet sich nun auch die Option „It’s a fake news story“. Diese Option ist nicht komplett neu. Bereits Anfang 2015 hat Facebook eine ähnliche Melde-Funktion getestet, damals nur leicht anders formuliert als „It’s a false news story“. Das sollte damals lediglich zu einem schlechteren Ranking solcher gemeldeten Posts in den Newsfeeds der Nutzer führen. Jetzt will Facebook etwas konsequenter und detaillierter vorgehen. Als Fake-News gemeldete Beiträge sollen einen Prozess des Fact-Checking durchlaufen. Dafür kooperiert Facebook laut einem Bericht des Nieman Lab bislang mit fünf amerikanischen Medien: ABC News, Snopes, PolitiFact, FactCheck.org und AP. Meldet ein Nutzer einen Beitrag, springt die Fact-Checking-Maschine an: Zuerst wird automatisiert überprüft, ob viele Nutzer den gleichen Beitrag melden, ob der Beitrag viral verbreitet und häufig geteilt wird. Wie groß die Reichweite eines Posts sein muss, bevor er überprüft wird, ist nicht bekannt. Alle Falschinformationen werden daher nicht von Facebook verschwinden.

Erst wenn die automatische Überprüfung einen Beitrag als reichweitenstark genug einstuft, wird er an die Fact-Checker weitergeleitet. Sollten die feststellen, dass es sich um eine Falschmeldung handelt, versehen sie diese mit einem Link, der die gemeldete Story entkräftet. Problem: Nur Geschichten, die durch einen bereits veröffentlichten Artikel widerlegt werden können, können auch als Fake-News markiert werden.

disputed-story1Als Fake-News identifizierte Posts werden nicht gelöscht, sondern mit einem Warnhinweis versehen: „Disputed by 3rd Party Fact-Checkers“. Facebook-Nutzer können solche Posts also weiterhin auch auf Facebook anklicken, kommentieren, liken und teilen. Einzige Einschränkung: Wer einen markierten Post teilt, wird noch einmal drauf hingewiesen, dass es sich möglicherweise um Fake-News handelt.

Adam Mosseri von Facebook nennt das „Informed Sharing“. „We’ve found that if reading an article makes people significantly less likely to share it, that may be a sign that a story has misled people in some way. We’re going to test incorporating this signal into ranking“, schreibt Mosseri.

Dass Nutzer einen Link zu einem Artikel nicht teilen, bedeutet allerdings nicht automatisch, dass der Artikel irreführend oder falsch war. Es kann auch andere Gründe haben. Eine Datenauswertung zweier Outbrain-Mitarbeiter kommt beispielsweise zu dem Ergebnis, dass Artikel zu bestimmten Themenfeldern selten geteilt, dafür aber häufig gelesen werden (Sasson / Meshulam 2016). Dabei geht es zumeist um Themen, von denen angenommen werden kann, dass sie für das eigene Bild, das Nutzer von sich in Netzwerken zeichnen, nicht zuträglich sind. Die Neuerungen im Newsfeed-Ranking könnten also auch die Sichtbarkeit von Artikeln beeinträchtigen, die zwar korrekt, aber wenig „shareable“ sind.

sharing-disputed-story1Facebook betrachtet die Ergänzungen zum Meldesystem bislang als Test und beschränkt sie auf die USA und englischsprachige Nutzer. Eine Ausweitung des Systems würde auch bedeuten, dass zusätzliche und auch nicht-englischsprachige Medien eingebunden werden müssten. Es sei denn, Facebook würde eigene journalistische Redaktionen aufbauen, die das Fact-Checking übernehmen. Ein solcher Schritt ist aber unwahrscheinlich. Facebook betont immer wieder, es sei ein Technologie- und kein Medienkonzern.

Maßnahmen, die das Problem nicht in Gänze lösen

Die Diskussion darüber, welche Verantwortung Facebook für die Inhalte hat, die Nutzer im Netzwerk posten, dauert bereits seit Jahren an. Immer wieder gab und gibt es Kritik: Die Kriterien, wann ein Beitrag gelöscht wird, seien nicht klar. Einzelne Entscheidungen wie zum Beispiel die Löschung eines historischen Fotos aus dem Vietnamkrieg führen immer wieder zu erregten Debatten. Zuletzt erhitzte die Frage, welche Rolle Facebook im US-Wahlkampf gespielt und damit auch ungewollt das Ergebnis beeinflusst hat, die Gemüter.

Die angekündigten Maßnahmen gegen die Verbreitung von Fake-News passen in das Verhaltensmuster, das der Konzern immer wieder im Umgang mit Kritik gezeigt hat: Erst wird das Problem heruntergespielt, dann reagiert man auf den wachsenden öffentlichen Druck und ergreift ein paar Maßnahmen, die das Problem etwas entschärfen sollen, es aber nicht in Gänze lösen. Adam Mosseri hat immerhin angekündigt, die Zusammenarbeit mit Fact-Checkern und das Markieren zweifelhafter Posts sei nur ein erster Schritt im Kampf gegen Fake-News. Wie weitere Schritte aussehen könnten, dazu schrieb Mosseri nichts.

Literatur:

Sasson, Roy / Meshulam, Ram: For Your Eyes Only: Consuming vs. Sharing Content. Third Workshop on Social News on the Web @ WWW ’16 (SNOW 2016), Montreal, Canada, April 2016.

 

Bildquellen: Facebook

 

 

Print Friendly

Schlagwörter:, , ,

Send this to friend