Desinformation auf Facebook

28. April 2017 • Aktuelle Beiträge, Digitales • von

Facebooks Sicherheitsteam hat ein Whitepaper veröffentlicht, in dem das Unternehmen erstmals einräumt, Schauplatz gezielter Desinformations-Kampagnen zu sein. Sowohl im US-Wahlkampf als auch während des Präsidentschaftswahlkampfes in Frankreich hätten Gruppen versucht, die öffentliche Meinung auf Facebook zu manipulieren.

Das 13 Seiten lange Whitepaper zeigt, wie sehr sich Facebooks Haltung zur eigenen Verantwortung für den öffentlichen Diskurs gewandelt hat. Hatte Facebook-Gründer Mark Zuckerberg kurz nach der US-Wahl noch jede Verantwortung für die Verbreitung von Fake-News und Co. abgestritten, räumen Facebooks Sicherheitsexperten jetzt ein, dass Facebook ein „kritischer Knotenpunkt“ der neuen digitalen Öffentlichkeit sei. Deshalb habe man Sicherheitsmaßnahmen ausweiten müssen, um Versuche, die öffentliche Debatte zu manipulieren und Nutzer zu täuschen, abzuwehren.

Interessant dabei ist Facebooks Einordnung solcher Manipulationsversuche in die Fake-News-Debatte. Demnach habe sich in der öffentlichen Diskussion der Begriff „Fake-News“ zu einem schwammigen Oberbegriff entwickelt, der von gezielten Falschnachrichten über Spam bis hin zu Satire gebraucht werde. Facebook spricht daher in seinem Report von „information operations“, womit gezielte Desinformationskampagnen gemeint sind. Die würden sowohl von Staaten als auch von nicht-staatlichen Akteuren durchgeführt. Zwar nennen die Autoren keine Akteure beim Namen, allerdings bestätigen sie implizit, dass beispielsweise Russland während des US-Präsidentschaftswahlkampfes eine Quelle gezielter Desinformation gewesen sei.

Bestandteile solcher Desinformationskampagnen sind laut Whitepaper: 1. Falschinformationen verpackt in Nachrichten, 2. „false amplifiers“, also Netzwerke von Fake-Accounts, 3. gezielte Streuung von Desinformation, z.B. indem Inhalte unter falscher Flagge verbreitet werden.

Laut Facebooks eigener Analyse bestehen die Netzwerke der „false amplifiers“ nicht aus Social Bots  – wie ja in vielen Berichten bereits während des US-Wahlkampfes gemunkelt wurde – sondern aus von Menschen angelegten und gesteuerten Accounts. Fake-Accounts dienen dazu, bestimmte Themen durch viele Likes, Shares und Kommentare zu pushen, Diskussionen in Kommentarspalten durch besonders schrille Beiträge zu ersticken, oder verschiedene Gruppen gegeneinander aufzuhetzen. So habe Facebook festgestellt, dass Fake-Accounts versuchten, die Anhänger bestimmter politischer Richtungen gegeneinander aufzuhetzen.

Der Kampf gegen Fake-Accounts ist für das soziale Netzwerk natürlich kein unbekanntes Terrain. Schon seit Jahren ist Facebook bemüht, durch Verifikationsverfahren und Löschung von mutmaßlich unechten Nutzern das eigene Netzwerk sauber zu halten. Offiziell geht es dem Unternehmen dabei um die User Experience und authentische Kommunikation der Nutzer. Aber natürlich haben auch Facebooks Werbekunden ein immenses Interesse daran, dass ihre Anzeigen nicht vergeblich an erfundene Persönlichkeiten ausgespielt werden. Der Kampf gegen Fake-Accounts ist für Facebook also ein überlebenswichtiges Thema, ein Engagement dagegen keine Wohltätigkeit für die Allgemeinheit.

Um falsche Accounts zu erkennen und auszusortieren, nutze man nun neue Analyse-Techniken, inklusive „machine learning“ – so schreiben es Facebooks Sicherheitsexperten im White Paper. Was das genau heißt, welche Kriterien der Entscheidung einen Account zu löschen genau zu Grunde liegen, dazu äußern sie sich nicht. Nur so viel: Facebook sperrt fleißig Nutzerkonten. Allein in Frankreich wurden bis zum 13. April 30.000 vermutete Fake-Accounts gelöscht (den genauen Zeitraum, in dem gelöscht wurde, nennt Facebook allerdings nicht). Hier kann von einem Zusammenhang der Löschungen mit dem französischen Präsidentschaftswahlkampf ausgegangen werden.

30.000 Fake-Accounts allein in Frankreich – das klingt nach einer Menge. Gleichzeitig ist Facebook bemüht, das Problem – insbesondere die eigene Rolle im US-Wahlkampf – herunterzuspielen. Man habe zwischen September und Dezember 2016 Posts analysiert, die mit „bürgerschaftlichem Engagement“ zu tun haben. Inhalte, die von Accounts verbreitet wurden, die man einer Desinformationskampagne zuordnen konnte, hätten weniger als 0,1 Prozent der Gesamtreichweite von Posts mit „civic content“ ausgemacht. Was ist so eine Erkenntnis wert? Angesichts der krassen Eingrenzung der als problematisch gewerteten Postings, der unklaren Methodik und der Tatsache, dass keine unabhängigen Gutachter solch eine Untersuchung überprüfen, wohl nichts.

Hier liegt ein grundsätzliches Problem von Facebooks Whitepaper. So begrüßenswert es ist, dass sich der Konzern seiner Verantwortung für den öffentlichen Diskurs bewusst wird: Facebook nimmt (wie übrigens auch der große Widersacher aus der Nachbarschaft: Google) gerade in der digitalen Öffentlichkeit eine Schlüsselrolle ein, die eine Rechenschaftspflicht mit sich bringt. Eine neue Form von intermediary accountability ist nötig. Die neuen Gatekeeper müssen mit externen Gutachtern zusammenarbeiten, ihnen Zugang zu den eigenen Daten gewähren und eine unabhängige Untersuchung bestimmter Phänomene zulassen. Wie groß die Probleme mit Fake-Accounts und gezielter Desinformation tatsächlich sind und welche Gefahren für den politischen Meinungsbildungsprozess von ihnen ausgehen – solche Fragen können sonst nicht beantwortet werden.

 

Bildquelle: pixabay.com

Print Friendly

Schlagwörter:, , , , , , , ,

Send this to friend