Facebook kontrolliert maßgebliche Strukturen, Ressourcen und Kanäle der öffentlichen Meinungsbildung, sagt Kommunikationswissenschaftler Thomas Schmidt.
Facebook und die Zensur. Immer wieder kommt das soziale Netzwerk ins Gerede, weil bestimmte Inhalte anscheinend oder tatsächlich zensiert werden. Die jüngsten Fälle betreffen konservative Nachrichtenmeldungen in den USA und ein Bikini-Foto in Australien. Im letzteren Fall musste sich Facebook entschuldigen, weil es ein Werbesujet mit Tess Holliday, einem übergewichtigen Model, abgelehnt hatte. Im anderen Fall hatte die Nachrichtenplattform Gizmodo den Verdacht geäußert, dass Facebook Nachrichtenhinhalte von konservativen Internetseiten oder Aktivisten absichtlich ignoriert. Facebook wies das zurück, lud 16 konservative Meinungsmacher ins Hauptquartier im Silicon Valley ein und veröffentlichte die Leitlinien, nach denen bestimmte Nachrichteninhalte als „Trending Topics“ eingestuft werden. Facebook-Chef Mark Zuckerberg war um Beruhigung bemüht und bekräftigte: „Facebook will jedem eine Stimme geben.“
Diese Beispiele sind mehr als nur Einzelfälle. Sie veranschaulichen eine Tiefenstruktur, die in der Forschung intensiv thematisiert und problematisiert wird. Hier sind vier Thesen, die aktuelle Forschungsthemen zusammenfassen.
1. Hinter Facebook stehen Menschen, nicht Maschinen
Facebooks Algorithmen selektieren, filtern und ordnen Inhalte nach bestimmten Regeln. Allerdings sind Algorithmen keine Wundermaschinen, sondern Handlungsanleitungen. Sie müssen programmiert, mit Inhalten gefüttert und permanent adaptiert werden. All das erfordert menschliches Urteilsvermögen. Facebook und andere Technologieunternehmen berufen sich gerne auf die Effizienz der Automatisierung. Zumeist fehlt es allerdings an Transparenz darüber, wie Grundregeln definiert werden und welche Verzerrungen dadurch entstehen können.
2. Facebook verstärkt die selektive Wahrnehmung
In der Forschung wird intensiv diskutiert, ob und in welchem Ausmaß Facebook dazu beiträgt, dass wir zunehmend in einer „Filterblase“ leben und vornehmlich jene Inhalte konsumieren, die mit unseren Einstellungen übereinstimmen. So viel ist eindeutig: Obwohl dieser Filtereffekt derzeit als eher moderat eingeschätzt wird, ist er deutlich nachweisbar.
3. Facebook ist ein Unternehmen, keine selbstlose Gemeinschaft
Mark Zuckerberg gefällt sich in der Rolle des weltoffenen Menschenfreunds, der das soziale Netzwerk zum Wohl der Gemeinschaft entwickelt. Vor kurzem sagte er bei Facebooks Entwicklerkonferenz: „Wir bauen eine Technologie, die allen ermöglicht, alles mit allen anderen zu teilen.“ Schön und gut, aber dahinter stehen geschäftliche Interessen. Das wäre auch nicht notwendigerweise verwerflich, nur sollte es zumindest artikuliert werden. Fürchte die Macht, die vorgibt, keine Macht zu sein.
4. Facebook betreibt Journalismus unter der Tarnkappe
Die Kontroverse um die „Trending Topics“ hat offengelegt, dass Facebook gleichsam Nachrichten produziert. Der Duden definiert einen Trend als „über einen gewissen Zeitraum bereits zu beobachtende, statistisch erfassbare Entwicklung(stendenz)“. Facebook macht mehr als beobachten, es steuert. Hinter den „Trending Topics“ steht ein redaktionelles Team, das quasijournalistischen Leitlinien folgt. Facebook will das Beste aus beiden Welten: die Universalität der sozialen Plattform und die Autorität des Journalismus. Allerdings verweigert es journalistische Verantwortlichkeit und versteckt sich hinter der trügerischen Neutralität der Algorithmen.
Facebook kontrolliert maßgebliche Strukturen, Ressourcen und Kanäle der öffentlichen Meinungsbildung. Damit sollten wir uns ernsthaft auseinandersetzen – in der Wissenschaft und im öffentlichen Diskurs.
Erstveröffentlichung: derStandard.at vom 30. Mai 2016
Bildquelle: pixabay.com
Schlagwörter:Facebook, Filterblase, Mark Zuckerberg, öffentliche Meinungsbildung, Trending Topics, Zensur