Ende Mai wird gewählt in Europa. Das macht viele nervös, denn man will nicht erleben, was die Ergebnisse des Brexit-Referendums und der US-Präsidentschaftswahl geprägt hat: massive Desinformationskampagnen. Die EU-Kommission hat 2017 deshalb einen ausführlichen Prozess gestartet, um Falsch- und Desinformation den Boden zu entziehen. Dabei besonders im Fokus: die großen Plattformfirmen Google und Facebook. Was daraus geworden ist, darüber mussten sie nun erstmals Rechenschaft ablegen. Kann der Europawahlkampf so vor Desinformationskampagnen geschützt werden?
Die beiden Reports arbeiten sich an Punkten ab, zu denen sich die beiden Firmen (wie auch andere Tech-Plattformen, wie z.B. Twitter, sowie Verbände der Digital- und Werbewirtschaft) in einem Code of Practice verpflichtet haben. Die Maßnahmen, die Google und Facebook anwenden, ähneln sich. Hier die wichtigsten Punkte:
Werbeanzeigen:
Mehr Transparenz und ein öffentlich einsehbares Archiv von politischen Werbeanzeigen hat Facebook angekündigt. Dazu zählt nicht nur klassische Partei-Werbung, sondern auch sogenannte „Issue Ads“, Werbeposts, die sich mit kontroversen politischen Themen beschäftigen. In den USA gibt es das bereits, dort zählen z.B. Themen wie Abtreibung oder Migration zu den Issue Ads. Vor der Europawahl soll dieses Archiv- und Transparenzsystem auch in Europa starten, ein exaktes Datum gibt es aber noch nicht.
Auch Google will ein durchsuchbares Werbeanzeigen-Archiv zu Verfügung stellen und mehr Transparenz bei politischen Werbeposts herstellen. Und genauso wie Facebook hat Google so ein System in Europa noch nicht ausgerollt. Vor der Europawahl soll es aber kommen.
“Online platforms have submitted a first implementation report setting out the state of play of the measures taken by each of them to comply with their commitments under the Code of Practice on Disinformation.”
Now available: https://t.co/HwqzR3JOX3 #EUTackleDisinfo @DSMeu— Francois Heinderyckx (@FHeinderyckx) 29. Januar 2019
Kampf gegen Fake-Accounts:
Alles, was Facebook als „inauthentic behavior“ bezeichnet (Fake Accounts, gesperrte Accounts neu aufgelegt u.ä.), soll raus aus dem Netzwerk. 3-4 % aller Accounts, so schätzt Facebook selbst, sind Fake. Bei über 2,2 Milliarden monatlich aktiven Nutzern kommt man da auf die beachtliche Menge von 66-88 Millionen gefälschten Accounts. Diesen Kampf führt Facebook freilich schon seit Jahren. Accounts, hinter denen nicht einzelne identifizierbare Individuen stehen, waren schon lange vor 2016 ein Problem.
Auch Google geht gegen Fake Accounts und Angriffe auf die Integrität der von Google angebotenen Dienste vor, sei es beim Erstellen von Accounts, Registrierungen für Google News oder Black Hat-SEO, durch das Suchergebnisse manipuliert werden können.
Diese Anstrengungen liegen durchaus im Interesse der Plattformen selbst. Denn nur so können sie Nutzern ein Umfeld bieten, in dem sie sich gern aufhalten. Diese Form der Content Moderation ist, wie Tarleton Gillespie beschrieben hat, ein elementarer Bestandteil der Dienstleistung von digitalen Plattformen.
Eingriffe in die algorithmische Ausspielung von Inhalten:
Bei Facebook werden vertrauenswürdige Quellen im Newsfeed priorisiert ausgespielt, während irreführende Inhalte abgewertet werden und dementsprechend seltener Nutzern angezeigt werden. Warum Posts, deren Inhalte Facebook selbst für dubios hält, überhaupt irgendwem angezeigt werden sollten, bleibt ein Rätsel.
Auch Google will vermehrt Fact-Checks in Suchergebnissen anzeigen und arbeitet an Glaubwürdigkeits-Scores, um Inhalte besser kennzeichnen zu können. Sowohl Googles als auch Facebooks Bemühungen in diesem Bereich sind allerdings alles andere als neu. Das meiste davon ist bekannt.
Spannend ist hingegen eine aktuelle Ankündigung der Google-Tochter YouTube – bislang auch ein Sammelbecken für Verschwörungstheoretiker jedweder Couleur: „borderline content“ soll seltener empfohlen werden. Dazu zählt die Videoplattform z.B. 9/11-Verschwörungstheorien, Impfgegner-Videos oder Inhalte von „Flat Earthern“. Wie sich diese Änderungen des Empfehlungssystems genau auswirken, bleibt abzuwarten. YouTube selbst geht davon aus, dass nur rund ein Prozent aller Videos davon betroffen sein werden. Wie genau die Plattform bei der Klassifizierung von „borderline content“ vorgeht, ob Videos manuell oder automatisch als borderline gebrandmarkt werden, verrät der Blogpost nicht.
Die beiden größten Plattformen sind also bemüht gegen Desinformation vorzugehen – aufgrund des politischen Drucks, aber auch weil es zum Teil wirtschaftlich sinnvoll ist. Aber reicht das?
Mariya Gabriel, die für digitale Wirtschaft und Gesellschaft zuständige EU-Kommissarin, findet, da ist noch Luft nach oben.
Thinking about and debating how to counter disinfo. In focus of @GabrielMariya's keynote: platforms. Surprise: they're not doing enough. #EUTackleDisinfo pic.twitter.com/rroXCupNu2
— Stephan Mündges (@muendges) 29. Januar 2019
Auf der Konferenz „Countering Online Disinformation“, die die Kommission am 29.1. in Brüssel veranstaltete, beklagte sie „zahlreiche Schwächen“: Maßnahmen werden nicht in allen EU-Staaten gleichermaßen ergriffen, alles geht zu langsam, die Transparenz auf dem Werbemarkt geht nicht weit genug und unabhängige Wissenschaftler haben nicht ausreichend Zugang zu den Daten der Plattformen. Diese Kritik wirft in der Tat einige wichtige Schlaglichter auf den Zustand der digitalen Plattform-Öffentlichkeit und den Umgang mit gezielter Desinformation.
Großen Wert legten die Vertreter der Plattformen bei Diskussionen während der Konferenz darauf, man solle Transparenz herstellen und Nutzern mehr Informationen (teils auch Informationen über Informationen) zur Verfügung stellen. Dabei ist zweifelhaft, ob ein Mehr an Informationen das Problem wirklich löst. Oder ob es nicht vielmehr zu größerer Verunsicherung führt. Philip M. Napoli hat diese Frage („What if more speech is no longer the solution?“) bereits ausführlich diskutiert. Er kommt zu dem Schluss, dass Plattformen mehr tun müssen also Gegenrede zu fördern, um ihrer gesellschaftlichen Verantwortung gerecht zu werden.
Auf Medienkompetenz, Transparenz und Information zu verweisen, lenkt aber auch ab: von der Tatsache, dass die Organisation der digitalen Öffentlichkeit mehr und mehr in den Händen der großen Plattformen liegt. Es ist das große Dilemma unserer digitalen Öffentlichkeit: um gesellschaftlichen Diskurs zu ermöglichen braucht man die Plattformen, man braucht aber sie aber auch, um Regeln für das Gelingen dieses Diskurses durchzusetzen. Und damit gibt man ihnen quasi-staatliche Aufgaben und Befugnisse.
Zwar werden die Regeln zumindest in Europa im intensiven Austausch mit Regulierungsbehörden, Wissenschaft und Zivilgesellschaft entwickelt. Bei der Durchsetzung derselben sind wir aber auf die Eigenauskünfte der Tech-Konglomerate angewiesen. Nur der gelegentliche Whistleblower lässt hin und wieder tiefer blicken (siehe Wylie und den Cambridge Analytica-Skandal). Ein institutionalisiertes, externes, langfristiges Monitoring fehlt bislang. Ob die angekündigten Zugangsmöglichkeiten für unabhängige Wissenschaftler dafür ausreichen, werden die nächsten Monate und Jahre zeigen.
Das Problem ist: so viel Zeit bleibt eigentlich nicht. Denn in nicht mal vier Monaten wird gewählt. Wie erfolgreich dieser (weltweit einmalige) europäische Regulierungs- und Aushandlungsprozess ist, wird sich bis Ende Mai zeigen.
Literatur:
Gillespie, Tarleton (2018): Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media: Yale University Press.
Napoli, Philip M. (2018): What If More Speech Is No Longer the Solution? First Amendment Theory Meets Fake News and the Filter Bubble. In: Federal Communications Law Journal 70 (1), S. 55–104.
Bildquelle: pixabay.com
Schlagwörter:Desinformation, EU-Kommission, Europa, Europawahl, Facebook, Facebook-Algorithmus, Fake News, Glaubwürdigkeit, Google, Issue Ads, Transparenz