Die allgemein geteilten Meldungen, wonach Roboter im deutschen Wahlkampf 2017 keine Rolle gespielt hätten, waren wohl voreilig. Neue Studien zeigen, dass es zu einer beachtlichen Aktivität von Social Bots in den sozialen Netzwerken kam. Die meisten Fake-Followers hatten dabei FDP und CSU.
Nicht nur jüngst beim Migrationspakt, auch vor der deutschen Bundestagswahl haben Social Bots und Fake Follower in sozialen Netzwerken wie Twitter und Facebook ihr Unwesen getrieben – im Wahlkampf wohl mehr, als bisher bekannt war. Das ergeben neuere Forschungsarbeiten. Zwei von ihnen wurden kürzlich auf der Konferenz der europäischen Kommunikationswissenschaftler (ECREA) in Lugano vorgestellt, eine dritte dieser Tage publiziert.
Social Bots sind Roboter, also Computerprogramme, die Texte verarbeiten können und in den sozialen Netzwerken herumspuken. Mit „Likes“ und „Shares“ und eigenen Botschaften, die sich variieren lassen, obschon sie im Kern jeweils dieselbe Aussage enthalten, verhelfen sie bestimmten Themen und Sichtweisen zu übergebührlich viel Aufmerksamkeit im Netz. Sie beeinflussen so, wie die öffentliche Meinung wahrgenommen wird – auch von Journalisten seriöser Medien und politischen Entscheidungsträgern.
Fake Follower wiederum sind eine spezielle Form von Bots. Sie sollen auf Twitter den Eindruck erwecken, dass Politiker, Stars oder auch „hippe“ Brands eine möglichst große Zahl von Gefolgsleuten haben – aber mitunter auch tarnen, dass Bots im Einsatz sind. Indem diese in niederschwelliger Anzahl ihre Botschaften von mehreren gefälschten Konten versenden, statt von einem einzigen in großer Zahl, wirken sie auf Beobachter und Interaktionspartner gleichsam menschlicher.
Erstmals präzise Messung
Bots und Fake Follower sind nicht einfach nachzuweisen, zumal die Methoden ihrer Betreiber, sie vor neugierigen Forschern zu verstecken, immer raffinierter werden. Fabian Pfaffenberger und seine Kollegen von der Universität Erlangen-Nürnberg haben starke Indizien, dass Bots im deutschen Bundestagswahlkampf stärker im Einsatz waren, als bisher vielfach berichtet wurde. Die Forscher haben zunächst aus knapp 250.000 Twitter-Konten mit Hilfe von Algorithmen über 200 besonders aktive und „verdächtige“ Accounts identifiziert, die jeweils inhaltlich sehr ähnliche Tweets verbreiteten. Mit einer aufwändigen manuellen Analyse dieser Textbotschaften konnten sie präzisere Aussagen über Bot-Aktivitäten treffen, als das bisher möglich war. Denn zuvor kamen meist vollautomatische Programme zum Einsatz, die Bots mit Hilfe von Algorithmen identifizierten – zum Beispiel „Botometer“, eine Software, die von den 200 verdächtigen Accounts, welche die Forscher entdeckten, nur 66 identifiziert hatte.
Dabei konnten die Wissenschaftler mehrere „Cluster“ erkennen – also Gruppen von ähnlich agierenden Bots, die politisch aktiv waren. Einige Accounts verbreiteten Inhalte zugunsten der AfD, ein überraschend großes Cluster betrieb Wahlkampf für die Freien Wähler in Bayern. Auch die soeben publizierte Studie von Tobias Keller (Universität Zürich) und Ulrike Klinger (FU Berlin) zum Vorfeld der Bundestagswahl bestätigt, dass Bots im Einsatz waren – auf Twitter ist ihr Anteil von sieben auf knapp zehn Prozent in der heißen Wahlkampfphase gestiegen. Die AfD ist allerdings, den Forschern zufolge und anders als vielfach vermutet, nicht durch übermäßigen Bot-Einsatz aufgefallen.
Die FDP liegt vorne
Besonders gut getarnt und somit gefährlich sind Netzwerke von Bots, die ihre Botschaften variieren und nur mit einer niedrigen Tweet-Zahl aktiv sind. Sie bleiben für gewöhnlich unter dem Radar der Forscher, weil vor allem Accounts mit einer sehr hohen Anzahl ähnlicher Tweets auffallen und somit verdächtig sind. Werden die Texte dagegen über mehrere Accounts verbreitet und jeweils minimal abgewandelt, steigt die Wahrscheinlichkeit, dass sie – im Vergleich zu einem weniger „smarten“ Roboter, der isoliert postet – geglaubt werden. Bot-Netzwerke können mithin Graswurzelbewegungen imitieren.
Tanja Drozdzynski und Bastian Kießling von der HAW Hamburg, einer Fachhochschule, haben die Twitter-Aktivitäten der im Bundestag vertretenen Parteien und von sieben Spitzenpolitikern untersucht. Knapp 72 Prozent der deutschen Bundespolitiker sind den Wissenschaftlern zufolge auf Twitter aktiv – Angela Merkel und Horst Seehofer, die bisherigen Chefs von CDU und CSU, sind allerdings nicht darunter.
Die Forscher erarbeiteten einen Algorithmus, der mit einer 98 Prozent-Wahrscheinlichkeit Fake Follower anhand von verschiedenen Merkmalen erkennt, und sie untersuchten ein Set aus 140.000 Followern der verschiedenen Parteien und Politiker. Das erstaunliche Ergebnis: Die meisten Fake Follower hatten FDP und CSU (35,4 bzw. 33,3 Prozent). Persönlich hatten Dietmar Bartsch (Die Linke – 41,5 Prozent) und Christian Lindner (FDP – 29,1 Prozent) die höchste Zahl an Fake Followern. Von den untersuchten sieben Spitzenpolitikern war bei Cem Özdemir (Die Grünen – 8.9 Prozent) und Alice Weidel (AfD – 7.8 Prozent) der Anteil der Bots unter ihren Gefolgsleuten am niedrigsten. Im Mittelfeld lagen Katrin Göring-Eckhardt (Die Grünen), Sahra Wagenknecht (Die Linke) und Martin Schulz (SPD). Zum Vergleich: Wie die Software-Firma Sparktoro jüngst vermeldete, belegt Donald Trump bei den Fake Followers in den USA einen einsamen Spitzenplatz: 61 Prozent seiner Twitter-Gefolgschaft sind Bots, Fake Accounts, Spam oder Propaganda-Konten.
Auf Bot folgt Bot
Die deutschen Forschungs-Ergebnisse liefern allerdings noch keinen definitiven Beleg für den Umfang der Bot-Aktivitäten im Wahlkampf und über deren Betreiber. Letztere können auch aus dem Sympathisantenkreis der jeweiligen Parteien oder Politiker stammen – und je nach Messmethode, so Tobias Keller, variieren die Ergebnisse. Die Übergänge zwischen Menschen, die selbst einen Tweet kopieren und mehrmals verbreiten, und eher selbstständig agierenden Bots sind fließend. Auch wenn Akteure Programme zum Verbreiten von Tweets einsetzen, steuern sie diese immer noch selbst. Trotzdem werden so Diskurse im Internet manipuliert, denn im Ergebnis wird eine „gefakte“ Meinungsverteilung vorgespiegelt – ähnlich, wie mit gekaufter Gefolgschaft in sozialen Netzwerken.
Meldungen, es habe kaum Bot-Aktivität im deutschen Wahlkampf gegeben, waren jedenfalls wohl voreilig. Betriebsblinde empirische Sozialforscher neigen eben gelegentlich dazu, etwas, was sie nicht nachweisen können, als nichtexistent zu deklarieren – statt erst einmal die eigenen Messmethoden zu verbessern. So ist es kaum verwunderlich, dass sich – wie das jüngste Beispiel Migrationspakt zeigt – die Gelehrten zunehmend um Ausmaß und tatsächlichen Einfluss des Bot-Einsatzes streiten. Im Wettlauf mit den Bot-Betreibern und deren Versteckspiel gilt allerdings wohl auch die Aussage des Propaganda-Forschers Johan Farkas von der Universität Malmö. Er deklarierte in Lugano, dass Propaganda, die man leicht enttarnen könne, schlichtweg „nicht gut gemacht ist“.
Twitter, Facebook und andere soziale Netzwerke sind derzeit damit beschäftigt, in großer Zahl Fake-Nutzerkonten zu löschen. Abzuwarten bleibt, ob das mit Erfolgsaussicht geschieht, oder ob es den Plattformbetreibern dabei ergeht wie Herakles mit der Hydra, und so für jeden abgeschlagenen Kopf zwei neue nachwachsen.
Social Bots sind auch in der Schweiz aktiv – nicht nur, aber auch in der politischen Kommunikation. Dem Software-Konzern Symantec zufolge ist Zürich der „Bot-Herd“ der Schweiz. Von hier aus werden etwa 20 Prozent aller hiesigen Bots betrieben. Allerdings gibt es bisher nur wenige Sozialwissenschaftler, die sich mit den textverarbeitenden Robotern und ihrer Einflussnahme auf die öffentliche und veröffentlichte Meinung auseinandersetzen.
Zwei Studien haben sich in jüngster Zeit mit dem Einsatz von Social Bots bei der No Billag-Abstimmungskampagne befasst – mit tendenziell widersprüchlichen Befunden: Stefan Gürtler, Professor am „Institute for Competitiveness and Communication“ der Fachhochschule Nordwestschweiz, geht davon aus, dass rund 50 mit technischer Unterstützung kommunizierende Nutzer auf Twitter jeweils 200 bis 1000 Nachrichten pro Tag absetzten, um den Entscheid zu beeinflussen. Das Forschungsinstitut Öffentlichkeit und Gesellschaft (Universität Zürich) kam in seiner No Billag-Studie dagegen zu dem Schluss, Bots seien in der Schweiz bis dato eher kein Problem. „Die Kleinräumigkeit, mit der große soziale Kontrolle einhergeht“, so erläutert Forschungsleiter Mark Eisenegger, «dürfte ihrem erfolgreichen Einsatz entgegenwirken». Auch Filterblasen, die für den Bot-Einsatz den idealen Nährboden bildeten, seien in der Schweiz bisher wenig ausgeprägt. Das sieht auch Tobias Keller (ebenfalls Universität Zürich) so. Er hat inzwischen seine Studie zur deutschen Bundestagswahl, auf die Schweiz bezogen, repliziert. Im Twitter-Netzwerk der Schweizer Parlamentarier konnte er während der Herbstsession 2018 nur geringfügige Bot-Aktivitäten feststellen. Keller wehrt sich auch gegen Angstmache. Nicht alle Bots seien bösartig und „schädlich für die Demokratie“.
Tobias R. Keller & Ulrike Klinger (2018) Social Bots in Election Campaigns: Theoretical, Empirical, and Methodological Implications, Political Communication, DOI: 10.1080/10584609.2018.1526238
Pfaffenberger, F.; Adrian, C., & Heinrich, P. (2019). Was bin ich – und wenn ja, wie viele? Identifikation und Analyse von Political Bots während des Bundestagswahlkampfs 2017 auf Twitter. In: C. Holtz-Bacha (Hrsg.), Die (Massen-)Medien im Wahlkampf. Die Bundestagswahl 2017. Wiesbaden: Springer VS. (im Erscheinen)
Erstveröffentlichung: NZZ vom 15. Dezember 2018
Bildquelle: pixabay.de
Schlagwörter:Facebook, Fake Follower, Social Bots, soziale Netzwerke, Twitter, Wahlkampf