Mithilfe von Social Bots wird vermehrt Meinungsmache betrieben. In der Schweiz wird im Oktober ein neues Parlament gewählt. Kein Wunder, dass auch hier die Rufe nach (gesetzgeberischen) Maßnahmen zur Bekämpfung von Social Bot-Aktivitäten lautwerden.
Nicht nur im Zusammenhang mit dem Brexit-Votum und den US-Wahlen 2016 wird die Rolle von Social Bots für die Meinungsbildung diskutiert und analysiert. Auch im Vorfeld von Abstimmungen und Wahlen in der Schweiz gehen Expertinnen und Experten davon aus, dass die Stimmberechtigten unzulässig beeinflusst werden könnten.
Propagandisten könnten Social Bots nutzen, um unter Vorspiegelung einer menschlichen Identität unerkannt Einfluss auf Stimmungen und Meinungen zu nehmen. Selbst Jack Dorsey, CEO von Twitter, resümiert mit Verweis auf „Missbrauch, Belästigung, Propaganda durch Social Bots und Desinformationskampagnen“, dass Twitter „kein gesunder öffentlicher Raum“ mehr sei.
In den USA, in Deutschland und innerhalb der EU diskutieren Politikerinnen und Politiker daher aktuell sogenannte Bot-Disclosure-Gesetzesinitiativen, die eine Kennzeichnung für Social Bots verpflichtend und Verstöße rechtswidrig machen sollen. Kein Wunder, dass im aktuellen Wahljahr die Rufe nach (gesetzgeberischen) Maßnahmen zur Bekämpfung von Social Bot-Aktivitäten auch hierzulande in der Schweiz lautwerden.
Die schweizerische Bundesverfassung bietet Anknüpfungspunkte für Schutzmaßnahmen gegen schädigende Social Bots.
Vor allem aus Artikel 16 zum Schutz der Meinungsfreiheit lassen sich auch Rechtsansprüche gegen manipulierende Social Bots ableiten.
Was sind überhaupt Social Bots? Ein Social Bot ist ein programmierbar Software-Agent, der automatisch Inhalte erstellt und mit Nutzern auf sozialen Medien interagieren kann. Bots können zum Beispiel Tweets liken oder einen Facebook-Beitrag teilen. Sie lassen sich auch so trainieren, dass sie mit vordefinierten Textbausteinen gewisse Fragen beantworten können.
Dass es sich bei einem Social Bot nicht um einen individuellen, menschlichen Akteur handelt, wird meist nicht transparent gemacht und erschließt sich auch nicht immer mühelos. Der Nutzer geht also davon aus, mit einem anderen Menschen zu kommunizieren. Dank der Automatisierung können Bots in einer hohen Frequenz kommunizieren.
Mithilfe einer „Bot-Armee“ lässt sich eine Meinung als vorherrschend darstellen, obwohl sie nicht von einer Mehrheit vertreten wird.
Zwei Folgen von Social-Bot-Aktivitäten, welche die freie und ungehinderte Meinungsbildung und -äußerung in Demokratien gefährden können, sind damit denkbar: Zum einen können Äußerungen von realen Personen in der Masse der Social Bot-Kommunikation untergehen. Zum anderen kann die Vielzahl der meist einseitigen Social-Bot-Kommunikation zu einer Fehleinschätzung über das tatsächliche Meinungsbild führen: Mithilfe einer „Bot-Armee“ lässt sich eine Meinung als vorherrschend darstellen, obwohl sie nicht von einer Mehrheit vertreten wird. Zudem wird einer häufig kommunizierten Ansicht mehr Relevanz zugesprochen. Dies kann die aus der Kommunikationswissenschaft bekannte „Schweigespirale“ in Gang setzen: Menschen trauen sich deutlich weniger oder gar nicht mehr, ihre Meinung öffentlich zu äußern, wenn sie den Eindruck haben, diese vertrete nur eine Minderheit. Andere hingegen, die sich in ihrer Meinung durch die unzähligen Social-Bot-Kommentare bestärkt fühlen, werden angeregt, sich in gleicher Weise wie der Bot zu äußern. Als Folge der Schweigespirale entsteht ein häufig einseitiges und nicht repräsentatives Stimmungsbild zu gesellschaftlichen Fragen.
Rechtlich geklärt werden muss darum zweierlei:
1. Lässt sich aus Artikel 16 der Bundesverfassung zur Meinungsfreiheit ein Recht auf Kommunikation von und durch Social Bots ableiten? Woraus die Frage folgt: Wäre ein Verbot von Social Bots verfassungswidrig?
2. Falls eine grundlegende Verfassungskompatibilität von Social Bots bejaht wird: Können Social Bots dennoch Grenzen gesetzt werden?
Die Verfassung schützt die für demokratische Prozesse wichtige Möglichkeit zur Bildung, Äußerung und Verbreitung von Meinungen. Damit umfasst Artikel 16 nicht nur explizit den Schutz der Meinungsäußerung selbst, sondern auch implizit die ungehinderte, nicht manipulierte Meinungsbildung. Er kann daher auch die Verpflichtung des Staates begründen, eine funktionierende Kommunikation zu schaffen und aufrecht zu erhalten. Daraus folgt in der Konsequenz, dass der Staat einschreiten kann und soll, wenn die öffentliche Kommunikation gestört und manipuliert wird.
Zu Punkt 1: Grundrechte können in der Regel nur Menschen, seltener auch juristische Personen, beanspruchen. Der Social Bot verfügt (aktuell) über keine eigene Rechtspersönlichkeit. Die Meinungsäußerungen von Social Bots werden daher als Meinungsäußerungen von jenen Personen aufgefasst, die diese Inhalte teilen und liken oder von Personen, die diese Inhalte programmiert haben. Diese gelten somit als Träger des Rechts auf freie Meinungsäußerung, die sich lediglich hierzu der Bot-Technologie bedienen. Der Bot wird damit einem Plakat oder einem Zeitungsartikel gleichgestellt. Ungeklärt ist dabei jedoch, wie man mit Meinungsäußerungen von zunehmend selbstagierenden und -reagierenden Social Bots umgehen soll. Eine einfache Verantwortungszuschreibung zum Programmierer scheint hier an Grenzen zu stoßen.
Da das Grundrecht auf freie Meinungsäußerung auch Inhalte schützt, die anonym oder unter einem Pseudonym veröffentlicht werden, kann das Vortäuschen einer falschen menschlichen Identität über Social Bots nicht verboten oder sanktioniert werden. Damit können Social-Bot-Technologien auch Personen nutzen, die aus Furcht vor Repressalien nicht unter Klarnamen kommunizieren können, wie Whistleblower oder Regimekritiker in Diktaturen. Das heißt jedoch nicht, dass Social-Bot-Aktivitäten, wenn sie (potenziell) schädigend sind, nicht geahndet werden können.
Zu Punkt 2: Verstößt die Nachricht eines Bots gegen das Persönlichkeitsrecht anderer oder verbreitet er diskriminierende oder verleumderische Inhalte, darf das Recht auf Meinungsäußerungsfreiheit des Bots beispielsweise eingeschränkt und auch sanktioniert werden. Auf der Anklagebank sitzt dabei natürlich nicht der Bot, sondern der Programmierer oder die Person, die den Inhalt liket oder teilt. Der bestehende rechtliche Rahmen ist dafür ausreichend. Bisher war das noch kein Thema für Schweizer Gerichte.
Um das Verbreiten massenhafter, einseitiger Äußerungen durch Social Bots vor allem im Vorfeld von Abstimmungen und Wahlen zu unterbinden, kann, zudem gestützt auf Artikel 16 der Bundesverfassung, ein staatlicher Eingriff in die Meinungsäußerungsfreiheit erfolgen: Denkbar wäre beispielsweise ein generelles Verbot des massenhaften Nachrichtenversands durch Social Bots in meinungsrelevanten Foren, vor allem vor Abstimmungen und Wahlen. Auch Parteien und politisch-gesellschaftlichen Gruppierungen könnte der Einsatz von Social Bots generell verboten werden. Dies ist jedoch nur unter Mitwirkung von Facebook, Twitter und Co. möglich, die durch den Einsatz von Bot-identifizierender Software Aktivitäten auf ihren Plattformen selbst kontrollieren und unterbinden.
Erstveröffentlichung: Medienwoche vom 4. April 2019
Bislang in der Serie erschienen: – Die Nicht-Themen zum Thema machen – Facebooks gesellschaftliche Verantwortungslosigkeit – Die Wissenschaft als Schlagzeilenlieferantin
Bildquelle: pixabay.de
Schlagwörter:Fake News, Manipulation, Schweiz, Social Bots, Wahlen