Roboter-Angriff auf das Meinungsklima

19. September 2017 • Digitales, Qualität & Ethik • von

Online ist die Verbreitung von Lügen und Hetze nicht nur billiger und effizienter, sie gewinnt eine neue Qualität.

Propaganda ist das älteste Gewerbe der Welt. Doch auch sie muss mit der Zeit gehen, und so wundert es nicht, dass der Computer Einzug hält: Wer verteilt noch Flugblätter, wenn es bequemer und persönlicher per Mail geht? Und wer – außer Kim Jong-un – hämmert noch dumpf die immer selben Parolen per Lautsprecher durch den Äther? Das Internet wird heute anstelle von Rundfunk und Druckerpresse auch zur Verbreitung von Propaganda und Desinformation eingesetzt.

Doch online ist die Verbreitung von Lügen und Hetze nicht nur billiger und effizienter, sie gewinnt eine neue Qualität: Die Bürger werden nicht einfach massenhaft mit Falschinformationen und Meinungen bombardiert, sondern sie werden darüber getäuscht, wie stark diese Meinungen von anderen geteilt werden. Wenn an die Stelle menschlicher Kommunikationspartner unbemerkt Roboter treten, die automatisch zustimmen, teilen und weiterleiten, dann handelt es sich nicht nur um einen Angriff auf die individuelle Meinung. Es geht um das Meinungsklima: Desinformationen sollen glaubwürdiger, und radikale Sichtweisen gesellschaftlich akzeptiert erscheinen. Oder es wird der Eindruck erweckt, die Wahl sein schon gelaufen, um Wähler zu demobilisieren. Wenn Journalisten und Meinungsforscher nun für bare Münze nehmen, was sie im Netz vorfinden, dann verstärken und vollenden sie das Werk der Bots.

Internationale Studien zeigen, dass Bots gerne bei Protestwellen und Wahlen eingesetzt werden. Bei der US-Wahl und beim Brexit wurde die Rolle von Bots erstmals breit diskutiert. Nach der Bundespräsidentenwahl wurde die Befürchtung laut, die Bundestagswahlen könnten auf diese Weise manipuliert werden. Dass sich die demokratischen Parteien, am Ende sogar die AfD, vor der Bundestagswahl auf den Verzicht von Bot-Wahlwerbung geeinigt haben, ist die gute Nachricht. Die schlechte lautet: Die Parteien reden mithilfe von Dark Posts via Facebook einzelnen Zielgruppen nach dem Munde, ohne dass die große Öffentlichkeit noch mitbekommt, dass und was da versprochen wird. So fällt es leicht, jedem zu versprechen, was er hören möchte. Und dem nächsten Wähler eben das Gegenteil.

Literatur:

Dachwitz, Ingo: Wahlkampf in der Grauzone. Die Parteien, das Microtageting und die Transparenz; https://netzpolitik.org/2017/wahlkampf-in-der-grauzone-die-parteien-das-microtargeting-und-die-transparenz/ 

http://www.sueddeutsche.de/digital/bundestagswahl-bringen-sie-licht-in-den-dunklen-facebook-wahlkampf-1.3656582 

Bradshaw , Samantha/ Howard, Hilip N. (2017): Troops, Trolls and Troublemakers: A Global Inventory of Organized Social Media Manipulation. Working Paper 2017.12. Oxford: Computational Propaganda Research Project; http://comprop.oii.ox.ac.uk/wp-content/uploads/sites/89/2017/07/Troops-Trolls-and-Troublemakers.pdf

Neudert, Lisa-Maria/ Lollanyi, Bence/ Howard, Philip N. (2017): Junk News und Bots bei der Bundespräsidentenwahl 2017: Was haben deutsche Wähler auf Twitter geteilt? COMPROP DATA MEMO 2017.2, 27.3.2017.

Woolley, Samuel C (2016): Automating power. Social bot interference in global politics. First Monday, 21. Jg. , Nr. 4.

 

Erstveröffentlichung: tagesspiegel.de vom 17. September 2017

 

Bildquelle: Flickr CC / Michael Dain: robot; Lizenzbedingungen: https://creativecommons.org/licenses/by-nc-nd/2.0/

Schlagwörter:, , , , , ,

Schreibe einen Kommentar

Send this to a friend