Wenn jeder jederzeit alles filmen und streamen kann, muss auch jeder wissen, wo er sensibel sein muss.
„Sie helfen den Tätern!“ Wiederholt warnte am Freitag die Münchner Polizei nach den Schüssen im Olympia-Einkaufszentrum, als der Schütze noch nicht bekannt und nicht gefasst war, in den sozialen Medien davor, Videos und Bilder ins Netz zu stellen. Die Art, wie die Polizei kommunizierte, war vorbildlich. Dass sie solches Grundwissen erklären musste, offenbart, wie sehr wir alle – durchaus auch einige hauptberuflich für Medien Tätige – Nachholbedarf haben im differenzierten, verantwortungsbewussten Navigieren in einer digitalen Mediengesellschaft. Medienethiker, (Selbst-)Regulierer, Experten und Zivilgesellschaft müssen sich endlich systematisch einer Technikfolgenabschätzung stellen und ihre Medien- und Informationskompetenz schärfen – nicht aus Angst vor der Zukunft, sondern um diese aktiv zu gestalten.
Laut einer Befragung führender Medienunternehmen in 25 Ländern durch das Reuters Institute for the Study of Journalism bewegt sich bei Livestreams und Bots 2016 viel. Jedenfalls technisch und ökonomisch. Ethisch hinken wir gewaltig hinterher.
Alarmismus
Beim Streaming sind soziale Medien massive Treiber: Instagram, Snapchat, Periscope Live, Facebook durch Autoplay-Funktionalität und Facebook Live. Aber wenn jeder jederzeit alles filmen und streamen kann, muss auch jeder wissen, wo er sensibel sein muss. Die Bandbreite illustrieren Streams, die Gewalt zeigen. Sie können Voyeure bedienen, Ängste und Aufregung steigern und Einsatzkräfte in ihrer Arbeit stören. Sie können aber auch Missstände belegen.
Lavish Reynolds streamte Anfang Juli ihren von einem (weißen) Polizisten angeschossenen sterbenden Freund. Sie dokumentierte so den Rassismus in den USA. Jedoch bestätigte sie zudem ein Klischee – ohne fundiert eine Diskussion anzustoßen. Facebook erklärte kürzlich zu den Nutzungsbestimmungen, künftig müsse nur dann, wenn Gewalt verherrlicht oder jemand verhöhnt werde, auf Filme verzichtet werden, nicht mehr generell und nicht, wenn begründet Öffentlichkeit geschaffen oder nach einem Täter gefahndet werde. Solche Abwägungen müssen aber (siehe München) gelernt und geübt sowie vorbeugend in Handlungsempfehlungen gegossen werden. Pressekodizes könnten zum Beispiel das Streamen von Gewalttaten als Recherchevariante aufnehmen – und es billigen, sobald es für viele bedeutsam ist, sowie ablehnen, wenn es bloß dem Alarmismus dient. Denn in der demokratischen Gesellschaft muss nicht überall alles ans Licht.
Hilfe durch Algorithmen
Aber manchmal muss dringend mehr ans Licht als bislang. Stichwort: Algorithmen und Bots. Algorithmen sind Handlungsvorschriften, die in ein Computerprogramm implementiert werden können, Bots sind nach Vorschrift agierende Programme – Automaten, die sich wiederholende Aufgaben unermüdlich und schneller erledigen als jeder Mensch. Bots können Inhalte generieren, kopieren, mit Konten von Menschen und mit Roboterkonten agieren, gegen Flüchtlinge hetzen, Kämpfer für die Terrormiliz “Islamischer Staat” anwerben, Wahlkampf betreiben. Die Forscher Philip N. Howard (Washington/Oxford) und Bence Kollanyi (Budapest) illustrierten die Ausbreitung von Bots am Brexit-Referendum: Ein Drittel der Tweets zwischen dem 5. und 12. Juni 2016 ging von gerade einem Prozent der Accounts aus; Gegner wie Befürworter holten sich Hilfe durch Algorithmen. Die Forscher fanden keinen Beleg für ein manipuliertes Ergebnis. Aber prinzipiell wäre das möglich.
Robert Epstein warnte bei Project Censored, einem stiftungsgetragenen, ethisch ausgerichteten Journalismus-Förderprojekt, im amerikanischen Präsidentschaftswahlkampf könnten Google-Algorithmen die Wahlentscheidung von Unentschlossenen zu 25 Prozent beeinflussen, wären also bei einer knappen Entscheidung Zünglein an der Waage. Roboter, nicht Menschen bestimmen so, wer regiert. Roboter sind aber nicht verantwortlich zu machen. Indem Algorithmen zunehmend die Meinungsbildung prägen, bewirken sie einen algorithmischen Strukturwandel der Öffentlichkeit. Wir müssen die Fäden in der Hand behalten; wieder gilt: Kein Roboter entlässt uns aus der Verantwortung.
Digital-Rat oder -Beschwerdekammer
Das bedeutet aber auch, neue Techniken begreifen zu lernen: Wie lassen sich Automaten von Menschen unterscheiden? Wo können wir uns beschweren über Entwickler oder über Anwender, die über die Stränge schlagen? Vielversprechend, auch als Expertise-Pool, wirkt die recht neue, nichtkommerzielle deutsche Initiative Algorithm Watch. Sie will beobachten und erklären, wie algorithmische Prozesse verlaufen und wo ethische Konflikte entstehen.
Nützlich wäre zudem eine Art Digital-Rat oder -Beschwerdekammer, etwa beim Presserat. Eine Spruchpraxis sollte justieren helfen, die Debatte Expertise aus verschiedenen Fachgebieten integrieren, um zu erarbeiten, wie mit neuen Techniken ethisch verortet umzugehen ist, etwa: Wie verändert sich unsere Wahrnehmung, wenn Fernsehsender von den Olympischen Spielen in Rio Material für Virtual-Reality-Brillen bereitstellen? Oder: Wann empfiehlt sich ein Drohneneinsatz?
Erstveröffentlichung: derstandard.at vom 25. Juli 2016
Bildquelle: Screenshot Twitter-Account Polizei München
Schlagwörter:Algorithm Watch, Algorithmen, Bilder, München, Olympia-Einkaufszentrum, Polizei, Social Media, Videos