Überwachung und Vorhersagen sind Folge unserer Datenweitergabe. Ein Richtlinienkatalog könnte dem entgegenwirken.
Die Nichtregierungsorganisation Freedom House warnt in ihrem aktuellen Netzfreiheitsbericht vor einer durch Desinformation, Überwachung und Propaganda vergifteten Digitalsphäre. Der durchschnittliche Status der Internetfreiheit sinkt kontinuierlich, unter den 65 untersuchten Länder (damit sind 87 Prozent der Internetnutzer weltweit erfasst) verschlechterten sich 26 im Vergleich mit dem Vorjahr, 19 verbesserten sich. Wachsende Digitaldiktaturen, die politisch auch Demokratien sein können, reißen durch ungezügeltes Datensammeln die Wände in unsere Privatsphäre ein. China belegt zwar den letzten Platz wegen seiner raffinierten Maschinerie zur Überwachung, die Peking die Kontrolle über die gesamte mediale sowie individuelle Kommunikation via News-Plattformen und Messenger-Dienst ermöglicht. Aber nun mit dem Finger auf China zu zeigen, wäre zu kurz gesprungen, zumal dieses Beispiel offenbar verlockend wirkt: China exportiert solches Wissen mit Gewinn und konnte in 36 der untersuchten Ländern Trainings zur digitalen Medienkontrolle durchführen. In Autokratien sind die Folgen der regierungsgesteuerten Überwachung offensichtlicher als in Demokratien: Im Westen Chinas sind wegen der extremen Überwachung wohl Zehntausende der muslimischen Minderheit der Uiguren mittlerweile inhaftiert.
Begehrlichkeiten auf mehr Kontrolle und Überwachung der Gesellschaften sind aber überall verbreitet. Alle Länder destabilisieren damit das Vertrauen in das Netz, in Institutionen und auch in Regierungshandeln. Weltweit übernehmen Regierungen immer mehr die Kontrolle über die Daten ihrer Gesellschaften. Sie argumentieren mit Terror- und Desinformationsrisiken, teilweise auch als Rechtfertigung, um Journalisten zu verhaften oder den Löschauftrag für Inhalte auf Sozialen Medien-Plattformen diesen selbst zu übertragen.
Wahrsagehorror
Die Studie von Freedom House fokussierte das Regierungshandeln, die Art, wie die Mächtigen mit dem Internet umgehen, was sie zulassen, was sie einschränken und was sie unterbinden. Doch überwacht werden wir auch und zunehmend von vielen weiteren Einrichtungen: Polizei, Versicherungen, Unternehmen etc. entwickeln aus unseren Daten ganze Profile über uns, aus denen sie ihre Schlüsse ziehen. Datensätze mit Daten, die wir selber preisgegeben haben oder die über uns erhoben worden sind, werden in diversen Arten kombiniert und Algorithmen, also digitale Vorschriften, entwickelt, um zum Beispiel Verhaltensmuster herauszufiltern und zu interpretieren. Das heisst, errechnete Wahrscheinlichkeiten werden als Gewissheiten behandelt und als Grundlage für Entscheidungen: Wer erhält eine berufliche Fortbildung, wer wird befördert – kurz: wer verdient Chancen im Leben? Und wer gehört ins Fadenkreuz von Behörden oder Polizei? Und eben nicht allein in China, auch in den USA, auch in Europa werden aufgrund algorithmisierter Berechnungen Entscheidungen getroffen, die unser Leben auf den Kopf stellen können. Kein Kredit? Lange Wartezeiten im Krankenhaus? Taxiert als labiler Charakter? Wie wir eingeschätzt werden, beruht zunehmend auf Interpretationen von Statistik. Und dies oft, ohne dass wir die (Daten-)Basis kennen, auf der über uns entschieden wird.
Ein weiteres Beispiel: Vorhersagende Ermittlung gehört in Deutschland, in der Schweiz und in Österreich immer häufiger zum Instrumentarium der Polizeiarbeit. In Österreich und Deutschland wird diese „Wahrsage“-Software zurzeit vor allem für Einbruch-Wahrscheinlichkeits-Landkarten eingesetzt und öfter dort Streife gefahren, wo laut dieser Karten am ehesten eingebrochen wird; Begleitstudien liefern zwar bislang wenig überzeugende Erfolgszahlen, aber den Hinweis, dass sich die Bewohner eines Gebiets oft durch mehr Streifenwagen nicht sicherer, sondern im Gegenteil verunsichert fühlen. In der Schweiz und auch in den USA sind nicht nur Gebiete, sondern zudem Personen im „Blickfeld“ solcher Vorhersagesoftware. In Chicago nimmt die Polizei Menschen, für die eine Auswertung ihrer Daten bestimmte Muster ergibt – zum Beispiel arbeitslos und kleinkriminell und bekannt mit einem Opfer eines Gewaltverbrechens und aus einem bestimmten Stadtteil – auf eine Liste der „Gefährder“, sucht sie persönlich auf, um sie zu warnen, sie seien im Visier. In der Schweiz geraten Menschen nach vergleichbaren Kriterien ins Blickfeld der Polizei; dort wird aber das Bild, das der Algorithmus liefert, nicht sofort in polizeiliches Handeln umgesetzt, sondern erst, nachdem ein Experte weitere Erkundungen im Umfeld des Betreffenden vorgenommen hat.
Das Ziel, so Verbrechen vorzubeugen, ist nachvollziehbar. Dennoch wird damit wie auch in weiteren Fällen, wo auf der Grundlage wahrscheinlichen Handelns über uns entschieden wird, erstens ein ethisches Grundprinzip auf den Kopf gestellt: Denn bislang mussten wir Menschen uns erst für das verantworten, was wir tatsächlich getan haben. Zweitens ist nicht hinnehmbar, dass wir oft weder wissen, noch Einfluss nehmen können, wenn wir der Wahrscheinlichkeit unterworfen werden.
Diktatur der Wahrscheinlichkeit
Wir dürfen nicht zulassen, dass wir Wahrscheinlichkeitsrechnungen und Vermutungen ausgeliefert werden, denen wir schwer widersprechen können, und die oft weder nachvollziehbar noch richtig sind, zum Beispiel weil korrelierende Daten interpretiert werden, als seien die einen der Grund für die anderen. Solche Eingriffe beschädigen unser Menschenrecht auf Privatheit. Auch die auf europäischer Ebene diesen Mai verabschiedete Datenschutzgrundverordnung (DSGVO) greift viel zu kurz, analysierten die Forscher Sandra Wachter und Brent Mittelstadt vom Oxford Internet Institut zu Datenethik und Datenschutzgesetzgebung. Sie verlangen eine viel umfassendere rechtliche Kontrolle über Algorithmen sowie Transparenz-Pflicht. Die DSGVO müsse neben der Art, wie Daten erhoben werden, auch die „Interferenzen“ regeln. Kombinierte Datensätze und daraus gezogene Rückschlüsse seien als personenbezogene Daten aufzufassen und zu regulieren.
Werden also über uns anhand algorithmisch erzeugter Muster automatisiert Entscheidungen getroffen, müssten wir davon erfahren und uns gegen ein fehlerhaftes Bild wehren dürfen. Die Forscher raten: Wer automatisierte Entscheidungsprozesse einsetzt, müsse deklarationspflichtig sein. Das heißt, offenlegen, auf welcher Datenbasis die Muster entwickelt wurden, was daraus geschlossen wurde und wie sich der Prozess vor allem im Falle unerwünschter Schlüsse verbessern ließe.
Journalismus als Aufklärungsinstanz
Das knüpft an eine überfällige Forderung an: Wir benötigen eine klar zugewiesene Verantwortung und eine Haltung, die an Prinzipien der Aufklärung anschließt, etwa an Immanuel Kants Idee vom kategorischen Imperativ. Im übertragenen Sinne hieße das etwa: Baue nur Algorithmen, die Dinge tun, die auch ein Mensch verantworten und aus denen ein allgemeines Gesetz entstehen kann. Journalismus als Aufklärungsinstanz ist bedeutsam, um solchen Forderungen nach Verantwortlichkeit Gehör zu verschaffen, aber auch, um möglichst vielen Menschen nahezubringen, dass heute statistisches Grundwissen eine Kulturtechnik geworden ist wie Lesen und Schreiben. Denn sie ermächtigt, die Vor- und Nachteile der Automatisierung zu erkennen.
Vertrag für das Netz
Rückenwind kommt nun von Netzpionier Tim Berners-Lee. Er ließ vor drei Jahrzehnten unter anderem durch die Netzsprache HTML das Internet zum Massenmedium wachsen. Bereits vor Jahren hat er mit der World Wide Web Foundation eine Initiative gegründet, die eine Anwaltschaft für die positiven Seiten des Netzes zum Ziel hat. Nun, vor dem Hintergrund der aktuellen riskanten Entwicklungen, könnte ein Richtlinienkatalog Fahrt aufnehmen, den Berners-Lee auf dem Web-Summit in Lissabon präsentierte. Seine Idee für einen „Vertrag für das Netz“, einen „Contract for the Web“, richtet sich an Regierungen, Unternehmen und an jeden. Die Hauptaufträge: Zugänge schaffen, Privatsphäre und persönliche Datenhoheit bewahren und garantieren, Selbstverpflichtung auf Respekt gegenüber anderen Menschen und eine bessere Diskurskultur eingehen. Berners-Lee wirbt für das „gute Internet“, das Nutzer nicht ausbeutet, indem ihre Daten abgesogen werden, sie nicht manipuliert und überwacht, sondern werden soll, wie er sich das immer vorgestellt hat: gerecht, mit Zugang und gleichen Rechten für jeden. Deshalb entwickelte er gleich noch ein Projekt: Social Linked Data, abgekürzt „Solid“; Bürger sollen auf lokalen Servern ihre Daten speichern. Somit kann der Fakt, dass Google und Facebook sogar zu den ersten Unterzeichnern des Internet-Vertrags zählen, auch als ein Zeichen dafür interpretiert werden, auch dann zumindest mit im Spiel zu bleiben, wenn diese globalen Tech-Unternehmen ihr bisheriges Geschäftsmodell nicht mehr aufrechterhalten können.
Erstveröffentlichung: derstandard.at vom 13. November 2018
Bildquelle: pixabay.de
Schlagwörter:Algorithmen, Contract for the Web, Daten, Datenethik, Datenschutz, Freedom House, World Wide Web Foundation