Den Code knacken: Zugang zu Sozialdaten und die Auswirkungen des DSA auf die Desinformationsforschung

10. Februar 2025 • Aktuelle Beiträge, Digitales • von

Bildquelle: Flickr

Dieser Artikel ist Teil der PROMPT-Reihe.

Der Digital Services Act (DSA), der am 16. November 2022 offiziell in Kraft getreten ist, ist ein Meilenstein für die Forschung im Bereich der sozialen Medien. Das EU-weite Gesetz verpflichtet sehr große Online-Plattformen (Very Large Online Platforms, VLOPs) und sehr große Online-Suchmaschinen (Very Large Online Search Engines, VLOSEs), Forschenden Zugang zu verfügbaren Daten zu gewähren, und verspricht, die Transparenz zu revolutionieren. In einer Zeit, in der Desinformation, algorithmische Voreingenommenheit und Versäumnisse bei der Moderation von Inhalten den öffentlichen Diskurs prägen, ist der Zugang zu Plattformdaten entscheidend, um zu verstehen, wie sich diese Dynamiken entfalten.

Der DSA ist zwar ein Schritt nach vorne, aber bei weitem kein Allheilmittel. Die Plattformen haben unterschiedlich reagiert, mit uneinheitlichen Umsetzungen, Zugangsbeschränkungen und technischen Hindernissen, die die Wirksamkeit des Gesetzes einschränken. Die Frage ist nun nicht nur, was sich ändert, sondern auch, ob diese Änderungen den Forschenden tatsächlich bei ihrer Arbeit helfen werden.

Die DSA: Ein Durchbruch für die Transparenz von Plattformen?

Seit Jahren wird die Forschung im Bereich der sozialen Medien durch undurchsichtige Richtlinien, unvorhersehbare API-Abschaltungen und restriktive Nutzungsbedingungen eingeschränkt. Die Untersuchung koordinierter Desinformationskampagnen, Manipulation der Interaktion und Verstärkung von Inhalten erforderte oft Umgehungslösungen – vom Auslesen öffentlich sichtbarer Daten bis hin zur Nutzung freiwilliger Transparenzinitiativen der Plattformen, von denen viele jederzeit widerrufen werden konnten.

Die EU versucht, dies mit dem DSA zu ändern. Artikel 40.12 legt fest, dass Social-Media-Plattformen Forschenden Zugang zu öffentlich zugänglichen Daten gewähren müssen – ohne dass besondere Vereinbarungen oder privilegierter Zugang erforderlich sind. Diese Daten umfassen alles von öffentlichen Beiträgen und Engagement-Metriken bis hin zu Metadaten über die Verbreitung von Inhalten.

Das Ziel? Eine stabile, zuverlässige und skalierbare Forschungsinfrastruktur zu schaffen, die es Forschenden ermöglicht, systemische Risiken wie Desinformation, Wahlbeeinflussung und Online-Schäden zu untersuchen.

Zumindest ist das die Theorie. Die Realität erweist sich als komplizierter.

Das Versprechen des Datenzugriffs: Was funktioniert?

Zum ersten Mal sind Plattformen gesetzlich verpflichtet, Forschenden, die systemische Risiken wie Desinformation, algorithmische Verstärkung und Online-Manipulation untersuchen, einen strukturierten Datenzugriff zu ermöglichen. Zwar gab es schon früher Forschungs-APIs und -Tools, doch waren diese oft unzuverlässig, fragmentiert oder auf ausgewählte Partner beschränkt. Mit dem Digital Services Act verschiebt sich die Landschaft hin zu einem strukturierteren und durchsetzbaren Rahmen, der das Risiko willkürlicher Abschaltungen oder Dateneinschränkungen verringert.

Einige Plattformen haben damit begonnen, interaktive Dashboards einzuführen, die für nicht-technische Forschende konzipiert sind, um Engagement-Trends zu untersuchen, Inhalte zu filtern und Erkenntnisse zu gewinnen, ohne eine einzige Zeile Code schreiben zu müssen. Diese Dashboards senken die Eintrittsbarriere und erleichtern es Journalist:innen, politischen Entscheidungsträger:innen und Akademiker:innen ohne Programmierkenntnisse, das Verhalten von Plattformen zu analysieren.

Für diejenigen, die groß angelegte, quantitative Studien durchführen, bieten Programmierschnittstellen (APIs) direkten Zugriff auf riesige Datensätze. Diese APIs ermöglichen es Forschenden, granulare Metadaten zu Beiträgen, Kommentaren und Interaktionsmetriken abzurufen, und ermöglichen Längsschnittstudien, die die Entwicklung des Online-Verhaltens im Laufe der Zeit verfolgen. In einigen Fällen bieten Plattformen Datenexportfunktionen an, die es Forschungsteams ermöglichen, Social-Media-Datensätze mit anderen Quellen, wie z. B. Wahldaten oder Wirtschaftsindikatoren, zusammenzuführen, um umfassendere Muster aufzudecken.

Dieser Wandel hat enorme Auswirkungen auf die digitale Forschung und eröffnet neue Analysemöglichkeiten:

  • Wie sich Narrative über verschiedene Plattformen verbreiten, wobei die plattformübergreifende Verstärkung und der Einfluss wichtiger Akteure aufgedeckt werden.
  • Welche Arten von Inhalten durch algorithmische Ranking-Systeme verstärkt werden, was Einblicke in Voreingenommenheit, Echokammern und Viralitätsmechanismen bietet.
  • Wie sich Moderationsrichtlinien im Laufe der Zeit auf das Engagement und die Sichtbarkeit auswirken und dabei helfen, zu beurteilen, ob die Durchsetzung konsistent, effektiv oder anfällig für unbeabsichtigte Folgen ist.
  • Die Rolle von Bot-Netzwerken und koordinierten Einflussnahme-Operationen durch Querverweise auf Metadaten und Interaktionsmuster, um Manipulationstaktiken in Echtzeit zu erkennen.

Die eigentliche Herausforderung besteht jedoch nicht nur im Zugriff auf die Daten, sondern auch darin, sicherzustellen, dass sie vollständig, nutzbar und plattformübergreifend vergleichbar sind. Ohne standardisierte Formate, konsistente Metadatenstrukturen und Transparenz über Datenauslassungen besteht selbst bei den fortschrittlichsten Tools die Gefahr, dass unvollständige oder irreführende Erkenntnisse gewonnen werden. Das Potenzial ist vorhanden, aber die Umsetzung bleibt eine offene Frage.

Wo das DSA versagt: Ein fragmentiertes System

Trotz der ehrgeizigen Ziele des Gesetzes bleibt der Datenzugriff im Rahmen des DSA fragmentiert. Jede VLOP und VLOSE interpretiert die Verordnung anders, was zu folgenden Problemen führt:

  • große Diskrepanzen in Art und Umfang der bereitgestellten Daten;
  • unterschiedliche Transparenz darüber, was in Datensätzen enthalten (oder ausgeschlossen) ist;
  • erhebliche Inkonsistenzen in den API-Strukturen, die plattformübergreifende Vergleiche nahezu unmöglich machen.

Während einige Plattformen beispielsweise detaillierte Engagement-Metriken bieten, stellen andere nur aggregierte Statistiken zur Verfügung, wodurch wertvolle Zusammenhänge verloren gehen. In einigen Fällen sind öffentlich zugängliche Daten durch Anwendungsprozesse geschützt, sodass Forschende umfangreiche Unterlagen einreichen müssen, bevor sie überhaupt Zugang erhalten.

Technische Hürden erschweren die Situation zusätzlich. Durch Ratenbegrenzungen wird beispielsweise die Anzahl der API-Abfragen, die ein:e Forschende:r in einem bestimmten Zeitraum durchführen kann, begrenzt. Dies macht es schwierig – wenn nicht gar unmöglich –, Echtzeitdaten in großem Umfang zu sammeln. Bei Studien zu schnelllebigen Ereignissen wie Wahlen oder Informationskampagnen können Verzögerungen beim Zugriff dazu führen, dass die Ergebnisse veraltet sind, bevor sie überhaupt veröffentlicht werden.

Und dann ist da noch das Problem der Datengenauigkeit. Mehrere Forschende haben bereits über Diskrepanzen zwischen API-Daten und dem, was tatsächlich auf Plattformen sichtbar ist, berichtet, was Bedenken aufwirft, ob Plattformen Informationen selektiv filtern oder den Forschungsumfang einschränken. Ohne unabhängige Prüfmechanismen wird die Überprüfung der Datenzuverlässigkeit zu einem schwierigen Unterfangen.

Das bürokratische Labyrinth des Datenzugriffs

Abgesehen von den technischen Einschränkungen sind die bürokratischen Hürden, mit denen Forschende im Rahmen der DSA konfrontiert sind, erheblich. Plattformen verlangen oft:

  • detaillierte Projektvorschläge, einschließlich Forschungsziele, Methoden und erwartete Ergebnisse;
  • institutionelle Unterstützung, was den Zugang für unabhängige Forschende oder Journalist:innen erschwert;
  • strenge ethische Genehmigungen, die zwar notwendig sind, aber bei zeitkritischen Studien zu Verzögerungen führen.

Selbst wenn diese Hürden genommen sind, bleibt der Genehmigungsprozess undurchsichtig. Forschende berichten häufig von langen Wartezeiten und unklaren Ablehnungskriterien, was zu Frustration und Unsicherheit darüber führt, ob sie überhaupt jemals Zugang erhalten werden.

Darüber hinaus verlangen einige Plattformen von Forschenden, dass sie in sicheren Forschungsumgebungen arbeiten, wie z. B. in virtuellen Reinräumen, in denen Daten analysiert, aber nicht exportiert werden können. Diese Maßnahmen sollen zwar die Privatsphäre der Nutzenden schützen, schaffen aber auch logistische Herausforderungen, die die Möglichkeiten der Forschenden einschränken, Daten zu nutzen und in umfassendere Studien zu integrieren.

Das System reparieren: Was muss als Nächstes geschehen?

Damit die DSA ihr Versprechen erfüllen kann, ist eine koordinierte Anstrengung zwischen Plattformen, Regulierungsbehörden und der Forschungsgemeinschaft erforderlich. Es gibt mindestens drei Schlüsselbereiche, die dringend Aufmerksamkeit erfordern.

  1. Standardisierung des Datenzugriffs

Plattformen müssen ihre APIs, Dokumentation und Datenformate aufeinander abstimmen, um eine plattformübergreifende Analyse zu ermöglichen. Ohne eine einheitliche Struktur werden Forschende weiterhin mit fragmentierten, inkonsistenten Datensätzen zu kämpfen haben, die aussagekräftige Vergleiche erschweren.

  1. Mehr Transparenz bei den Antragsverfahren

Die Kriterien für den Zugriff auf Plattformdaten sollten klar und öffentlich verfügbar sein. Plattformen müssen Genehmigungsprozesse optimieren, unnötige bürokratische Hürden abbauen und zeitnah auf Zugriffsanfragen reagieren.

  1. Unabhängige Prüfung und Verifizierung

Um die Zuverlässigkeit der Daten zu gewährleisten, sollten die von den Plattformen bereitgestellten Datensätze von Dritten geprüft werden. Dies würde dazu beitragen, Verzerrungen, fehlende Informationen oder Manipulationen aufzudecken, die die Forschungsergebnisse verfälschen könnten.

Von Silos zu Synergien: Stärkung von Forschungsnetzwerken

Um die Zuverlässigkeit von Daten und Tools zu gewährleisten, ist jedoch auch eine stärkere, besser vernetzte Forschungsgemeinschaft erforderlich. Derzeit interagieren Forschende, die im Rahmen der DSA arbeiten, oft auf individueller Basis mit Plattformen, wobei sie den Zugang aushandeln, technische Probleme beheben und undurchsichtige Genehmigungsprozesse weitgehend allein bewältigen. Dieser isolierte Ansatz führt zu Ineffizienz und verhindert die Art der kollektiven Problemlösung, die die Forschungsergebnisse erheblich verbessern könnte.

Ein großes Problem ist das Fehlen eines gemeinsamen Raums, in dem Forschende und andere Interessengruppen mit API-Zugang in Echtzeit kommunizieren können. Wenn etwas schief geht – sei es ein unerwarteter API-Ausfall, fehlende Datenfelder oder Inkonsistenzen zwischen Datensätzen – gibt es keine unmittelbare Möglichkeit festzustellen, ob das Problem weit verbreitet ist oder nur einen einzelnen Benutzer betrifft. Stattdessen müssen sich Forschende auf die Vertreter der Plattform verlassen, um eine Klärung zu erhalten, was die Untersuchungen verlangsamt und unnötige Engpässe verursacht.

Das Fehlen eines zentralisierten Forschungsnetzwerks erschwert auch die Entwicklung und Verbreitung bewährter Verfahren. Jede Gruppe ist auf sich allein gestellt, wenn es darum geht, Methoden, ethische Richtlinien und Datenvalidierungstechniken zu erarbeiten, und erfindet das Rad oft neu, anstatt auf kollektivem Wissen aufzubauen. Diese Fragmentierung schwächt die Breitenwirkung der Forschungsbemühungen und schränkt die Möglichkeit ein, Plattformen zur Rechenschaft zu ziehen.

Um diese Herausforderungen zu bewältigen, ist eine koordinierte Infrastruktur erforderlich, die den horizontalen Informationsaustausch, eine schnelle Fehlerbehebung und die gemeinsame Problemlösung erleichtert. Die Einrichtung unabhängiger Forschungsforen, gemeinsamer Dokumentationsspeicher und frei zugänglicher Wissenszentren würde eine schnellere Anpassung an technische Veränderungen, eine effektivere Kontrolle der von den Plattformen bereitgestellten Daten und eine stärkere kollektive Stimme bei der Gestaltung künftiger Transparenzinitiativen ermöglichen.

Ein Schritt nach vorne, aber noch nicht am Ziel

Der Digital Services Act sollte einen Wendepunkt für die digitale Transparenz markieren und die Social-Media-Giganten dazu zwingen, ihre Türen für Forschende zu öffnen, die sich mit Desinformation, algorithmischer Voreingenommenheit und Plattform-Governance befassen. In vielerlei Hinsicht hat er dies auch getan. Der Zugang zu strukturierten Datensätzen, APIs und Transparenz-Tools hat sich verbessert und neue Möglichkeiten geschaffen, um zu analysieren, wie sich Inhalte verbreiten, wie Algorithmen das Engagement beeinflussen und wie sich Moderationsrichtlinien auf die Sichtbarkeit auswirken.

Aber der Zugang allein reicht nicht aus. Wenn Daten unvollständig, inkonsistent oder durch technische und bürokratische Hindernisse eingeschränkt sind, leidet die Forschung – und damit auch die Fähigkeit der Öffentlichkeit, zu verstehen, was online geschieht. Ohne standardisierte APIs bleiben plattformübergreifende Studien schwierig. Ohne klare und effiziente Antragsverfahren laufen unabhängige Forschende und Journalisten Gefahr, ausgeschlossen zu werden. Ohne stärkere Garantien für die Zuverlässigkeit der Daten könnten die Ergebnisse durch versteckte Auslassungen oder Diskrepanzen verfälscht werden.

Was passiert, wenn diese Probleme nicht behoben werden? Es steht viel auf dem Spiel. Desinformationsnetzwerke werden nicht auf einen reibungsloseren Zugang zu Forschungsinstrumenten warten. Politische Manipulation, wirtschaftlicher Betrug und algorithmische Verstärkungen entwickeln sich in Echtzeit weiter und prägen die öffentliche Meinung, bevor Forschende überhaupt die für ihre Analyse erforderlichen Daten sammeln können. Das Risiko besteht nicht nur in einer langsamen Forschung, sondern darin, dass das Gesamtbild völlig fehlt.

Im nächsten Schritt geht es nicht darum, die Regeln neu zu schreiben, sondern sicherzustellen, dass sie wie vorgesehen funktionieren. Entscheidend sind strengere Standards für den Datenzugriff, mehr Transparenz darüber, wie Plattformen Informationen weitergeben, und eine Forschungsgemeinschaft, die diese Systeme im Laufe der Zeit testen, validieren und verfeinern kann. Wenn die digitale Welt zur Rechenschaft gezogen werden soll, müssen die Menschen, die sie untersuchen, die nötigen Mittel erhalten, um ihre Arbeit zu tun – ohne Hindernisse, Unsicherheiten oder Kompromisse.

Der Grundstein ist gelegt. Jetzt ist es an der Zeit, etwas Dauerhaftes zu schaffen.

Schlagwörter:, , , , ,

Kommentare sind geschlossen.

Send this to a friend