Analyse von Desinformation mit LLMs – Lehren aus einem PROMPT-Zero-Shot-Experiment

10. August 2025 • Aktuelle Beiträge, Digitales, PROMPT • von

Bildquelle: Pexel

Das PROMPT-Projekt befasst sich mit dem Einsatz von KI zur Analyse und besseren Verständnis von Desinformation im Internet. Sechs Monate lang habe ich im KI-Forschungsteam von opsci mit großen Sprachmodellen (LLMs) experimentiert, die Texte verarbeiten und generieren können, indem sie das nächste Wort in einer Sequenz vorhersagen. Dennoch sind keine Zauberstäbe. In diesem Beitrag gebe ich einen kurzen Überblick darüber, wie ich LLMs zur Erkennung von Desinformation eingesetzt habe, welche Herausforderungen sich uns während der Forschung gestellt haben und wie wir unsere Methoden anpassen, um die KI-Tools zu verbessern, die Journalist:innen bei ihrer Arbeit unterstützen.

Bei dem Versuch zu verstehen, welche Arten von Desinformationsinhalten online zirkulieren, liegt eine der grundlegenden Herausforderungen in der unstrukturierten Natur der meisten Online-Inhalte. Tweets, Telegram-Beiträge, Kommentare und sogar Memes sind selten mit Labels versehen, die Aufschluss über die Kategorien geben, die für uns interessant sein könnten: Was ist das Thema? Welche Argumente werden vorgebracht? Versucht der Inhalt, bestimmte Emotionen zu wecken? Um zu verstehen, wie Desinformation funktioniert, ist jedoch genau das erforderlich: die Umwandlung von Freitext in strukturierte, analysierbare Daten.

Hier zeigen LLMs ihr echtes Potenzial. Im sogenannten Zero-Shot-Modus können wir Daten ohne großen Trainingsaufwand (für Fortgeschrittene sogar ohne Feinabstimmung) „beschriften“ (kategorisieren). Bei einem Beitrag wie dem folgenden könnte ein gut trainiertes LLM beispielsweise folgende Anmerkungen liefern:

„Der Impfstoff wurde überstürzt eingeführt. Niemand weiß, was wirklich darin enthalten ist.“

Ziel: Gesundheitsbehörden

Narrativ: experimentelle Impfstoffe / Risiko für die Bevölkerung

Emotion: Misstrauen, Angst

Wir verwenden diesen Ansatz, um Beiträge automatisch zu kennzeichnen, Entitäten zu extrahieren und sie den Narrativen zuzuordnen, die wir in PROMPT zu den Themen der russischen Invasion in der Ukraine, den Europawahlen und den Rechten von LGTBQI+ identifiziert haben.

Vorgehen

Ich habe Large Language Models (LLMs) verwendet, um Nachrichten mit Desinformationsbezug in acht Sprachen automatisch zu annotieren. Anstatt mich auf ein einziges Modell zu verlassen, habe ich mit mehreren LLMs experimentiert, alle im Zero-Shot-Modus.

Die LLMs hatten die Aufgabe, über 20 Felder zu annotieren, die sowohl oberflächliche als auch tiefgreifende strukturelle linguistische Merkmale jedes Social-Media-Beitrags abdecken (das vollständige Codebuch wird hier diskutiert). Dazu gehören beispielsweise:

  • Typologie der Desinformation (z. B. Verschwörung, Fälschung, Voreingenommenheit)
  • Narrative Themen (z. B. Anti-EU, Migration, geopolitische Framing)
  • Faktizität und Überprüfbarkeit
  • Informationsmanipulation und Überzeugungstechniken
  • Rhetorische Figuren (z. B. Ironie, Übertreibung, Wiederholung)
  • Axiologisches Framing (z. B. „wir gegen die Eliten“, „wir gegen Migranten“)
  • Emotionale Auslöser (z. B. Angst, Wut, Nostalgie)

Um zu sehen, was die LLMs liefern, habe ich sie an einer Stichprobe aus der EUvsDisinfo-Datenbank getestet, einer EU-Initiative, die sich speziell mit russischer Desinformation befasst.

Jeder eingegebene Beitrag wurde zusammen mit einer standardisierten Systemaufforderung, die sowohl die Aufgabe als auch die Taxonomie beschreibt, an das Modell übermittelt. Die Ergebnisse wurden anschließend auf Formatkonsistenz überprüft.

Was sind die Herausforderungen?

Trotz ihrer Fähigkeiten wurden LLMs in erster Linie für die Generierung von Texten entwickelt – nicht für deren Klassifizierung. Dies führt in der Praxis zu drei wesentlichen Herausforderungen:

1) Kosten: Jeder Aufruf eines kommerziellen LLM ist mit einer tokenbasierten Gebühr verbunden. Die Analyse von Millionen von Beiträgen kann schnell Tausende von Euro kosten.

2) Inkonsistenz: Dieselbe Eingabe kann gelegentlich zu leicht unterschiedlichen Ausgaben führen. Ohne zusätzliche Einschränkungen können LLMs „halluzinieren” und Labels oder Ausgaben in inkonsistenten Formaten produzieren.

3) Latenz und Skalierbarkeit: Die Ausführung eines LLM für jeden einzelnen Beitrag erfordert Zeit und Rechenressourcen – was eine Einschränkung für die Echtzeit- oder groß angelegte Überwachung darstellt, insbesondere wenn Geschwindigkeit entscheidend ist, um Journalist:innen bei der Identifizierung und Reaktion auf Desinformationsnarrative zu unterstützen.

Wie gehen wir mit diesen Herausforderungen um?

Erstens setzen wir auf kleinere Modelle und ressourceneffizientere Ansätze. Basierend auf dem Feedback von Journalist:innen versuchen wir, die extrahierten Daten zu vereinfachen. Dazu stützen wir uns stärker auf Metadaten – schließlich braucht man kein LLM, um zu erkennen, ob ein Beitrag von Facebook oder Telegram stammt – und reduzieren die Anzahl der Kategorien. Müssen wir wirklich Tausende von bestehenden rhetorischen Nuancen verfolgen? Kompromisse sind unvermeidlich.

Zweitens verwenden wir mehrere Modelle und überprüfen deren Ergebnisse gegenseitig auf Unstimmigkeiten. Wir vergleichen die „Mehrheitsstimmen” der LLMs mit unserer eigenen manuellen Überprüfung und konzentrieren uns dabei besonders auf Bereiche, in denen Fehler am wahrscheinlichsten sind – wie beispielsweise seltener verwendete Sprachen, nicht nur Englisch.

Drittens optimieren wir die Leistung durch asynchrone Verarbeitung: LLMs liefern gestaffelte Ergebnisse, sodass wir bereits mit Zwischenergebnissen arbeiten können und nicht durch die langsamste Aufgabe aufgehalten werden. Außerdem bündeln wir Anfragen zu Stapeln, um die Verarbeitungseffizienz zu verbessern.

Fazit

Wie aktuelle Forschungsergebnisse zeigen, kann Zero-Shot-Annotation funktionieren – einige behaupten sogar, dass diese Methoden nicht nur schneller sind als menschliche (oder „manuelle“) Überprüfungen, sondern auch bessere Ergebnisse liefern. PROMPT soll Journalist:innen nicht ersetzen, sondern sie unterstützen: indem es schwache Signale, subtile rhetorische Mittel wie verschlüsselte Sprache oder Dog Whistles aufzeigt und übergeordnete Muster in riesigen Datensätzen identifiziert. LLMs sind nur eine Komponente in einer umfassenderen KI-Pipeline, die dabei hilft, die Flut an Online-Informationen zu filtern und zu strukturieren. Kurz gesagt: Diese Experimente sind nicht das Ende – sie sind erst der Anfang.

Schlagwörter:, , ,

Kommentare sind geschlossen.

Send this to a friend