Dieser Text ist Teil der PROMPT-Reihe.
Timo Lenk und Martin Lestra engagieren sich beide im Kampf gegen Desinformation, wenn auch aus unterschiedlichen Blickwinkeln. Lenk, Postdoktorand an der TU Dortmund, arbeitet für ADAC.io, ein Projekt im Rahmen von Horizon Europe, das darauf abzielt, die demokratische Widerstandsfähigkeit gegen ausländische Informationsmanipulation und Einmischung (FIMI) zu stärken. Lestra ist bei dem französischen Unternehmen opsci tätig und koordiniert PROMPT, ein von der Europäischen Kommission kofinanziertes Pilotprojekt, das sich auf die Erkennung und Entschlüsselung von Desinformationsnarrativen und -Kampagnen konzentriert.
Lenk hat insbesondere manipulative Kommunikation im Zusammenhang mit der EU-Klimapolitik im Hinblick auf die Europawahlen 2024 analysiert. In einer Fallstudie zeigt er strategische Manipulationstaktiken auf, die darauf abzielen, die öffentliche Debatte zu polarisieren. Seine Erkenntnisse stehen im Einklang mit dem PROMPT-Projekt, das sich auf die Erkennung und Bekämpfung von Desinformationsnarrativen konzentriert.
In diesem Kreuzinterview diskutieren beide, wie Desinformation verbreitet wird, welche Risiken sie birgt und wie ihre jeweiligen Projekte zur Erkennung und Bekämpfung manipulierender Narrative beitragen.
Die erste Fallstudie von ADAC.io zum Thema „Strategische Manipulation im Kontext der Europawahlen 2024” veranschaulicht, wie sich diese Verhaltensweisen auf die Europawahlen 2024 ausgewirkt haben. Sie zeigen ein Beispiel aus russischen Propagandamedien, das darin besteht, „bestehende Desinformations- und Propagandageschichten zu verstärken“, indem „nationalistische und rechtsgerichtete Politiker und Medienquellen aus der EU zitiert werden, die die Klimapolitik kritisieren“ (Lenk, 2024, 5). Solche Techniken der „wiederholten Konfrontation mit bestimmten Botschaften erhöhen potenziell deren wahrgenommene Wahrhaftigkeit“ (ebd., 6). Was sind die häufigsten Themen oder Muster, die Sie in Desinformationskampagnen gegen demokratische Prozesse am Beispiel der Europawahlen festgestellt haben?

Timo Lenk
Timo Lenk: Die Untersuchung ergab drei Hauptmuster. (a) Es werden bestehende Ängste und Missstände wie die Angst vor wirtschaftlichem Niedergang, Arbeitsplatzverlust, steigenden Preisen usw. aufgegriffen und mit angeblich fehlgeleiteter EU-Politik in Verbindung gebracht. So wurde beispielsweise die Deindustrialisierung der EU aufgrund der Energiewende-Politik dargestellt. (b) Reaktion auf aktuelle Ereignisse, um von der Medienaufmerksamkeit zu profitieren, wie beispielsweise die Bauernproteste vor den Wahlen. (c) Vermischung von Propagandabotschaften, wie Angriffe auf EU-Institutionen und -Politik, mit Kriegspropaganda im Zusammenhang mit der vollständigen Invasion der Ukraine durch Russland. Wir haben festgestellt, dass in allen drei Fällen Narrative negative Emotionen, insbesondere Angst, Hass und Empörung, schüren.
Martin Lestra: Die von Timo Lenk erwähnten Narrative sind für PROMPT von zentraler Bedeutung. Wir verfolgen, was über den Angriffskrieg gegen die Ukraine, LGTBQI+ und natürlich die EU-Wahlen gesagt wird. Wir sehen, dass es viele „Disinformationsherde“ gibt, die von böswilligen Akteuren – ausländische Regime und ihre inländischen Stellvertreter – insbesondere in der angespannten Wahlperiode „angefacht“ werden können. Das Aufgreifen von kontroversen Themen im jeweiligen nationalen Kontext – beispielsweise die Proteste der Landwirte – ist eine sehr effiziente Strategie, verglichen mit der Erfindung völlig neuer Themen (diese machen eher Schlagzeilen oder werden in privaten Messaging-Apps geteilt, weil sie absurd sind). Wir beobachten auch, dass Desinformationsakteure gerne Themen vermischen – sie sprechen über den Krieg in der Ukraine, LGTBQI+ und die EU-Wahlen. Das bedeutet, dass wir weniger Narrative zum EU-Wahlprozess selbst sehen als zu anderen Themen, wie der vermeintlichen Verantwortung der EU für den Krieg in der Ukraine, der Rolle der EU bei der Verarmung der Landwirte, ihrem neokolonialen Projekt in Afrika usw. Wir beobachten auch, dass es tatsächlich nur wenige „gemeinsame Themen“ gibt. Es gibt nur wenige Narrative – oder „Mega-Stories“ –, aber viele Variationen davon. Was über die Ablehnung der Bauern gegenüber den Eliten in Frankreich gesagt wird, ähnelt stark dem, was über die Bauern in Polen oder Spanien gesagt wird. Und was Ihnen auch die Faktenprüfer sagen werden, weil sie dies Tag für Tag tun, ist, dass diese Narrative oft wie alte Hüte bei zukünftigen Wahlen wieder auftauchen werden! Mit anderen Worten: Der Markt für Desinformation ist volatil, aber einige seiner grundlegenden Mechanismen wirken immer im Hintergrund und geben alten Geschichten neue Formen.

Martin Lestra
Desinformationsnarrative bergen erhebliche Risiken und können insbesondere im Umfeld von Wahlen die Wähler irreführen und die Grundlagen unserer Demokratien untergraben. Die Fallstudie von ADAC.io betont: „Die Ergebnisse werfen ein Licht auf ein vielfältiges Ökosystem aus Desinformation und Propaganda, das die Grenzen zwischen FIMI und der Manipulation von Informationen im Inland verwischt.“ (Lenk, 2024, 2) Wie gewinnen manipulative Narrative wie „grüne Tyrannei“ an Zugkraft und welche Rolle spielen digitale Plattformen bei ihrer Verbreitung?
Timo Lenk: Unsere Fallstudie legt nahe, dass Propagandakanäle und rechtsextreme Medien und Blogs in ihren Narrativen ähnliche Desinformationsthemen aufgreifen, wie beispielsweise den Niedergang Europas oder die Unterdrückung der Mitgliedstaaten durch die EU. Dies ist auch aus früheren Untersuchungen bekannt. Wir stellen fest, dass Narrative Frames und bestimmte Metaphern wie die „grüne Tyrannei“ verwenden, vermutlich um starke negative Emotionen hervorzurufen, EU-Bürger von EU-Institutionen zu entfremden und die Öffentlichkeit zu verärgern. Datenbanken wie EUvsDisinfo der East Stratcom Task Force des EAD, aber auch eine wachsende Zahl von Forschungsarbeiten aus verschiedenen Disziplinen zeigen, wie grundlegende Narrative in verschiedenen Fällen von Informationsmanipulation wiederkehren.
Wenden wir uns nun dem zweiten Teil der Fragen zu: Digitale Plattformen verstärken solche Narrative auf zwei Arten. Erstens begünstigen ihre Plattformstrukturen die Entstehung von Echokammern, in denen Gleichgesinnte Korrekturmechanismen wie Faktenchecks oder Gegenargumente umgehen können. Zweitens bevorzugen Plattformalgorithmen Inhalte, die die größte Aufmerksamkeit auf sich ziehen, um die Nutzer auf der Plattform zu halten; und die Inhalte, die die größte Aufmerksamkeit erhalten, sind emotional und skandalträchtig. Solange große Social-Media-Unternehmen ihre Geschäftsmodelle nicht ändern, werden ihre Plattformen weiterhin ein idealer Nährboden für hetzerische Inhalte sein.
Martin Lestra: Je mehr wir uns mit Desinformation beschäftigen, desto weniger beschäftigen wir uns mit der Gegenüberstellung von FIMI, DIMI usw. Oft scheint diese Unterscheidung eher eine (wichtige) Unterscheidung in den Mandaten der Organisationen zu sein. In jedem Fall ist es sehr wichtig zu verstehen, wie sich Narrative über Social-Media-Plattformen, verschiedene Netzwerke und verschiedene Sprachen hinweg verbreiten. Wir haben beispielsweise intensiv an den Verbindungen zwischen „französischem“ X und „russischem“ Telegram gearbeitet. Wir wissen, dass digitale Plattformen dazu beitragen, dass Narrative an Zugkraft gewinnen. Aber es geht nicht nur um die Dinge, die wir online messen können – die Anzahl der Likes oder Kommentare. Es liegt auch daran, dass sich alle so sehr dafür interessieren, was in den sozialen Medien passiert. Wie oft sehen Sie Nachrichtenberichte, die mit einem sensationellen und vielfach angesehenen Social-Media-Beitrag beginnen oder diesen enthalten? Digitale Plattformen machen Narrative auch deshalb populär, weil sie in die Mainstream-Medien einfließen. Wir wissen viel weniger darüber, wie soziale Medien unsere Meinung beeinflussen, als darüber, wie wir fernsehen und Nachrichten lesen. Faktenprüfer wissen das sehr gut, weil sie immer schwierigere Entscheidungen darüber treffen müssen, ob verdächtige Narrative „überprüft” oder „ignoriert” werden sollten. Aber unsere digitale Voreingenommenheit wird ständig ausgelöst. Das wissen die Plattformen, und das wissen auch die böswilligen Akteure. Wir sind der Meinung, dass wir uns verstärkt darum bemühen sollten, die Zusammenhänge zwischen digitalen Plattformen, Websites und Mainstream-Medien zu verstehen.
Das PROMPT-Projekt nutzt beispielsweise Large Language Models (LLMs), um die Entstehung und Verbreitung von Narrativen besser zu überwachen. Eine der zentralen Fragen des Projekts lautet: Wie verbreitet sich Desinformation beispielsweise über soziale Plattformen mit „universellen“ rhetorischen Mustern oder mit lokalen sprachlichen und kulturellen Besonderheiten? Wie können Projekte wie ADAC.io und PROMPT vor diesem Hintergrund dazu beitragen, Desinformation frühzeitig zu erkennen und wirksame Maßnahmen zu entwickeln, um ihre Auswirkungen abzuschwächen?
Timo Lenk: Im ADAC.io-Projekt ist es eines unserer Ziele, Methoden zur Analyse von Informationsmanipulation voranzutreiben und zu einer gemeinsamen Terminologie unter Analysten beizutragen, seien es Forscher, Journalisten oder OSINT-Experten. Das frei zugängliche DISARM-Framework, das von der DISARM Foundation verwaltet wird, ist beispielsweise ein großes, auf Vorfällen basierendes Framework zur Analyse von Informationsmanipulation, an dessen Optimierung unsere Projektpartner arbeiten.
Der Einsatz von LLMs für die Narrativanalyse ist ebenfalls ein spannender Ansatz! Für die Zukunft halte ich zwei Aspekte für entscheidend: Erstens sollte es mehr Austausch zwischen Gruppen und Projekten geben, die an unterschiedlichen Ansätzen zur Erkennung und Bekämpfung von Desinformation und manipulativen Narrativen arbeiten, und im Idealfall sollten verschiedene Tools miteinander verknüpft werden. Zweitens brauchen wir einen gesamtgesellschaftlichen Ansatz, um die langfristige Widerstandsfähigkeit der Gesellschaft zu stärken. Zu diesem Zweck müssen wir zunächst das Problembewusstsein bei verschiedenen Interessengruppen schärfen, was wir durch Workshops im Rahmen des ADAC.io-Projekts versuchen. Zu den wichtigsten Interessengruppen zählen dabei akademische Einrichtungen wie Universitäten und Schulen sowie Medienorganisationen und Journalisten. Wenn Sie Journalist sind oder für eine gemeinnützige Organisation arbeiten, können Sie sich gerne an mich wenden, um weitere Informationen zu unseren Workshops zu erhalten!
Martin Lestra: Lassen Sie mich noch etwas zur Rolle von LLMs hinzufügen. Wir wissen immer mehr über die Leistungsfähigkeit von LLMs im Kampf gegen Desinformation. Die Entwicklung in diesem Bereich schreitet schnell voran: Wir sind mittlerweile in der Lage, nicht nur einfache Dinge in Texten zu erkennen, sondern auch subtile Zusammenhänge zwischen Texten, Bildern und Videos in vielen verschiedenen Sprachen zu erkennen, auch wenn dies noch lange nicht perfekt ist. Wir sind besser darin, Ironie, Humor und spezifische kulturelle Bezüge (wie verschlüsselte Sprache) zu erkennen, den Stil von Social-Media-Beiträgen zu analysieren und die Emotionen zu identifizieren, auf denen sie aufbauen. Das ist ziemlich faszinierend. Aber technologischer Fortschritt ist zwar nützlich, reicht aber nicht aus, wenn wir wirksamere Maßnahmen entwickeln wollen, um die Auswirkungen von Desinformation zu mindern. Wir brauchen Menschen, die diese Tools nutzen, verstehen und in großem Maßstab einsetzen können. Mit anderen Worten: Unsere Arbeit an LLMs ist ein Baustein, um denjenigen, die den digitalen Raum auf der Suche nach böswilligen Verhaltensweisen untersuchen, mehr Möglichkeiten an die Hand zu geben. Letztendlich sollten wir viel mehr Menschen dazu befähigen, kritisch über das nachzudenken, was sie online begegnen (so wie wir es offline tun). Dies ist ein Teil des PROMPT-Projekts, aber es gibt natürlich noch viel zu tun im Bereich der Medienkompetenz, das weit über den Bereich der LLMs hinausgeht. Wir hoffen, dass wir immer mehr zu dieser Arbeit beitragen können.
Es gibt viele akademische Bemühungen, innovative Methoden zur Analyse von Narrativen zu entwickeln. Das PROMPT-Projekt zielt beispielsweise darauf ab, diese Lücke zu schließen, und umfasst zusätzliche Maßnahmen, um die Forschung für diejenigen nutzbar zu machen, die täglich gegen Desinformation kämpfen. Und nun ein Blick in die Zukunft: Welche Rolle spielt die interdisziplinäre Zusammenarbeit bei der Bekämpfung von Desinformation, und wie können Medien, Wissenschaft und Politik effektiver zusammenarbeiten?
Martin Lestra: Der von Timo erwähnte Begriff „gesamte Gesellschaft” ist für viele zu einem langweiligen Schlagwort geworden, aber das macht ihn nicht weniger relevant! Bei PROMPT versuchen wir, diesen Ansatz zu verwirklichen, indem wir Faktenprüfer, Aktivisten, Wissenschaftler und Akteure aus der Industrie zusammenbringen. Eine der Herausforderungen besteht unserer Meinung nach darin, die polarisierende Rolle zu überwinden, die KI unter denjenigen spielt, die am besten in der Lage sind, sie zu nutzen. Wir stellen fest, dass viele Faktenprüfer aus gutem Grund skeptisch sind oder sich gegen den Einsatz von KI in ihrer Arbeit aussprechen. Ich spreche hier noch nicht einmal von der breiten Öffentlichkeit! Das bedeutet, dass wir zusätzlich zu unserer Öffentlichkeitsarbeit auch diejenigen erreichen müssen, die Teil unseres Projekts sind.
Wir arbeiten an der Schnittstelle von Kultur und Technik, was unterschiedliche Sichtweisen erfordert. Mein Team verfügt beispielsweise über mehr als 20 Jahre Erfahrung in der empirischen Forschung zu Plattformen, zur Identifizierung von Communities, wichtigen Meinungsführern usw. Unsere Konsortialpartner bringen andere Aspekte ein. Der Mehrwert ist nicht nur konzeptioneller Natur, sondern auch ganz praktisch: Welche nützliche KI-gestützte PROMPT-Funktion könnten wir entwickeln? Wobei sollte sie helfen und was ist überflüssig? Wie sollte sie aussehen? Wie nützlich wird sie in 6 Monaten, in einem Jahr sein? Wenn wir einen Schritt zurücktreten, erfordert dieser gesamtgesellschaftliche Ansatz eine einheitlichere Sprache über Disziplinen und Berufe hinweg, um zu dokumentieren, was vor sich geht. Eine „Erzählung” bedeutet nicht immer dasselbe für zwei verschiedene Personen. Um effektiver zu sein, brauchen wir schließlich ein gemeinsames Verständnis der Auswirkungen oder des Schadens von Online-Desinformation. In vielen Fällen werden diese Auswirkungen eher angenommen als nachgewiesen. Interdisziplinäre Zusammenarbeit ist wirklich entscheidend, um gemeinsame Indikatoren in unserem Bereich zu entwickeln, zu testen und zu fördern.
Timo Lenk: Ja, ich stimme zu, ein gesamtgesellschaftlicher Ansatz ist entscheidend. Wir brauchen die kollektive Intelligenz aus allen Bereichen, die Sie erwähnt haben: Wissenschaft, Medien, gemeinnützige Organisationen. Ähnlich wie Martin habe ich dies auch im Rahmen des ADAC.io-Projekts aus erster Hand erlebt: Eine meiner ersten Aufgaben war die Teilnahme an einer Analystenschulung in Litauen. Wir wurden von der NGO Debunk.org, einem unserer Projektpartner, eingeladen. Die Teilnehmer waren überwiegend polnische und deutsche Forscher aus den Sozial- und Geisteswissenschaften, die mit Analysten aus dem gemeinnützigen Sektor, die Fälle von Informationsmanipulation aufdecken und den Behörden melden, über Desinformation und manipulative Narrative diskutierten. Obwohl wir ganz unterschiedliche Perspektiven einbrachten, war der Austausch sehr fruchtbar. Und diese Synergien zwischen Wissenschaft und Fachleuten aus verschiedenen Bereichen erlebe ich auch weiterhin in den verschiedenen Kooperationen innerhalb des Projekts. Meiner Meinung nach ist die Förderung des Austauschs und der Zusammenarbeit zwischen verschiedenen Disziplinen und Sektoren entscheidend, um die Zivilgesellschaft widerstandsfähiger gegen Informationsmanipulation zu machen.
Schlagwörter:Desinformation, EU, Informationsmanipulation, PROMPT

