Dieser Text ist Teil der PROMPT-Reihe.
Der Artikel wurde von Raluca Radu, Universität Bukarest, begutachtet.
Datenanalyse durchgeführt von Fabio Giglietto und Massimo Terenzi, Universität Urbino
Die im letzten Jahr aufgrund ausländischer Einmischung annullierten Präsidentschaftswahlen in Rumänien werden weiterhin von Bedenken hinsichtlich undurchsichtiger Verbindungen, Cyberangriffen und koordinierten Online-Kampagnen überschattet. Der rechtsextreme Kandidat erzielte 40,96 % der Stimmen.
Die rumänischen Präsidentschaftswahlen wurden 2024 aufgrund von Vorwürfen ausländischer Einmischung annulliert. Eindeutige Hinweise auf koordinierte Online-Aktivitäten mit Inhalten aus Russland wurden in einem Bericht des britischen Thinktanks Foreign Policy Centre (FPC) aufgedeckt, der mit Hilfe der KI-gestützten Software Osavul zur Erkennung von Informationsbedrohungen über 3.500 Nachrichten analysierte, die während der annullierten Wahlen auf Plattformen wie Telegram, Facebook, X (ehemals Twitter) und YouTube verbreitet wurden (Martinescu et al., 2024). Der Bericht kam zu dem Ergebnis, dass die meisten Inhalte aus Russland oder von mit Russland verbundenen Akteuren stammten, darunter staatliche Medien wie RT und Sputnik. Bei den Wiederholungswahlen deuten neue Beweise des PROMPT-Projekts darauf hin, dass das koordinierte Verhalten im Online-Umfeld fortgesetzt wurde und zu einer beispiellosen Welle von Extremismus beitrug, in deren Verlauf der rechtsextreme Politiker George Simion in der ersten Runde am 4. Mai 2025 40,96 % der Stimmen erhielt.
Was geschah bei den Neuwahlen?
Im Rahmen des PROMPT-Projekts analysierten Forscher der Universität Urbino 45.272 Facebook-Beiträge von 1.454 Konten zwischen dem 17. und 24. April 2025. Die Analyse unter Verwendung großer Sprachmodelle (LLMs) basierte auf Akteurslisten, die von AI de noi zusammengestellt wurden, einem Netzwerk von Freiwilligen, das gegen politische Richtlinien verstoßende Inhalte wie gefälschte Konten, KI-generierte Bilder und emotionale Manipulation überwacht.
Die Ergebnisse zeigten, dass die meisten Beiträge emotional aufgeladene, klickbaite Inhalte gegenüber sachlicher Berichterstattung bevorzugten. Viele enthielten KI-generierte Bilder und konzentrierten sich auf Themen wie tragische persönliche Geschichten, Prominenten-News, Ängste um die öffentliche Gesundheit und nationalistische Nostalgie – oft unpolitisch in ihrer Erscheinung, aber mit impliziten politischen Hinweisen. Die Inhalte wichen weitgehend von der tatsächlichen Nachrichtenagenda ab. Weitere relevante Datensätze, wie z. B. Martinescu et al. (2024), werden derzeit im Rahmen von PROMPT weiter analysiert.
Meta definiert koordiniertes unechtes Verhalten (CIB) als Kampagnen, die die öffentliche Debatte plattformübergreifend manipulieren (Meta, o. J.). Eine typische CIB-Taktik ist Astroturfing – die Simulation von Unterstützung durch die Basis –, die von Akteuren mit Eigeninteressen eingesetzt wird (Chan, 2022). Chan beschreibt dies als „ein Problem, das über Desinformation hinausgeht“ und zunehmend Risiken für die demokratische Integrität birgt.
Der Fall Rumänien zeigt, wie algorithmisches Targeting, emotionale Appelle und koordinierte Verbreitung den öffentlichen Diskurs verzerren und Wahlprozesse untergraben können.
Hinweise auf koordiniertes unechtes Verhalten in rumänischen Facebook-Netzwerken (Wahlen 2025)
Im Zusammenhang mit den Präsidentschaftswahlen 2025 in Rumänien ergab eine von PROMPT durchgeführte Netzwerkanalyse von 1.489 Facebook-Beiträgen Muster, die auf koordiniertes unechtes Verhalten (CIB) hindeuten. Diese Beiträge wurden von 21 verschiedenen Facebook-Konten verbreitet, von denen mehrere starke Hinweise auf verbundene Knotenpunkte aufwiesen – ein Begriff aus der Netzwerkanalyse, der sich auf Knoten (Konten) bezieht, die durch synchronisierte Aktivitäten oder ähnliche Inhalte miteinander verbunden sind. Beispielsweise veröffentlichten drei Konten – România Eternă, România Modernă und România Autentică – in den analysierten Monaten durchschnittlich 149 Beiträge innerhalb eines Zeitfensters von 9,3 Sekunden, was auf automatisiertes Verhalten oder eine zentralisierte Steuerung hindeutet (ein charakteristisches Merkmal dieses Verhaltens war die nahezu gleichzeitige Veröffentlichung identischer oder sehr ähnlicher Inhalte).
Die Bilder von Kindern, Erwachsenen oder älteren Menschen, die allein in einem Hof in ländlichen Gebieten stehen, mit einer Geburtstagstorte, und sagen, dass sie allein und traurig sind, verstärken das Thema der zerrütteten Familien. DiResta und Goldstein (2024) haben mehrere Methoden identifiziert, mit denen Spammer und Betrüger KI-generierte Bilder auf Facebook nutzen, um ihr Publikum zu vergrößern. Eine gängige Technik besteht darin, unbeschriftete KI-generierte Bilder mit Bildunterschriften wie „Das ist meine erste Torte! Ich würde mich über eure Kommentare freuen“ oder „Mit meinen eigenen Händen gemacht“ zu posten, die ausdrücklich um Kommentare und Interaktion bitten. Damit wird ein doppeltes Ziel verfolgt: die Reichweite zu erhöhen und falsche Informationen in den politischen Diskurs einzuschleusen.
Rumänien hat laut offiziellen Statistiken (Pop, 2025) mit 5,7 Millionen Menschen die größte Diaspora-Gemeinschaft in Europa. Einige andere Beiträge folgen den Nachrichten des Tages im Clickbait-Stil und verlinken hauptsächlich auf die Website romaniaculturala.eu, mit schockierenden Bildern von Unfällen, Bränden, Stürmen, Todesfällen und Links in Kommentaren, bei deren Anklicken Antivirenprogramme vor Phishing warnen. In politisch intensiven Zeiten werden die Seiten mit politischen Themen überflutet (die meist mit der Website romaniaculturala.eu verlinkt sind), in denen George Simion und Donald Trump gelobt werden oder die Vorhersage einer Horoskop-Dame gepostet wird, wer die Präsidentschaft gewinnen wird.
Um einen Eindruck von den Zahlen zu vermitteln: România Eternă hat 116.000 Likes und genau 116.000 Follower, România Autentică hat 133.000 Likes und 132.000 Follower, während România Modernă 115.000 Follower und 0 Accounts, denen sie folgt, hat und keine Likes angezeigt werden.

Der Beitrag über den nationalistischen AUR-Führer George Simion und seine Mutter wird innerhalb von Sekunden von drei Accounts verbreitet. Quelle: Meta Library, Prompt-Recherche, 2025
Qualitative Inhaltsanalyse
Inhaltlich zeigten die Accounts ähnliche ästhetische und narrative Strategien. Die Beiträge enthielten oft emotional bewegende Szenen: Kinder, ältere Menschen und isolierte Bürger, die alleine Geburtstag feierten – Bilder, die alle Altersgruppen ansprechen sollten.
In den Tagen um die Wahl (4. Mai) verlagerte sich der Inhalt jedoch abrupt von allgemeinen kulturellen oder emotionalen Beiträgen zu offen politischen Botschaften. Zu den neuen Themen gehörten: Lob für internationale Persönlichkeiten wie Donald Trump und Elon Musk, die Verstärkung der Ausgrenzung Rumäniens aus dem US-Visumwaiverprogramm, die kurz vor dem Wahltag bekannt gegeben wurde, Pro-Georgescu-Narrative und anti-EU-Themen.
Dieser abrupte Themenwechsel in Verbindung mit dem koordinierten Timing stützt die Hypothese einer strategischen Manipulation, die darauf abzielt, das Wahlverhalten in der Endphase des Wahlkampfs zu beeinflussen.
Die analysierten Beiträge zeigen „eine klare rechtspopulistische und nationalistische Ausrichtung, insbesondere in ihrer Darstellung politischer Akteure“, so die Analyse, die von der Universität Urbino im Rahmen des PROMPT-Projekts koordiniert wurde. Zu den Hauptmerkmalen zählen Botschaften gegen die Parteien der Regierungskoalition, die Sozialdemokraten und die Liberalen sowie Botschaften gegen den rumänischen Präsidenten Klaus Iohannis (Dez. 2014 – Feb. 2025). Andere Beiträge auf diesen Seiten zeigten jedoch eine starke Unterstützung für die AUR (Allianz der Union Rumäniens) und ihren Vorsitzenden George Simion, Euroskepsis und einen breiteren populistischen Anti-Elite-Diskurs.
Obwohl viele der analysierten Beiträge auf den ersten Blick nichts mit Politik zu tun hatten, enthielten sie häufig implizite oder explizite politische Botschaften, in denen bestimmte Parteien kritisiert oder andere unterstützt wurden. Einige Beiträge richteten sich beispielsweise gegen die regierende Sozialdemokratische Partei (PSD) mit Aussagen wie: „Die PSD macht wieder das, was sie am besten kann: Sie macht Versprechungen und verspottet dann das Volk” und „Die Diebe von der PSD haben Rumänien zerstört. Wählt nicht mehr die rote Mafia!” Diese Beispiele spiegeln eine starke Anti-PSD-Stimmung wider, die mit rechtsnationalistischen und pro-AUR-Positionen übereinstimmt.
Einige Beiträge boten direkte Unterstützung für die rechtsextreme Allianz für die Union der Rumänen (AUR) und ihren Vorsitzenden George Simion: „Die AUR ist die einzige Stimme, die die Wahrheit sagt! Die anderen Parteien stecken alle in einer Tasche!“ und „George Simion fürchtet niemanden! Die AUR kämpft für die Rumänen!“
Kritik richtete sich auch gegen den damaligen Präsidenten Klaus Iohannis, dessen Zugehörigkeit zur Nationalliberalen Partei (PNL) ihn zu einem häufigen Ziel populistischer Rhetorik gegen das Establishment machte, die über strenge Links-Rechts-Gegensätze hinausging.
In Kombination mit emotionalen, aber unpolitischen Inhalten – wie persönlichen Tragödien, Ängsten um die öffentliche Gesundheit oder nationalistischer Nostalgie – schuf dieses politisch aufgeladene Umfeld ein Medienökosystem, das der Verbreitung populistischer und extremistischer Narrative, insbesondere aus dem rechtsextremen Lager, besonders förderlich war.
Koordiniertes unechtes Verhalten
Koordiniertes unechtes Verhalten (CIB) und Astroturfing wurden in der Entscheidung des Verfassungsgerichts als Hauptgründe für die Annullierung der Wahlen im November 2024 genannt und tauchen 2025 erneut auf. Rumänien hat 9 Millionen TikTok- und 13,03 Millionen Facebook-Nutzer.
Im April 2025 deaktivierte TikTok zwei geheime Netzwerke, die darauf abzielten, die politischen Narrative bei den rumänischen Wahlen 2025 zu beeinflussen. Eines bestand aus 27 unechten Konten mit über 9.000 Followern, die unter Pseudonymen und mit generischen Avataren als Nachrichtenagenturen auftraten, um bestimmte Narrative zu verstärken und die Wahlkampfführung zu beeinflussen (Ardelean, 2025). Das zweite Netzwerk bestand aus 4.453 gefälschten Konten, die in erster Linie für die Partei „Allianz für die Union der Rumänen” (AUR) und in geringerem Maße für den unabhängigen Kandidaten Călin Georgescu warben. Dieses Netzwerk operierte von der Türkei aus und verwendete fiktive Personen, um Kommentare zu den rumänischen Wahlen zu veröffentlichen, anstatt eigene Videos zu erstellen. Jedes Konto hatte durchschnittlich etwa drei Follower. Die Untersuchung von TikTok ergab, dass ein dritter Anbieter für gefälschte Interaktionen dafür bezahlt wurde, diese Kommentare zu veröffentlichen, wobei die Identität und der Standort der Personen, die diese Aktivitäten leiteten, unbekannt bleiben. (Ardelean, 2025).
Nach den Wahlen wurden sowohl von den rumänischen Behörden als auch auf europäischer Ebene Untersuchungen eingeleitet. TikTok identifizierte rund 27.000 Accounts, die von der Türkei aus betrieben wurden (TikTok, 7. Januar 2025) und jeweils zwei oder drei Clips enthielten, die die Union der Rumänen (AUR) und Călin Georgescu unterstützten (Stand: 17. Dezember).
„Erinnern Sie sich an die Bots, die Zehntausende von Kommentaren pro Sekunde generierten und deren Aufgabe es war, Beiträge zu pushen?“, fragte Cristian Terheș, selbst Präsidentschaftskandidat und Mitglied des Europäischen Parlaments, der auf der Liste der AUR (ehemals PSD, derzeit Ex-AUR) gewählt wurde, rhetorisch. Er warf den rumänischen Behörden öffentlich vor, nicht erkannt zu haben, dass die manipulativen Techniken nicht nur gegen Călin Georgescu, sondern auch gegen die AUR gerichtet waren, ohne dass rechtliche Maßnahmen ergriffen wurden (Terheș, 2025).
Die Verwendung von Emojis bei der algorithmischen Manipulation
Ein besonders überzeugender Fall von algorithmischer Manipulation kam nur zwei Tage vor den Präsidentschaftswahlen in Rumänien am 4. Mai 2025 ans Licht, als Ergebnis einer gemeinsamen Untersuchung von investigativen Journalisten von Context und ihrem Team von Computerspezialisten.

Screenshot von Context, 30. April 2025
Timofte & Biro (2025) liefern empirische Belege dafür, dass die Manipulation der Algorithmen zur Inhaltsbewertung von TikTok während des rumänischen Präsidentschaftswahlkampfs 2025 über bekannte Techniken wie Massenpostings, Kommentarfluten und Hashtag-Nutzung hinausging. Die Studie stellte insbesondere fest, dass Emojis systematisch eingesetzt wurden, um die Interaktionskennzahlen zu manipulieren und die Sichtbarkeit bestimmter Kandidaten zu erhöhen. Mithilfe einer speziellen Software analysierten die Forscher über 519 TikTok-Konten, mehr als 70.000 Beiträge, über 4 Millionen Kommentare und Tausende von Videos. Die Muster deuteten auf koordinierte, möglicherweise automatisierte Aktivitäten hin.
Ein wichtiger Fall betraf George Simion (AUR), dessen Inhalte eine intensive Verwendung von Emojis aufwiesen (z. B. „Simion Președinte “). Ähnliche Taktiken wurden bei mehreren Kandidaten beobachtet, darunter Crin Antonescu (), Marcel Ciolacu (), Victor Ponta (✌️) und Elena Lasconi () (Timofte & Biro, ebenda).
Die Untersuchung ergab auch eine Übertragung von Einfluss von Călin Georgescu auf Simion, der seine Followerzahl in nur 30 Tagen auf 1,3 Millionen verdoppelte. Alte Pro-Georgescu-Konten blieben aktiv und verstärkten Simions Kandidatur durch koordinierte Kommentare und Inhalte.
Dies zeigt, wie rechtsextreme Bewegungen digitale Einflussnetzwerke umfunktionieren und Plattformalgorithmen ausnutzen, um formale Disqualifikationen zu umgehen und ihre Sichtbarkeit aufrechtzuerhalten. Bis Mai 2025, als die Wahlen neu angesetzt wurden, hatten sich die Manipulationsbemühungen intensiviert. Rund 15 % der 400.000 jüngsten Kommentare von Simion bezogen sich immer noch auf Georgescu (Timofte & Biro, ebenda).
Die Studie zeigt auch eine parteiübergreifende Dynamik: Einige rechtsextreme Kandidaten sollen Berater beschäftigt haben, die Verbindungen zu Akteuren der Mitte oder der Liberalen hatten (Neag et al., 2024), wodurch ideologische Grenzen zugunsten taktischer digitaler Vorteile verwischt wurden. Insgesamt zeigt dieser Fall, wie subtile Elemente wie Emojis die algorithmische Sichtbarkeit erheblich beeinflussen können. Er fordert mehr Transparenz der Plattformen und eine forensische Überwachung, um die Verzerrung des öffentlichen Diskurses durch manipulativen digitalen Einfluss zu verhindern.
Die Online-Parameter von CIB und die Verbindung zu FIDI
Mehrere Berichte haben das Phänomen CIB mit verschiedenen Methoden beleuchtet. Eine Reihe von Beweisen tauchte auf – einige sogar schon vor der Annullierung der Wahlen –, darunter Berichte des Expert Forum und investigativer Medien, andere erschienen nach der Aufhebung der Wahlen.
Der Bericht des französischen Geheimdienstes „Service de surveillance et de protection contre les ingérences numériques étrangères“ (Dienst für Überwachung und Schutz vor ausländischer digitaler Einflussnahme) hat bei der Analyse, wie Călin Georgescu in den sozialen Netzwerken so sichtbar wurde, „eine ausgeklügelte Kampagne zur Manipulation des TikTok-Algorithmus“ aufgedeckt und „das Schema der Online-Plattform“ beschrieben. (SGDSN, Februar 2025).
„Die raffinierte Astroturfing-Kampagne umfasste die gezielte Manipulation des Empfehlungsalgorithmus durch die massenhafte Verbreitung von Videos und Kommentaren mit gezielten Hashtags und Schlüsselwörtern (SGDSN, ebenda).

Quelle: Screenshot – SGDSN – VIGINUM-Bericht, Februar 2025, S. 4
Russische Auslandsgeheimdienste reagierten pro-Georgescu
Călin Georgescu war der einzige rumänische Kandidat im postkommunistischen Rumänien, in dessen Fall der russische Auslandsgeheimdienst SVR öffentlich Stellung bezog und die Europäische Kommission beschuldigte, hinter der „Entscheidung der rumänischen Staatsanwaltschaft, Georgescu anzuklagen“ zu stehen (Izvestia, 2025). Der EU-Dienst zur Bekämpfung von Desinformation stellte fest, dass es keine Beweise für diese Behauptungen gibt, und wies auf Verschwörungstheorien hin (EuVsDisinfo, 2025).
Nach der Annullierung der rumänischen Wahlen klagten die Behörden Călin Georgescu wegen sechs Straftaten an, darunter versuchter Anstiftung zu Handlungen gegen die verfassungsmäßige Ordnung – ihm wird vorgeworfen, einen Plan zur Destabilisierung Rumäniens geschmiedet zu haben. Aufgrund dieser Vorwürfe wurde ihm vorübergehend die Ausreise aus dem Land untersagt und er wurde von der Präsidentschaftskandidatur ausgeschlossen.
„Die Äußerungen von Călin Georgescu, wie sie in den sozialen Medien und auf Videoplattformen zu finden sind, wurden von Medien und zivilgesellschaftlichen Aktivisten analysiert, um pro-russische, anti-NATO- und anti-EU-Themen zu identifizieren, die mit zahlreichen Verweisen auf Gott, Pseudowissenschaften und einem souveränistischen Ansatz in Bezug auf Landwirtschaft und Wirtschaft vermischt waren.“ (Radu, 2024)
Die Mechanismen, die Călin Georgescu im Online-Umfeld relevant machten, waren nicht völlig unbekannt; die Denkfabrik Expert Forum hatte vor den Wahlen am 24. November 2024 vor Manipulationstechniken gewarnt, insbesondere vor der Kampagne unter dem Hashtag #balanceandverticality auf TikTok. Von den Behörden gab es jedoch keine substanzielle Reaktion. (Voinea, M.E., Ioniță, S., 18.11.2024)
Călin Georgescu erhielt unter dem Hashtag #balanceandverticality in zwei Monaten 2,4 Millionen Aufrufe, obwohl er über keinerlei Mittel für seinen Wahlkampf verfügte. Neben dem harmlos wirkenden Hashtag #balanceandverticality wurden weitere Mechanismen eingesetzt, darunter Netzwerke gefälschter Konten (von denen 27.000 von TikTok als aus der Türkei operierend identifiziert wurden) und Mikrozahlungen an politisch nicht gebundene Blogger, die von der Agentur Fade Up vermittelt wurden. Diese Agentur wurde in freigegebenen Dokumenten des rumänischen Geheimdienstes erwähnt und später von Le Monde untersucht. (2024)
„Nach dem Vorbild der moldauischen Stoianoglo-Kampagne gibt es rumänische Influencer ohne politische Zugehörigkeit – d. h. solche, die sich ausschließlich auf Mode, Make-up und Unterhaltung konzentrieren –, die dazu beigetragen haben, die politische Kampagne der liberalen Partei zu beeinflussen. Der Name Georgescu wurde nicht ausdrücklich erwähnt. (Expertenforum, 2024). Von September 2024 bis zum Jahresende hat der Hashtag #calingeorgescu 120 Millionen Follower gewonnen.
Die TikTok-Kampagne ähnelte „Brother Near Brother“, der Kampagne, die Russland in der Ukraine durchgeführt hat und die auf der Manipulation von Mikro-Influencern basierte (der freigegebene Bericht des Ministeriums für Inneres, 2024), sowie der Kampagne für Stoianoglo (Cristea, 2024, Expert Forum, 2024).
Neben seiner ersten Warnung untersuchte das Expert Forum die Ursachen und gab Empfehlungen für künftige Maßnahmen, darunter:
- -Daten, die aufgrund der Aufbewahrungsanordnung der Europäischen Kommission an TikTok gespeichert wurden, müssen für Forscher öffentlich zugänglich gemacht werden.
- -Sich ausschließlich auf undurchsichtige interne Untersuchungen von TikTok zu verlassen, ist nicht nur dysfunktional, sondern untergräbt auch die Grundsätze der Transparenz und Rechenschaftspflicht, insbesondere in kritischen Phasen wie Wahlen.
- -Darüber hinaus müssen explorative Untersuchungen durchgeführt werden, um das Empfehlungssystem von TikTok zu untersuchen, einschließlich Praktiken wie dem „Heating System“, bei dem Mitarbeiter die Viralität von Inhalten manuell verstärken. (Expert Forum, 2025)
Mehr zu den Wahlen in Rumänien:
- EJO: Rumänien: Wie eine Desinformationskampagne freie Wahlen verhinderte
- Euractiv.ro: Wahlkalender | Politischer Kontext. Beweise für die Annullierung | Warum Moldawien anders gewählt hat
Schlagwörter:Desinformation, Informationsmanipulation, KI, PROMPT, Rumänien, Wahlen