Im April 2021 erschütterten groß angelegte Proteste Kolumbien., Grund dafür: eine tiefe soziale Unzufriedenheit. Die Demonstrant:innen protestierten gegen die systemischen Problemeim Land: wirtschaftliche Ungleichheit, Polizeigewalt, chronische Arbeitslosigkeit und ineffiziente staatliche Institutionen. Trotz der überwiegend friedlichen Proteste war die Reaktion der Strafverfolgungsbehörden hart. Berichte über den Einsatz von Schusswaffen gegen Zivilisten lösten international Empörung und Entsetzen aus. Menschenrechtsorganisationen, darunter Amnesty International, dokumentierten aktiv Menschenrechtsverletzungen und versuchten, die weltweite Aufmerksamkeit auf die Situation in Kolumbien zu lenken. Als die Organisation 2023 an den zweiten Jahrestag der Proteste erinnerte, traf sie eine kontroverse Entscheidung. Anstatt Archivmaterial oder vorhandene Fotos zu verwenden, veröffentlichte Amnesty vier von Künstlicher Intelligenz (KI) generierte Bilder, um die Gewalt der Polizei darzustellen und gleichzeitig die Anonymität der Demonstranten zu schützen.

Bildquelle: Pexel
Diese Entscheidung löste eine Welle der Kritik in den Medien und der Menschenrechtsgemeinschaft aus. Gegner argumentierten, dass künstlich erzeugte Bilder die Glaubwürdigkeit der Menschenrechtsarbeit untergraben, vor allem, wenn echte Fotos zur Verfügung stehen. Es wurde die Sorge geäußert, dass dieser Ansatz einen Präzedenzfall für kleinere Organisationen schaffen könnte, die sich einer verstärkten öffentlichen Skepsis oder sogar gezielten Verleumdungskampagnen ausgesetzt sehen könnten. Zur Verteidigung ihrer Entscheidung erklärte Amnesty International: “Unser Hauptziel war es, die groteske Polizeigewalt gegen Menschen in Kolumbien aufzuzeigen. Es ist wichtig, darauf hinzuweisen, dass das Ziel darin bestand, Menschen zu schützen, die möglicherweise verfolgt worden sind. Wir hätten jedoch auch Zeichnungen oder andere Mittel wählen können.”
Diese Debatte bezieht sich auf ein Konzept, das als „liar´s dividend“, also auf Deutsch „Dividende des Lügners“, bekannt ist: Fortschritte in der Technologie, wie künstliche Intelligenz oder Deepfake, ermöglichen es den Menschen, die Wahrheit realer Fakten oder Beweise zu leugnen, indem sie behaupten, dass diese gefälscht oder fabriziert worden sind. Der Begriff wurde von Daniel Chesney und Daniel Citron im Jahr 2019 geprägt. Angreifer können Zweifel an der Echtheit von Informationen ausnutzen, die durch das Auftauchen von künstlich erstellten Inhalten entstehen. Dies kann Tätern ermöglichen, sich der Verantwortung für ihre Handlungen zu entziehen, selbst wenn es stichhaltige Beweise gegen sie gibt. Wenn beispielsweise eine Person der Korruption oder Gewalt schuldig gesprochen wird, die Beweise gegen sie aber auf Fotos oder Videos beruhen, kann sie behaupten, dass diese Materialien gefälscht sind und mit Hilfe von KI oder Deepfake erstellt wurden. Dies schafft Raum für Manipulationen und erschwert die Wahrheitsfindung.
Daher argumentierten die Kritiker von Amnesty, dass die Verwendung von generiertem Materialdie Dokumentation echter Beweise beeinträchtigen könnte. Darüber hinaus verwische der fotorealistische Stil der künstlich erzeugten Bilder die Grenze zwischen Wahrheit und Darstellung und stelle die ethischen Grenzen des visuellen Engagements in Frage.
Der Ansatz von Amnesty steht in krassem Gegensatz zu einem anderen bekannten Fall von künstlicher Intelligenz in den Medien: dem Dokumentarfilm Welcome to Chechnya (2020). Der Film begleitet die Arbeit von Aktivisten, die LGBTQ+-Personen vor der Verfolgung in Tschetschenien retten. Dafürnutzten die Macher eine diplomatische Gesichtserkennungstechnologie, um die Identitäten der gefährdeten Personen zu schützen. Im Gegensatz zu den Bildern von Amnesty bietet der Film dem Zuschauer eine emotionale Verbindung zu den Figuren und gewährleistet gleichzeitig ihre Sicherheit. Die Autoren des Films haben sich offen über den Einsatz von KI geäußert und sich mehrere Jahre mit der ethischen Umsetzung dieses Prozesses beschäftigt.
Eines der von Amnesty International veröffentlichten KI-generierten Bilder
Im Gegensatz dazu erinnern die von Amnesty erstellten Bilder eher an die Tradition politischer Plakate. Solche Plakate verwenden oft ikonische, anonyme Figuren, um eine emotionale Reaktion hervorzurufen und Unterstützung für eine Sache zu mobilisieren. Sie stützen sich auf visuelle Metaphern und verweisen auf anonyme Helden, die für einen breiteren Kampf stehen. Das umstrittenste Bild der Kampagne, verwischte die Genregrenzen und schürte die Skepsis. Das Bild ist fotorealistisch, erinnert an Reportagefotografie. Der Realismus des Bildes birgt die Gefahr, dass die Zuschauer glauben, es handele sich um eine Darstellung realer Ereignisse.Dies untergräbt schnell die Glaubwürdigkeit der Kampagne.
Fotojournalismus an der Schnittstelle von Ethik und Technologie
Im April 2023 kam es bei den renommierten Sony World Photography Awards zu einem noch nie dagewesenen Vorfall: Der Berliner Fotograf Boris Eldagsen, Gewinner der Kategorie Kreativ, lehnte den Preis ab. Der Grund dafür war eine unerwartete Wahrheit: Der Siegerbeitrag war kein Foto. Er war das Ergebnis einer künstlichen Intelligenz. Eldagsen nutzte den Wettbewerb so als Plattform für eine Diskussion über die Rolle der KI in der Fotografie.
Dieser Fall ist kein Einzelfall. Bereits 2021 veröffentlichte Jonas Bendixen, Fotograf bei Magnum Photos, The Book of Veles, das auf den ersten Blick wie ein Dokumentarfilm aussah. Tatsächlich handelte es sich aber um eine komplexe Kombination aus KI-generierten Texten, realen Landschaften und computergenerierten Bildern von Menschen und Tieren.. Das Projekt wurde zunächst als reiner Dokumentarfilm wahrgenommen, löste dann aber Diskussionen aus.
Die Ereignisse stehen im Zeichen einer wachsenden Debatte über den Einsatz von KI im Journalismus, in der Berichterstattung und in der Kunst. Sie sind verwoben mit Diskussionen über gefälschte Videos, Fotomanipulation und die Gefahr der „Post-Wahrheit“. In ihrer neuen Studie betont Liv Gausken vom Fachbereich Medien und Kommunikation der Universität Oslo, dass es sich lohnt, drei konzeptionelle Ansätze zu berücksichtigen, um ein tieferes Verständnis des Problems zu erlangen.
Zunächst einmal erörtert sie den Unterschied zwischen Fotorealismus und Fotografie. Wenn der Fotorealismus darauf abzielt, den Eindruck von Realität zu erwecken, bedeutet dies nicht immer, dass das Bild das Ergebnis einer echten Fotografie ist. Moderne Technologien wie KI ermöglichen es, Bilder zu erzeugen, die zwar real aussehen, aber keinen Bezug zu tatsächlichen Ereignissen haben.
Der zweite wichtige Aspekt ist die Rolle der Fotografie als Erkennungsinstrument, mit dem reale Momente eingefangen werden.Die von künstlicher Intelligenz erzeugten Bilder sind stärker auf künstlerische Interpretation ausgerichtet, wodurch sie oft ihren Anspruch auf Wahrhaftigkeit verlieren. Sie können zwar emotional oder konzeptionell aussagekräftig sein, aber sie können reale Zeugenaussagen nicht ersetzen.
Schließlich unterstreicht Gausken die Bedeutung eines genrebasierten Ansatzes bei der Bildbewertung. Abhängig davon, ob künstliche Intelligenz eingesetzt wird, um provokante Kunst zu schaffen oder reale Ereignisse zu dokumentieren, ändert sich der Kontext. Dies erfordert andere Bewertungskriterien, insbesondere bei Nachrichten.
Künstliche Bilder des Leidens
Ein weiteres Beispiel für künstlich erzeugte Inhalte, die für Kontroversen gesorgt habensind die Bilder von im Schlamm schlafenden Kindern in Gaza. Auch diese wurden angeblich von künstlicher Intelligenz erstellt. Lokale Journalisten dokumentierten die tragischen Zustände für Kinder in Gaza in einer Reihe seriöser Quellen. Das Aufkommen von KI-erzeugten Bildern stellt jedoch neue Herausforderungen an den Prozess der visuellen Kommunikation und der Wahrnehmung der Realität.
Bilder menschlichen Leids sind im Kontext humanitärer Krisen und Konflikte zu einem wirkungsvollen Kommunikationsmittel geworden. Sie gehen weit über eine bloße Dokumentation hinaus und entwickeln sich zu einem komplexen sozialen Instrument der Einflussnahme: Sie erregen öffentliche Aufmerksamkeit, prägen die öffentliche Meinung und lassen die Menschen mitfühlen.Auch wenn künstlich erzeugte Bilder als wirksames Instrument zur Veranschaulichung humanitärer Krisen erscheinen mögen, bergen sie doch erhebliche Risiken. Erstens kann die übermäßige Verwendung solcher Bilder die Grenzen zwischen dokumentarischer Wahrheit und künstlich modellierter Realität verwischen. Zweitens besteht die ernste Gefahr, dass authentische fotografische Beweise abgewertet werden.
Eines der KI-generierten Bilder von Kindern in Gaza, das von DW Fact Check analysiert wurde
Moderne Technologien und Medienpraktiken werfen die grundsätzliche Frage nach dem Wesen solcher Bilder auf: Werden sie zu einem manipulativen Werkzeug statt zu einem objektiven Beweis?
KI-generierte Bilder können die Grenze zwischen dem Realen und dem Erfundenen verwischen. Die Schlüsselfrage ist, wie die Technologie der künstlichen Intelligenz unsere kollektive Wahrnehmung und unser Verständnis von realen Ereignissen beeinflussen kann. Wenn der Strom der künstlich erzeugten Bilder allmählich echte Fotos ersetzt, laufen wir Gefahr, eine entscheidende direkte Verbindung zur Authentizität der Dokumentation menschlichen Leids zu verlieren.
Die auf dieser Website geäußerten Ansichten sind die der Autoren und spiegeln nicht notwendigerweise die Ansichten, Strategien und Positionen von EJO wider.
Bildquelle: 1 – Pexels, 2 – Amnesty International, 3 – DW Fact Check.
Dieser Artikel wurde zuerst auf der ukrainischen EJO-Seite veröffentlicht. Übersetzt von Judith Odenthal mithilfe von DeepL.
Schlagwörter:Factchecking, Fotorealismus, KI, Kriegsfotografie, Krisen