Künstliche Intelligenz ist im Begriff, die Medienlandschaft nachhaltig zu verändern. Das betrifft auch öffentlich-rechtliche Medien, die um das Vertrauen ihres Publikums kämpfen. Der ukrainische öffentlich-rechtliche Sender Suspilne.media hat 2024 mit eigenen Grundsätzen für den Einsatz von KI einen Vorstoß gewagt.
„Unser Hauptziel beim Einsatz von KI ist es, den Journalisten Zeit für ihre eigentliche Arbeit zu verschaffen: Berichte schreiben, Interviews führen, vor Ort sein“, erklärt Anastasia Korinovska, Redakteurin und Produktmanagerin bei Suspilne.media. Noch vor einigen Jahren schien das Thema künstliche Intelligenz in Redaktionen eher futuristisch. Aber im Herbst 2023, nach der explosionsartigen Popularität von ChatGPT, wurde Suspilne klar: Es braucht eine klare Position und Regeln. Ende Februar 2024 verabschiedete Suspilne eigene Grundsätze für den Einsatz künstlicher Intelligenz und veröffentlichte diese auf seiner Website.

Auch der öffentlich-rechtliche Rundfunk muss Wege finden, mit KI-Technologien umzugehen.
KI und internationale Erfahrungen
Suspilne arbeitet nicht in einem Vakuum. Weltweit formulieren immer mehr Redaktionen ihre eigenen Richtlinien zum Thema KI. Die BBC, der Guardian, die finnische Yle und die Europäische Rundfunkunion haben bereits ihre Ansätze veröffentlicht. In der Ukraine präsentierte das Ministerium für digitale Transformation im Januar 2024 Empfehlungen für den verantwortungsvollen Einsatz von KI in den Medien. Und im März desselben Jahres verabschiedete das Europäische Parlament das Gesetz über künstliche Intelligenz, das einige der gefährlichsten Anwendungen der Technologie verbietet, darunter die massenhafte Gesichtserkennung in öffentlichen Räumen.
Für die Medien sind die Gefahren künstlicher Intelligenz gleichermaßen spürbar wie ihre Möglichkeiten. In erster Linie geht es um die Vertiefung des Misstrauens gegenüber dem Journalismus, da KI mit beispielloser Geschwindigkeit Fälschungen generieren kann, insbesondere in Zeiten von Wahlen oder militärischen Eskalationen. Nicht weniger gefährlich sind Cyberangriffe und Datenlecks, die sowohl Redaktionen als auch das Publikum gefährden. Außerdem gibt es keine gesetzlichen Regelungen für die Verwendung von Medieninhalten zum Trainieren von Modellen. Die Auswirkungen neuer Technologien auf Bildung, Arbeitsmarkt und sogar Finanzsysteme sind unvorhersehbar. All dies wirkt sich unmittelbar auch auf die Zukunft des Journalismus aus.
Eine Studie der BBC hat gezeigt, wie unzuverlässig die Antworten künstlicher Intelligenz auf Nachrichtenanfragen sein können. Den Ergebnissen der Überprüfung zufolge enthielten mehr als die Hälfte (51 %) der Antworten von ChatGPT, Copilot, Perplexity und Google Gemini wesentliche Ungenauigkeiten, und fast ein Fünftel der Zitate aus BBC-Materialien war verfälscht: Es tauchten falsche Zahlen, Daten oder Aussagen auf. In 13 % der Fälle wurden Zitate aus Artikeln verändert oder erfunden. Die falschen Beispiele sprechen für sich: ChatGPT und Copilot ernannten Rishi Sunak und Nicola Sturgeon in Ämter, aus denen sie bereits ausgeschieden waren, und Perplexity schrieb der BBC Äußerungen über die „Zurückhaltung“ des Iran und die „Aggression“ Israels zu, die in den Materialien des Senders tatsächlich nicht enthalten waren.
Die Verantwortung für Nachrichteninhalte auf KI zu übertragen ist also gefährlich. Dennoch suchen Redaktionen nach eigenen Wegen, neue Technologien zu nutzen. So hat beispielsweise Suspilne mit der Erstellung eines Zeichentrickfilms mit Hilfe von KI experimentiert: Im Bereich der Unterhaltungsinhalte erlaubt sich das Unternehmen mehr Freiheiten als im Nachrichtenbereich.
Ein weiteres anschauliches Beispiel ist das Projekt „Suspilne Krym”, bei dem mit Hilfe von Midjourney Szenen der Deportation der Krimtataren auf der Grundlage von Archivdokumenten und Augenzeugenberichten nachgestellt wurden. „Wir haben diese Bilder bewusst als Zeichnungen gestaltet, um die Illusion eines echten Fotos zu vermeiden und dem Zuschauer zu vermitteln, dass es sich um eine Rekonstruktion handelt”, erklärt Anastasia. Die Materialien enthielten den Hinweis: „Das Video enthält mit Hilfe künstlicher Intelligenz generierte Aufnahmen und Bilder. Bilder mit dem Zeichen * wurden mit Midjourney generiert, basierend auf Anfragen, die aus bestätigten Fakten und Beschreibungen von Ereignissen durch Augenzeugen zusammengestellt wurden“. Trotzdem ist es auch bei solchen Projekten wichtig, Grenzen zu beachten. Nicht alle Themen können mit künstlicher Intelligenz illustriert werden: Ein Bild eines verstorbenen Kindes zu erstellen wäre beispielsweise unethisch. Darüber hinaus reproduziert KI oft gesellschaftliche Stereotype und Vorurteile, weshalb jedes generierte Bild unbedingt von einem Redakteur überprüft werden muss.
Grundsätze der Transparenz
„Wenn wir etwas mit Hilfe von KI erstellen, geben wir dies bekannt. Hinter jedem Inhalt steht immer noch ein Redakteur“, erklärt Korinowska. Die Grundsätze von Suspilne basieren auf mehreren Prinzipien: Transparenz und Verantwortung, Schutz der Nutzerdaten, Vorrang des Teams und des geistigen Eigentums, Einhaltung internationaler Standards. Mit anderen Worten: KI ist ein Werkzeug, aber kein Urheber. Die Redaktion hat sich bewusst gegen die Generierung von Videos entschieden, außer in Fällen, in denen es notwendig ist, ein von KI generiertes Video zu zeigen. „Unser Wert ist die Realität. An den Ort des Geschehens zu kommen, zu filmen und zu zeigen. Wir werden keinen Teil der Realität durch generierte Videos ersetzen“, betont Korinovska. Die Vertonung von Materialien mit Hilfe von KI-Tools wird verwendet, wenn dies den Sinn der Geschichte nicht verfälscht. Beispielsweise kann KI dringende Nachrichten für den Youtube-Kanal vertonen. Auch diese Nachrichten werden gekennzeichnet: „In diesem Video wurde eine synthetische Stimme verwendet“. Bilder zur Illustration von Nachrichten werden in der Redaktion nicht generiert. Auf Beschluss des Redakteurs kann es Ausnahmen geben, insbesondere um KI-generierte Bilder zu zeigen. Was Texte betrifft, so erstellt die KI nur einen Entwurf des Textes oder dessen Übersetzung, während der Redakteur an der endgültigen Fassung arbeitet und für das Endergebnis verantwortlich ist.
Allerdings hilft die KI bei den „unsichtbaren“ Teilen der Arbeit: Untertitelung, Transkription, Ausfüllen von Servicedaten im Admin-Bereich (Tags, SEO), interner Wiki-Bot, Verarbeitung großer Datenmengen, Aufdeckung von Desinformation. KI-Tools werden auch für Sonderprojekte eingesetzt, jedoch mit obligatorischer Kennzeichnung. KI kann die Effizienz des Teams steigern: Sie entlastet Journalisten von Routineaufgaben und gibt ihnen Zeit für Recherchen, direkte Kommunikation mit den Protagonisten und Analysen. Gleichzeitig sind die Risiken offensichtlich: „Wir haben gesehen, wie KI-Assistenten Zitate verdrehen oder den Medien etwas unterstellen, was sie nicht geschrieben haben. Das ist ein Reputationsrisiko für alle Redaktionen“, sagt Korinowska. Aus diesem Grund beteiligt sich Suspilne aktiv an internationalen Diskussionen: von der Zusammenarbeit mit der Europäischen Rundfunkunion bis zum Dialog mit großen Technologieunternehmen.
Derzeit evaluiert Suspilne, inwieweit KI mit Nachrichtenanfragen zurechtkommt – bisher nicht besonders gut. Außerdem analysiert die Redaktion den Einfluss von AI Overview bei Suchanfragen auf den Traffic und entwickelt eine interne „Toolbox“ – einen einheitlichen Bereich für die Redaktion, Audio-Nachrichten, SEO-Automatisierung, Überprüfung von Videos, Fotos und Texten, die von KI generiert wurden. Ein wichtiger Teil der Arbeit bleibt die Kommunikation mit Big-Tech-Unternehmen, um die Präsenz ukrainischer Medien in KI-Assistenten sicherzustellen.
Unter den nützlichen KI-Tools für Journalisten empfiehlt Anastasia mehrere bewährte Plattformen. Für die Transkription und Bearbeitung von Audioaufnahmen eignen sich Google Pinpoint, ElevenLabs (Verschlüsselung und Aufteilung nach Sprechern, Vertonung), TurboScribe, Descript (Audiobearbeitung) und die Erweiterung GLASP für YouTube sowie Captions.ai und die ukrainische Anwendung AI Captions for Video Verba zur Generierung von Untertiteln. Für die Analyse und Zusammenfassung von Informationen sind NotebookLM (Sameri und Audioaufzeichnungen) und ChatPDF für die Arbeit mit PDF-Dateien nützlich. Die Erstellung von Bildern kann mit MidJourney beschleunigt werden, und die Übersetzung mit KI-Unterstützung wird von DeepL bereitgestellt. Zur Überprüfung von Inhalten auf KI-Verwendung und Faktenprüfung gibt es GPTZero und Factiverse.ai.
All diese Tools stellte Anastasia während der Veranstaltung „Künstliche Intelligenz in der Medienarbeit: OSINT-Tools, Faktenprüfung, Politik und Schutz vor Online-Angriffen” vor, die am 14. August 2025 stattfand.
Dieser Text wurde erstmals am 28. August 2025 auf der ukrainischen Seite des EJO veröffentlicht. Übersetzt von Judith Odenthal mithilfe von DeepL.
Bildquelle: Pexels
Schlagwörter:KI, Öffentlich Rechtlicher Rundfunk, Redaktionsmanagement, Ukraine

