Der AI-Act der Europäischen Union: Neue Pflichten und Rechte für den Journalismus

25. Juli 2024 • Aktuelle Beiträge, Digitales • von

Das Erstellen von Bildern nach Wunsch gelingt einer KI mal besser mal schlechter. Diese Bild wurde von Dall-E 3 mit der Anweisung „AI-Act der EU mit zwei Menschen und einem Gesetzestext“ generiert. Als KI-Bild ist es urheberrechtsfrei.

Die weltweit erste Regulierung zur Nutzung von KI-Anwendungen ist 2024 in der EU in Kraft getreten. Das wirkt sich möglicherweise positiv auf die Wahrung der Eigentumsrechte von Medienschaffenden aus.

Im Mai 2024 wurde der AI-Act der Europäischen Union durch den Europäischen Rat beschlossen. Die Umsetzung in nationales Recht liegt jetzt bei den Mitgliedsländern. Als weltweit erstes KI-Gesetz soll der Einsatz der jungen Technologie damit reguliert, Missbrauch verhindert und die Bürger:innen und ihre Rechte geschützt werden. Die EU ist damit eine Vorreiterin gegenüber etwa den USA oder China, was in Zukunft zu spürbaren Standortunterschieden bei Anwendung und Entwicklung von KI-Systemen führen wird. Neben den allgemeinen Neuerungen, die sich durch die Regelung für alle Anwender:innen und Anbieter:innen von KI-Anwendungen ergeben, zeigen sich zwei Besonderheiten für den Journalismus und Medienschaffende. Zum einen besteht zukünftig eine Kennzeichnungspflicht von computergenerierten Texten und Bildern und zum anderen soll das Urheberrecht, im Hinblick auf die Daten, die zum Training der KIs genutzt werden, besser geschützt werden.

Der risikobasierte Ansatz des AI-Act soll die Sicherheit von KI-Systemen garantieren

Mit dem AI-Act möchte das Europäische Parlament eine einheitliche Definition für KI festlegen, welche auch auf zukünftige KI-Entwicklungen anwendbar bleiben und verbindliche Grundlagen schaffen soll. Das Gesetz ordnet KI-Systeme – basierend auf ihrem Anwendungskontext – insgesamt vier Risikostufen zu. In Abhängigkeit zu diesen Risikostufen gelten für Anbieter:innen und Nutzer:innen unterschiedliche Regulierungen.

Zur ersten Risikostufe gehören KI-Systeme, die als Gefahr für die Sicherheit und Rechte von Menschen gesehen werden, daher sind diese KI-Systeme, die mit einem inakzeptablen Risiko verbunden sind, verboten. Darunter fällt beispielsweise die Manipulation des freien Willens und das ungezielte Sammeln von Gesichtsdaten.

KI-Systeme, die einen negativen Einfluss auf die Sicherheit oder Grundrechte von Menschen haben könnten, bilden die zweite Gruppe und werden mit einem hohen Risiko eingestuft. Diese KI-Technologien besitzen in den Bereichen Gesundheit, Sicherheit, Grundrechte, Umwelt und Demokratie sowie Rechtsstaatlichkeit hohes Schadenspotential und unterliegen daher klaren Verpflichtungen. Zu den Verpflichtungen zählen etwa diskriminierungsfreie Datensätze, transparente Funktionsweise und hohe Sicherheit und Genauigkeit. Im Alltag könnten darunter beispielsweise die Automatisierung von Einstellungsverfahren, Zugang zu Bildung oder juristische Verwaltungsarbeit fallen.

Die dritte Gruppe bilden KI-Anwendungen, bei denen von einem begrenzten Risiko ausgegangen wird, welches maßgeblich auf fehlende Transparenz für die Nutzer:innen zurückzuführen ist. Dabei handelt es sich um generative „Allzweck-KIs“, diese und ihre Erzeugnisse müssen zukünftig als KI oder als KI-generiert erkennbar sein muss. So muss etwa die Interaktion mit einem Chatbot als solche gekennzeichnet werden. Besonders interessant ist, dass in Zukunft Dokumentationen über die genutzten Trainingsdaten, etwa solche, die unter das Urheberrecht fallen, bei den Anbieter:innen einsehbar sein müssen.

Viertens folgt die Gruppe von KI-Systemen, welche kostenlos und mit minimalem Risiko genutzt werden können. Dazu zählen Anwendungen wie Videospiele oder Spamfilter. Die meisten derzeit genutzten KI-Systeme in der EU gehören zu dieser Risikostufe

„Das KI-Gesetz findet damit auf den redaktionellen Betrieb eher weniger unmittelbare Anwendung.“

Zu dieser Ansicht kam der Medienanwalt Christian Solmecke im Hinblick auf neue Pflichten und Verantwortungen, die der AI-Act für Journalist:innen mit sich bringt. Denn bei der Nutzung von KI aus der zweiten und vierten Gruppe unterliegen alle Anwender:innen – egal in welchem Kontext – denselben Auflagen.

Anders ist das bei der dritten KI-Gruppe, die die generativen „Allzweck-KI“ bilden. Denn diese betrifft Journalist:innen stärker als andere Berufskreise. Dabei handelt es sich um Text- oder Bildgeneratoren, deren Erzeugnisse zukünftig einer Kennzeichnungspflicht unterliegen. Dazu müssen KI-Bilder und Texte digitale Wasserzeichen enthalten, wodurch gewährleistet sein soll, dass sie dauerhaft als künstliche Erzeugnisse erkennbar sind. Im Bereich von Texten und Bildern kann der Output generativer Anwendungen dem sehr nahekommen, was ein Mensch produzieren kann oder was als Bildmaterial für Fake News genutzt werden kann. Schon deswegen erscheint eine Kennzeichnungspflicht – gerade für Bilder –als sinnvoll. Unklar ist jedoch, wie die Kennzeichnung von Texten technisch umgesetzt werden kann. Vor allem wenn es darum geht, dass einzelne Sätze oder Textteile dauerhaft als KI-Produkt erkennbar bleiben, beispielsweise wenn diese innerhalb eines größeren Textes verwendet werden. Ein simpler Vermerk im Text schein die plausibelste Lösung zu sein, allerdings ist es auch eine, die auf Vertrauen basiert und den Text nicht unbedingt dauerhaft kennzeichnet.

Was die Kennzeichnungspflicht nicht regelt, fällt bereits unter die journalistische Sorgfaltspflicht

Vor allem da es immer wieder dazu kommt, dass KI-Texte Unwahrheiten enthalten oder sinnentstellend übersetzt oder zusammengefasst werden, liegt die Verantwortung bei Journalist*innen, KI-Systeme nur mit der gebotenen Sorgfalt zu nutzen. Was der AI-Act nicht regelt aber was aus berufsethischen Gründen denkbar wäre, ist ein Hinweis, wenn eine KI zur Recherche genutzt wurde. Eine ähnliche, selbst auferlegte Ethikrichtlinie zur Nutzung von KI verfolgt beispielsweise der BR. In diesem Sinne kann der AI-Act also nichts Wesentliches beisteuern, was nicht schon durch journalistische Sorgfaltspflicht und Berufsethos gefordert ist. Beim Urheberrecht sieht das jedoch anders aus.

Potenziale des AI-Acts für den Schutz des Urheberrechtes

Im Bereich des Urheberrechts kann der AI-Act als ein positives Zeichen aufgefasst werden. In ihrem aktuellen Entwicklungsstand ist KI nicht in der Lage, originäre Inhalte zu schaffen. Stattdessen nutzt eine KI fremde und bereits bestehende Gedanken – sogenannte Trainingsdaten –, um diese neu zu kombinieren und so Antworten zu erzeugen. Hierauf geht auch der Gesetzestext zum AI-Act ein. Er betont, dass die Entwicklung und das Training einer KI Zugang zu großen Mengen Rohdaten benötigen, wobei die dafür genutzten Daten möglicherweise durch das Urheberrecht geschützt sind. Der AI-Act schreibt folgerichtig vor, dass jede Nutzung besagter Trainingsdaten zuvor die Zustimmung der Rechteinhaber:innen benötigt. Um die Transparenz der generativen KI in Bezug auf die genutzten Daten zu erhöhen, sind die Anbieter:innen dieser Anwendungen dazu verpflichtet, ausreichend detaillierte Zusammenfassungen der genutzten Trainingsdaten bereitzustellen, besonders im Hinblick auf mögliche Urheberrechte dieser Daten. Auch kostenlose open source KI ist nicht von dieser Dokumentationspflicht befreit, eine Liste der genutzten Lerndaten bereitzustellen.

Bei der Umsetzung des AI-Acts in nationale Gesetze stellt sich also erstens die Frage, ob journalistische Produkte durch KI-Entwickler in einer Weise genutzt wurden, die möglicherweise bestehende Eigentumsrechte verletzt hat, was durch die verpflichtende Offenlegung ersichtlich wird. Zweitens muss sich zeigen, ob dies rechtliche Konsequenzen zu Gunsten betroffener Rechteinhaber:innen nach sich zieht und wie die juristische Praxis zu solchen Eigentumsfragen ausfallen wird. Im Bereich des Urheberrechts kann der AI-Act also durchaus als ein positives Zeichen aufgefasst werden. Denn er soll die Rechte von Menschen schützt, deren geistige Arbeit die Basis schafft auf der KI-Anwendungen ihre Texte generieren.

Schlagwörter:, , , , ,

Kommentare sind geschlossen.

Send this to a friend