(redigiert von Manuela Preoteasa)
In weniger als vier Wochen haben bereits über 50 000 Menschen einen offenen Brief unterzeichnet, in dem sie eine sechsmonatige “Pause [bei den] gigantischen KI-Experimenten” fordern. Unterschrieben haben Universitätsprofessor:innen, Vorstandsvorsitzende und Mitbegründer:innen großer IT-Unternehmen, Ethiker:innen, Wissenschaftler:innen, Musiker:innen, Künstler:innen und Mitglieder der breiten Öffentlichkeit – alle besorgt über die möglichen Gefahren, die mit der Weiterentwicklung der künstlichen Intelligenz (KI) einhergehen könnten. Das Dokument wirft vier grundlegende Fragen auf: Die erste stellt die massiven Bedrohungen durch Fehlinformation und Desinformation durch KI in den Mittelpunkt. Die zweite hinterfragt die Absurdität der Automatisierung von im Wesentlichen von Menschen ausgeführten Aufgaben wie dem Schreiben von Texten, der Erstellung von Bildern oder der Kunst. Die dritte macht auf das enorme Risiko aufmerksam, den menschlichen Verstand durch KI-Systeme zu ersetzen, während die vierte die Gefahr eines dramatischen Kontrollverlusts der Menschheit hervorhebt:
„Wir müssen uns fragen: Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollen wir alle Arbeitsplätze automatisieren, auch die, die uns erfüllen? Sollen wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig übertreffen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren? Solche Entscheidungen dürfen nicht an nicht gewählte Technikführer:innen delegiert werden. Leistungsstarke KI-Systeme sollten erst dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken beherrschbar sein werden.“
Die sechsmonatige Verzögerung der KI-Entwicklung, so wird in dem Schreiben erklärt, soll ein Mindestmaß an Zeit für die Erstellung und Umsetzung einer Reihe von Sicherheitsprotokollen bieten. Das Ziel: „Systeme, die genauer, sicherer, interpretierbarer, transparenter, robuster, abgestimmter, vertrauenswürdiger und loyaler sind.“
Es ist höchst unwahrscheinlich, dass in einem halben Jahr gemeinsame Sicherheitsprotokolle für Systeme, die auf künstlicher Intelligenz basieren, erstellt werden können. Betrachten wir zum Beispiel die Entwicklung der sozialen Plattformen. In den letzten 25 Jahren haben wir große Skandale erlebt, bei denen es um die Beeinflussung demokratischer Prozesse ging (z. B. Cambridge Analytica) oder um die Gefährdung der öffentlichen Sicherheit (z. B. die Anti-Vax-Bewegung) und sogar um schreckliche Tragödien (z. B. Live-Übertragungen von Massakern). Trotz konsequenter Regulierungsinitiativen und gerichtlicher Maßnahmen, trotz Selbstregulierungsbewegungen und -maßnahmen der Industrie gibt es immer noch soziale Plattformen, die sogenannte „freie Meinungsäußerung“ unterstützen und von extremistischen Terroristen genutzt werden. [1].
Im Falle der KI könnte es jedoch sein, dass die Zukunft der Regulierung und Selbstregulierung bereits begonnen hat. Die Content Authenticity Initiative, eine 2019 um Adobe herum gegründete Koalition mit inzwischen mehr als 1 000 Mitgliedern, kündigte am 3. April eine verbesserte technische Unterstützung für Nutzer:innnen und Content Creators an. Diese Unterstützung, die auf Open-Source-Tools basiert, umfasst verbesserte Metadaten zu „KI-generierten Bestandteilen“ sowie „do not train“-Befehle für Kreative, die KI von ihren audiovisuellen Produkten fernhalten wollen. Transparente Metadaten sind schon seit einiger Zeit ein Standard in der Branche, und dies ist lediglich eine Aktualisierung. Der Befehl „do not train“ ist hingegen eine technische Innovation zum Schutz des Urheberrechts. Das Gesetz räumt den Urheberrechtsinhaber:innen das ausschließliche Recht ein, für eine begrenzte Anzahl von Jahren Kopien, Ableitungen, Verbreitung, Aufführung und Vorführung zu kontrollieren. Sie haben auch das Recht, die öffentliche Nutzung ihrer Werke zu erlauben. Die KI lernt von Online-Inhalten und nutzt diese, um neue Inhalte zu erstellen, wobei sie das Urheberrecht missachtet. Der Befehl „do not train“ ist eine technische Schranke, die die Industrie anerkennen und akzeptieren müsste, um das Urheberrecht tatsächlich durchzusetzen – und das bleibt abzuwarten.
Was die Regulierung betrifft, so gibt es erste Gesetzesinitiativen als Reaktion auf virale Deepfakes, die z.B. die Verhaftung Donald Trump darstellen (obwohl er nicht verhaftet wurde) oder den Papst in einer weißen Winterjacke (die er nicht trug). Darüber hinaus verklagen sowohl im Vereinigten Königreich als auch in den USA die Inhaber:innen von Urheberrechten an Bildern KI-basierte Unternehmen wegen Urheberrechtsansprüchen und schaffen so Präzedenzfälle, die die Rechtslage unter diesen neuen, von KI geschaffenen Umständen klären.
Die Regeln, Normen und Sicherheitsprotokolle ändern sich bereits, während Sie diesen Text lesen.
Zwei Regeln des Debunking, die durch KI-Halluzinationen außer Kraft gesetzt werden
Beim Debunking, „einer Art der Faktenüberprüfung, die auf falsche und irreführende Behauptungen und weit verbreitete Meinungen abzielt, die für eine Gemeinschaft relevant sind“, haben sich in der Vergangenheit durch Versuch und Irrtum mehrere Verfahren herausgebildet. Diese erklären wir auch im NewsReel 2-Kurs „Entlarven von Desinformation“ (hier).
Im Allgemeinen ist das Ziel einer irreführenden Behauptung keine angemessene Quelle für ein Debunking. Ein Journalist, der erklärt, warum Behauptungen über Personen des öffentlichen Lebens irreführend und wahrscheinlich böswillig sind, ist eine glaubwürdigere Quelle als die Personen des öffentlichen Lebens selbst oder ihre eigenen Kommunikationsteams. Wie Marie Richter, geschäftsführende Redakteurin von NewsGuard Deutschland, uns erklärte, ist es für Bill Gates fast nutzlos, sich zu verteidigen und zu behaupten, er habe keine bösen Absichten in Bezug auf Impfungen und COVID. Anders verhält es sich, wenn die Journalist:innen regelgerecht über die Geschichte berichten.
Ein weiteres, gut durchdachtes Verfahren bezieht sich darauf, welche Geschichten zur Überprüfung und zum Debunking ausgewählt werden sollen, sowie auf die eigentlichen Teile eines Debunking-Beitrags. Journalisten müssen sorgfältig abwägen, ob eine Fehlinformation das Potenzial hat, sich auf gefährliche Weise zu verbreiten und entlarvt werden sollte oder nicht. Ohne die Hilfe eines ansonsten wohlmeinenden Debunkers werden einige Fehl- oder Desinformationen für immer das bleiben, was sie ursprünglich waren – seltsame Artefakte in einem dunklen Teil des Internets.
Dennoch verändern die Halluzinationen der künstlichen Intelligenz, die unwahre Ergebnisse produzieren und Quellen erfinden, die Debunking-Verfahren zu Recht. Brian Hood, ein kürzlich gewählter australischer Bürgermeister, entdeckte, dass ChatGPT ihn den Bürger:innen als jemanden vorstellte, der wegen Bestechung im Gefängnis saß. Seine Anwälte erklärten, Hood sei zwar in den Bestechungsskandal verwickelt gewesen, aber als Informant, nicht als Schuldiger, und er sei nie inhaftiert worden. Der australische Bürgermeister könnte die erste Person sein, die eine Verleumdungsklage gegen ein KI-Unternehmen erhebt, wie Reuters berichtet. Dies ist nicht der einzige Fall, und auch andere wehren sich. Ein amerikanischer Juraprofessor wurde von ChatGPT zu Unrecht beschuldigt, eine Studentin sexuell belästigt zu haben, und ging an die Öffentlichkeit. Der britische Guardian berichtete über künstliche Intelligenz, die angebliche Artikel des Guardian fabriziert, um falsche Behauptungen zu untermauern. Dieses Problem ist nicht auf englische Texte beschränkt. Rumänische Enthüllungsjournalist:innen befragten die KI zu einem ihrer Themen, woraufhin ChatGPT erfundene Daten und Quellen lieferte – aber keine Zusammenfassung ihrer eigenen Untersuchung.
Die KI-Halluzinationen sind in der Tat seltsame Artefakte in einem dunklen Teil des Internets. Einige haben das Potenzial, sich zu verbreiten – wie im Fall der Bilder von Trumps Verhaftung, einem Deepfake, das in den sozialen Medien weit verbreitet wurde. Andere werden in Sekundenschnelle erstellt und vernichtet.
Aber Journalist:innen und Persönlichkeiten des öffentlichen Lebens haben zu Recht ihre eigenen Fälle entlarvt und die Nachricht über die von der KI erzeugten Fehlinformationen verbreitet. Microsoft und Google schlagen KI als Alternative zu Suchmaschinen vor. KI, die Texte und Bilder generiert, kann in einer Vielzahl von Bereichen eingesetzt werden, von der Unterhaltung bis zu Nachrichten, von der Bildung bis zur Medizin. Wir sind auf der Suche nach verlässlichen Ergebnissen, die von KI generiert werden. Die Debunkingsversuche, die von interessierten Parteien durchgeführt werden, um über KI-Halluzinationen aufzuklären, könnten genau der richtige Druck sein, den die Industrie braucht, um sich schnellstens und umfassend selbst zu regulieren.
[1] Siehe dazu die dritte Einheit „Tracking viral disinformation online” des Online-Kurses „Debunking Disinformation”: https://newsreel.pte.hu/debunking_disinformation. Es handelt sich um eines der Ergebnisse des NewsReel 2-Projekts (New Teaching Fields for the Next Generation of Journalists).
Schlagwörter:AI, Debunking, Deepfakes, Fake News, Falschinformationen, KI, Künstliche Intelligenz (KI)