Künstliche Intelligenz (KI) verspricht nicht nur eine tiefgreifende Veränderung der der Art und Weise, wie wir Informationen produzieren, konsumieren und bewerten. Auch für die Medienindustrie bringen neue Technologien einschneidende Transformationen mit sich. Zwischen Verblüffung und der Erkundung neuer redaktioneller Grenzen: Ein Überblick über sieben Herausforderungen, die es zu bewältigen gilt, um Journalismus und Medien im Zeitalter der generativen KI neu zu erfinden.
Kaum haben Medien die Umwälzungen des Internetzeitalters und die Ausbreitung sozialer Plattformen verdaut, stehen sie vor einer neuen großen Herausforderung: der künstlichen Intelligenz. Diese bringt noch rasantere, radikalere und disruptivere Veränderungen mit sich als die berühmte digitale Revolution, die die Branche seit etwa 20 Jahren erschüttert.
In nur etwas weniger als einem Jahr haben immer neue Anwendungen der generativen künstlichen Intelligenz es geschafft, alle Bereiche der Gesellschaft, einschließlich der Medien, in Atem zu halten. Zunächst selbst ein Nachrichtenereignis, handelt es sich nun um eine Technologie, die die Nachrichtenfabrik vom Keller bis zum Dachboden, vom Sammeln von Informationen bis zu ihrer Verbreitung, grundlegend verändern kann.
Angesichts des beispiellosen Rückgangs des Medienertrauens der Öffentlichkeit, der Abkehr von Nachrichten, der Schwierigkeiten bei der Monetarisierung und der Prekarisierung des Berufs schwanken Journalisten zwischen der Intuition völlig neuer Möglichkeiten und der Angst, schlicht und ergreifend ersetzt zu werden.
Betrachtet man jedoch die Funktionsweise und die derzeitigen Fähigkeiten der KI genauer, bleibt die Entstehung einer Armee von Roboterjournalisten in der Welt der Science-Fiction. Viel realer und konkreter sind hingegen die Hinweise darauf, dass Künstliche Intelligenz eine gewaltige Chance für die Neuerfindung der Nachrichtenfabrik darstellt.
Um die KI auf die Seite der Medien zu bringen und ein neues Kapitel in der Geschichte des Journalismus aufzuschlagen, muss man nicht nur verstehen, wie sie funktioniert, sondern auch was auf dem Spiel steht und wo Gefahren lauern. Ein Überblick über die Herausforderungen, die Künstliche Intelligenz für die Medienlandschaft mit sich bringt.
1) Aus der Schockstarre herauskommen und die KI entmystifizieren.
Seit ChatGPT im November 2022 online ging, hat ein kontinuierlicher Strom neuer, von künstlicher Intelligenz angetriebener Funktionen den Medienraum überschwemmt und einen weltweiten Schock ausgelöst.
Die Medien versuchen, mit dieser Revolution Schritt zu halten, um über die rasanten und beispiellosen Leistungen von Sprachmodellen zu berichten. Das sind Computerprogramme, die in der Lage sind, in natürlicher Sprache zu interagieren und lebensechte Text- und audiovisuelle Inhalte zu erstellen. Besonders ChatGPT hat angesichts seiner spektakulären und beispiellosen Leistungen, die Perspektive eröffnet, dass der Beruf des Journalisten teilweise oder sogar ganz ersetzt werden könnte.
Die Argumentation lautet: Wenn KIs in der Lage sind, Informationen zu sammeln, zu sortieren und zu formatieren, den Stil für jeden Leser zu personalisieren,und das mit verblüffenden Ergebnissen, dann stellen sie eine direkte Bedrohung für die Branche dar.
Generative KIs sind darauf ausgelegt, die menschlichen Fähigkeiten in Bezug auf Sprache, Denkvermögen, Kreativität, Planung und Entscheidungsfindung nicht nur zu kopieren, sondern zu übertreffen -und das alles mit dem Versprechen exponentieller Effizienz und Produktivität. Dadurch erscheint die bedrohliche Perspektive, die Maschine könne den Menschen ersetzen, umso legitimer.
Doch trotz des Bestrebens, menschliche Fähigkeiten zu übertreffen, machen die Funktionsweise und die inhärenten Fähigkeiten generativer KIs diese nicht sofort zu potenziellen Journalisten oder gar zu relevanten Quellen.
- So mächtig sie auch sein mögen, ChatGPTs und andere Konversationsagenten haben keine Erfahrung mit der sinnlich wahrnehmbaren Welt. Sie sind nicht in der Lage, zwischen wahr und falsch oder zwischen Realität und Fiktion zu unterscheiden geschweige denn, kritisch oder moralisch zu denken.
- Es handelt sich um „Black Boxes“: Einzelne Schritte der Argumentation nachzuvollziehen oder die genauen Quellen zu identifizieren ist nicht möglich.
- Außerdem können Chatbots nicht als zuverlässige Suchmaschinen betrachtet werden, Ihre Funktionsweise beruht auf statistischen Modellen, die mit Wahrscheinlichkeiten arbeiten. Das führt dazu, dass sie „Halluzinationen“ und Verzerrungen unterliegen können. Es sei auch daran erinnert, dass das von der generativen KI gewonnene Wissen darauf abzielt, die großen Sprachmodelle zu trainieren und zu schulen. Es ist also nicht in erster Linie dazu bestimmt, als eine von den Nutzern durchsuchbare Faktendatenbank zu dienen.
- Schließlich ist die KI darauf beschränkt, wahrscheinliche Inhalte zu produzieren, die sehr überzeugend sind . Garantie für ihre Richtigkeit bieten sie jedoch nicht.
Aus diesen und vielen anderen Gründen können KIs nicht als glaubwürdige Journalisten oder Quellen betrachtet werden. Bestenfalls können sie die Rolle eines Assistenten-Praktikanten spielen, der in der Lage ist, Daten zu strukturieren, um ein Thema zu erforschen. Dabei bleiben sie auf ein rein theoretisches, formales und statistisches Wissen über ein Thema beschränkt.
Es ist daher notwendig, aus der Schockstarre zu erwachen und die Fantasie des Roboterjournalismus zu eliminieren. Es ist nicht der Beruf, der in Frage gestellt wird, sondern spezifische Aufgaben mit geringem Mehrwert und großen organisatorischen Auswirkungen: Zusammenstellung von Meldungen, Bearbeitung von Artikeln, Transkription von Texten in audiovisuelle Inhalte, automatische Erstellung von Newslettern usw. (Siehe Punkt 3).
2) Markieren Sie die Nutzung von KI und schulen Sie die Teams.
Um eine verantwortungsvolle und gewinnbringende Nutzung von künstlicher Intelligenz in den Medien zu gewährleisten, ist eine Charta sicherlich das wirksamste Instrument. Sie ermöglicht es, die Praktiken in einen Rahmen zu stellen und eine informierte Nutzung zu fördern.
Die Ausarbeitung einer Charta ist zudem eine mobilisierende Übung, die jedem Medium die Möglichkeit bietet, seine redaktionelle DNA, seine Werte und seine Aufgaben zu festigen. Im Mittelpunkt dieser Überlegungen stehen die journalistische Ethik und Fragen im Zusammenhang mit der Beziehung zum Publikum, wobei es um Vertrauen und Glaubwürdigkeit geht.
- Systematische menschliche Aufsicht über die von der KI verarbeiteten Inhalte;
- Transparenz der Praktiken innerhalb der Redaktionen und gegenüber den Zuschauern;
- die Liste der erlaubten und verbotenen Nutzungen;
- Die betroffenen Glieder der Nachrichtenfabrik;
- Zurechenbarkeit und Verantwortlichkeit für Inhalte;
- Achtung der Privatsphäre und des Urheberrechts;
- strategische Ziele;
- Umgang mit Schräglagen und die Wahl der Werkzeuge;
Es gibt Grenzen dieser Übung. Die erste besteht darin, sich auf Grundsätze und Verhaltensregeln festzulegen, wenn es unmöglich ist, vorherzusagen, was die Technologie kurz- und mittelfristig ermöglichen wird. Diese Chartas werden sich daher weiterentwickeln müssen.
Der zweite Punkt betrifft die Gewährleistung einer systematischen menschlichen Aufsicht für alle Inhalte, die von einer KI produziert oder bearbeitet werden. Diese Position schließt die Tür für die Entwicklung autonomer Chatbots sowie für die automatisierte Generierung und Verbreitung von Texten und audiovisuellen Produktionen.
Bisher basierte die Automatisierung der Produktion von Inhalten überwiegend auf Systemen, deren Verfahren und mobilisierte Datenbanken kontrolliert werden konnten (Machine Learning). So haben viele Medien die Produktion von Fachinhalten automatisiert: Sport-, Börsen- und Wahlergebnisse, Wettervorhersagen etc. Mit der KI und ihrem maschinellen Lernprozess (Deeplearning) ist es nicht mehr möglich, diese Prozesse zu kontrollieren und transparent zu machen. Diese Situation wirftdie Frage nach der redaktionellen Verantwortung auf.
Neben der Ausarbeitung einer Charta ist die Weiterbildung der Teams ein unverzichtbarer Schritt zur Integration der Künstlichen Intelligenz in die Redaktionen. Von der Ausbildung hängt auch die Qualität der Berichterstattung über KI als journalistisches Objekt ab. Ähnlich wie beim Klima handelt es sich um ein Querschnittsthema, das spezielle Kenntnisse und Werkzeuge erfordert.
3) Produktivitätssteigerungsmöglichkeiten identifizieren, ohne Tabus.
Auf der Liste der Möglichkeiten, die KI bietet, gehört die Automatisierung von repetitiven und zeitraubenden Aufgaben zu den vielversprechendsten. Die sinkenden Kosten für den Zugang zur Technologie ermöglichen einen neuen Blick auf Probleme, die Überbleibsel aus dem Industriezeitalter sind und bislang ungelöst blieben.Hiervon sind alle Stufen der Informationsfabrikation betroffen: Von der Sammlung über die Bearbeitung und Formatierung bis hin zum Vertrieb. Die Presse hadert besonders mit industriellen Prozessen, die mit manuellen und handwerklichen Aufgaben mit geringer Wertschöpfung durchsetzt sind. All dies sind Hemmnisse, die die Zeit und die verfügbaren Mittel für die Kernaufgaben des Journalismus einschränken: Informationen finden, prüfen, priorisieren und erzählen.
Die von KIs versprochenen Produktivitätssteigerungen könnten folgendermaßen zusammengefasst werden: weniger Schlamperei, mehr Umfragen, mehr Reportagen und neue Dienstleistungen für die Leser.
Seit mehr als zehn Jahren setzen Redaktionen Automatisierung ein, um Artikel aus strukturierten Daten über Sport, Börse oder auch das Wetter zu erstellen:
- Bearbeitung: Klassifizierung von Inhalten (Tagging), Optimierung von Artikeln für die Suchmaschinenoptimierung, Umformatierung und Zusammenfassung.
- Verarbeitung : Transkription von Toninterviews, Übersetzungen, Dokumentensynthese, Suche in großen Datenbanken, Datenvisualisierung, Bekämpfung von Desinformation usw.
- Verteilung und Verbreitung: Empfehlung von Inhalten, automatische und personalisierte Newsletter.
- Neue Dienstleistungen: Produktion von Multimedia-Inhalten und mehrsprachige Umsetzung eines redaktionellen Angebots.
Gezielte und differenziertere Anwendungsbeispiele als die vergeblichen Experimente von CNet in den USA oder Bild in Deutschland, Journalisten durch Maschinen zu ersetzen. ?
Wird KI zur Unterstützung des Journalismus eingesetzt, bietet sie Möglichkeiten, die derzeitigen industriellen Grenzen zu überschreiten. Diese Dynamik kannMedien helfen, Produktionsprozesse zu verbessern, neue Dienstleistungen für die Leser zu erfinden und neue Einnahmequellen zu erschließen.
4) Sich auf die Entstehung von KI-Assistenten vorbereiten
Die Akzeptanz von KI in der breiten Öffentlichkeit hat viel mit der nächsten Generation von Chatbots zu tun. Die Ergonomie und die Leistung dieser Chat-Agenten haben die traditionelle Suchmethode, die von Webbrowsern angeboten wird, in den Schatten gestellt. Warum sollte man sich durch seitenlange Links und Werbeanzeigen kämpfen, wenn man seinem persönlichen Assistenten eine Frage stellen kann, um sofort eine klare und umschriebene Antwort zu erhalten? Chatbots gebendas Versprechen einer „Antwortmaschine“ statt einer Suchmaschine.
Die Personalisierung des Austauschs und der Antworten auf den Kontext des jeweiligen Nutzers ist der andere große Vorteil von Assistenten, die mit künstlicher Intelligenz gedopt sind. Sie erbringen beeindruckende Leistungen, die dank Deep Profiling an Stärke gewinnen. Diese Technik kombiniert den Zugang zu unseren persönlichen Daten, öffentlichen Ressourcen, einer umfangreichen statistischen Verarbeitung, Erinnerungsfähigkeiten und der Magie des automatischen, kontinuierlichen und autonomen Lernens.
„Sie besser verstehen, um Ihnen besser dienen zu können“ könnte der Slogan dieser neuen persönlichen Assistenten sein. Dieser Gedanke hat begonnen, sich im Herzen von Browsern und Software-Suiten für den Massenmarkt festzusetzen, wie z. B. Microsofts Copilot.
So praktisch und effizient die Hyperpersonalisierung des Zugangs zu Informationen auch sein mag, sie birgt zahlreiche Risiken für die demokratische Debatte. Die digitale Öffentlichkeit, die bereits weitgehend von den Algorithmen großer Plattformen geformt wird, läuft Gefahr, noch mehr an Boden zu verlieren. Die Fläche des digitalen öffentlichen Raums, der aus Informationen besteht, die für eine möglichst große Zahl von Menschen zugänglich sind verringt sich durch diese undurchsichtigen Konversationsagenten
DasRisiko wird durch die fehlende Transparenz der Quellen und das Phänomen der Halluzination verstärkt, die der Funktionsweise künstlicher Intelligenz eigen sind.
Gleichzeitig wirken die bekannten Nebeneffekte algorithmischer Empfehlungen : Verstärkung von Filterblasen, Verzerrungen aller Art, Verstärkung bestehender Meinungen oder die Verringerung der Chancen, mit Widersprüchen konfrontiert zu werden.
5) Den Niedergang der Linkwirtschaft voraussehen.
Die Revolution der persönlichen Assistenten ebnet den Weg für ein neues Paradigma für den Austausch und die Suche nach Online-Informationen. Sie zeichnen eine Welt, in der die Relevanz von Suchmaschinen, wie wir sie heute kennen, in Frage gestellt wird.Das Ökosystem, das von der Dynamik und der auf Links basierenden Architektur des Internets lebt, ist bedroht.
Facebook hatte bereits eine Bresche in die Gründungsprinzipien des Webs geschlagen, indem es ein geschlossenes digitales Universum, ein privatisiertes soziales Web, vorschlug.
Google seinerseits hat das Linknetzwerk kurzgeschlossen, indem es 2012 das System des Knowledge Graph in Form von Snippets einführte, also Blöcken auf der Suchseite, die die Antworten von Websites zusammenfassen. Die Hervorhebung von Auszügen aus Inhalten führte zu einem Rückgang der Besucherzahlen auf den betreffenden Websites, wie z. B. Wikipedia,.
Zwanzig Jahre nach Facebook ist es das amerikanische Unternehmen perplexity.ai, das das Modell des Internets auf den Kopf stellt.Es fordert Google auf seinem eigenen Gebiet, der Suche, heraus. Ermöglicht wird das durchein hybrides und kostenpflichtiges Produkt, um auf Informationen zuzugreifen. Halb Chatbot, halb Suchmaschine, ist das Angebot eine Synthese aus beiden Welten. Auf der einen Seite besteht der Zugang zu online verfügbarem Wissen und auf der anderen Seite die Bequemlichkeit eines Konversationsagenten, der Quellen identifizieren, sortieren und zusammenfassen kann und dabei multimodale Antworten (Text, Ton, Video und Code) liefert. Microsoft und OpenAI erforschen dieselbe Spur, indem sie sich auf Bing stützen.
Auf diese Weise mischt perplexity.ai die Karten der Online-Suche neu, indem es neue Regeln für den Zugang zu Informationen aufstellt Dies hat noch unabsehbare Folgen für die Funktionsweise und die Wirtschaft des Internets .
Aus Sicht der Medien bringt diese große Umwälzung neue Vermittler mit sich, die den Wert journalistischer Produktionen an sich reißen, Informationen verdauen und neue Regeln ohne finanzielle Gegenleistung oder garantierte Sichtbarkeit auferlegen. Wenn Chatbots an die Stelle von Suchmaschinen treten, um eine schlüsselfertige Antwort zu liefern, verschwindet, oder zumindest verblasst, die Logik der Weiterleitung von Internetnutzern an Nachrichtenseiten.
Diese Dynamik eröffnet die Aussicht auf einen Verlust an Aufmerksamkeit für die Inhalte, was zu einem Rückgang der Besucherzahlen und damit zu Einnahmeverlusten sowohl auf dem Werbemarkt als auch bei den Lesern führt.
Kurz gesagt: Wenn es nicht mehr notwendig ist, eine Website zu besuchen, um Informationen zu erhalten, wie können dann Medien finanziert werden, die nicht mehr auf den Traffic aus dem Internet angewiesen sind?
Es handelt sich um eineInfragestellung der Linkwirtschaft, wie sie seit der Gründung des Internets besteht.
Während die Asche des Streits um das Leistungsschutzrecht mit Google noch raucht, mussten die Verleger im vergangenen Jahr mit ansehen, wie Facebook ihre Inhalte in den Newsfeeds herabstufte und ihnen die Sichtbarkeit auf der größten sozialen Plattform der Welt vorenthielt.
Ein Warnschuss, der sie dazu zwingt, ihr Modell an der Schnittstelle zwischen der Aufmerksamkeits-, der Link- und der Inhaltsökonomie neu zu erfinden. Sie sind hin- und hergerissen zwischen dem Wunsch, die von den KI-Plattformen gebotenen Möglichkeiten zu nutzen und der Aussicht, dass ihre Inhalte von diesen neuen Infomedien ohne Gegenleistung weiter geplündert werden. Derzeit besteht die Haltung der Medienindustrie mehrheitlich darin, die Indexierung ihrer Inhalte so gut es geht zu blockieren und darauf zu warten, dass Verhandlungen stattfinden oder ein rechtlicher Rahmen für die verschiedenen Akteure geschaffen wird.
Angesichts dieser neuen Realitäten haben die Medien keine andere Wahl, als die Bindung zu ihren Lesern zu stärken, indem sie die Kontaktpunkte vervielfachen, maßgeschneiderte Dienstleistungen entwickeln, Informationen zertifizieren und Räume für öffentliche Debatten schaffen.
6) Vermeiden Sie die Fallstricke der Technologieabhängigkeit.
Während die Abhängigkeit von sozialen Netzwerken und der Kampf um die Sichtbarkeit journalistischer Inhalte in Suchmaschinen noch immer große Herausforderungen darstellen, beginnen die Medien ein neues Tauziehen mit den KI-Giganten um die Verwertung ihrer Inhalte.
Bisher lassen sich zwei verschiedene Ansätze unterscheiden. Der erste Ansatz besteht darin, den Zugang zu den Archiven zu blockieren und eine Vergütung für die Nutzung der Inhalte zu verlangen. Dies ist die Position, die von den meisten Verlegern vertreten wird , wie z. B. von der New York Times, die den Schöpfer von ChatGPT verklagt hat. Die amerikanische Zeitung beschuldigt OpenAI der Verletzung des Urheberrechts und der illegalen Nutzung seiner Inhalte als Futter für seine künstliche Intelligenz.
Die zweite Haltung besteht darin, Partnerschaften mit den Anbietern von Lösungen für künstliche Intelligenz einzugehen, wobei OpenAI und ChatGPT an erster Stelle stehen. Le Monde istdas erste französische Medium, das eine solche Vereinbarung abschloss. Auch Associated Press und Axel Springer haben mit OpenAI Gegenleistungen ausgehandelt. Dazzu gehört etwadie Möglichkeit, Inhalte in den von ChatGPT gelieferten Ergebnissen zu verbreiten, den exklusiven Zugang zu KI-Tools für Redaktionen und die direkte Zusammenarbeit mit den technischen Teams.
Was Google betrifft, so arbeiten seine Teams am Genesis-Projekt, das darauf abzielt, „möglicherweise KI-aktivierte Tools bereitzustellen, die Journalisten bei ihrer Arbeit unterstützen“. Microsoft hat sich für Semafor entschieden, um Suchwerkzeuge für Redakteure zu entwickeln, aber auch um Zusammenfassungsformate für Leser zu erstellen.
Mit der Entscheidung für das eine oder andere KI-Tool setzen sich die Medien zahlreichen Risiken aus: Abhängigkeit, Sicherheit der Datenverarbeitung, Unklarheit über die Legalität der Trainingsmethoden und -quellen, mangelnde Transparenz ihrer Funktionsweise, Kostenschwankungen etc. Daher ist es entscheidend, sicherzustellen, dass die entwickelten technischen Lösungen flexibel genug sind, um bei Bedarf problemlos zwischen den Modellen der Referenzsprache wechseln zu können.
Außerdem muss man sich vor Augen halten, dass künstliche Intelligenz und Sprachmodelle technische und rechtliche Black Boxes sind, die im Zentrum eines großen Kampfes um die technologische Souveränität auf globaler Ebene stehen. Die Fähigkeit der Verleger, ihre Inhalte zu kennzeichnen, um ihre Nutzung und Verwertung durch Sprachmodelle nachvollziehen zu können, ist ein unumgänglicher Schritt, um der Medienindustrie zu ermöglichen, ihre Rechte geltend zu machen.Dies stellt eine Herausforderung dar, die eine enge Zusammenarbeit zwischen allen Akteuren der Branche erfordern wird.
7) Wappnen Sie sich gegen die Gefahr eines allgemeinen Informationswirrwarrs.
Mit der zunehmenden Verfügbarkeit von KI-Tools droht eine Flut von automatisierten und synthetischen Medien, das Internet zu überschwemmen.
Nach dem Vorbild der Destabilisierungs- und Desinformationsoperationen, die während der Wahlkampagnen stattfinden, versprechen die bereits eingesetzten Flooding-Techniken zuzunehmen und die Demokratien zu destabilisieren. Im großen WahlJahr 2024 muss die Hälfte der Menschheit zu den Wahlurnen gehen.De ersten Beispiele für Deepfakes und Manipulationen überschwemmten hier bereits das Web und die sozialen Netzwerke.
Durch die Möglichkeit, Inhalte in großem Umfang zu personalisieren sowie die Formate endlos zu variieren, steigert die künstliche Intelligenz die Wirksamkeit und den Einfluss synthetischer Inhalte noch weiter.
Unabhängig davon, ob die produzierten Inhalte bösartig sind oder nicht, nährt dieses Phänomen eine große Informationsunordnung.Es zeichnet die Umrisse einer Welt, in der eine sichere Unterscheidung zwischen wahr und falsch,und maschinen- oder menschengeneriert, nicht mehr möglich ist. .
Wenn die Menge dieser Inhalte bestimmte kritische Schwellenwerte überschreitet, würden sie massiv in die Lernschleife von KI-Systemen gelangen und de facto die für ihre Entwicklung notwendigen Datenbanken kontaminieren. Das Ergebnis dieses dystopischen Szenarios wäre ein Informationsuniversum in dem uniformes Wissen, faktisch falsche, irreführende oder qualitativ minderwertige Informationen und die endlose Reproduktion der gleichen Voreingenommenheit vorherrschen würden. Eine Welt, die vom Gift des Zweifels, der Ungenauigkeit, der Verwirrung und des systematischen Verdachts durchsetzt ist.
In einem solchen Szenario werden die Medien zu den wenigen Bastionen gehören, die in der Lage sind, den Ansturm von Fälschungen, Fakes und Wahrscheinlichkeiten abzuwehren. Sie müssen mehr denn je zur Quellen- und Meinungsvielfalt beitragen und Informationen zertifizieren, indem sie ihre Inhalte mit dem Hinweis „Geschrieben und geprüft von [diesem Journalisten], für [dieses Medium]“ unterzeichnen.
Dieser Artikel ist unter einer Creative-Commons-Lizenz (CC BY-ND 4.0) veröffentlicht. Er darf erneut veröffentlicht werden, sofern der ursprüngliche Standort (de.ejo.ch) und die Autoren deutlich angegeben werden, der Inhalt darf jedoch nicht verändert werden.
Dieser Artikel wurde zuerst am 11. März 2021 auf der französischsprachigen EJO-Seite veröffentlicht. Übersetzt von Judith Odenthal und Johanna Mack mithilfe von DeepL.
Schlagwörter:AI, ChatGPT, Ethik, KI, Medienwandel