Wie Algorithmen unseren Nachrichtenkonsum beeinflussen

30. März 2023 • Aktuelle Beiträge, Forschung aus 1. Hand, Qualität & Ethik • von

Bildquelle: pixabay

Nachrichtenkonsum findet vermehrt online statt. Um in der Nachrichten- und Informationsflut im Internet Ordnung zu schaffen, haben sich insbesondere Algorithmen durchgesetzt. Wie genau die unterschiedlichen Algorithmen unseren Zugang und Konsum von Nachrichten beeinflussen, wird derzeit von unserer Forschungsgruppe an der Universität Bern untersucht.

Algorithmen im Journalismus

Algorithmen beeinflussen zunehmend die Art und Weise, wie heutzutage Nachrichten produziert und verbreitet werden. Algorithmen dienen dabei als Bausteine für komplexe Systeme, die im Kontext des modernen Journalismus für eine Vielzahl von Aufgaben verantwortlich sind. Diese Aufgaben reichen von der Text- oder Spracherzeugung für die Produktion von Nachrichten über die Verbesserung der Verbreitung von Inhalten, um neue Zielgruppen zu erreichen und die bestehenden besser einzubinden, bis hin zur Analyse der öffentlichen  Beschäftigung  mit bestimmten Themen und Inhalten, sei es zum Guten oder zum Schlechten.

Was sind Algorithmen?

Algorithmen sind abstrakt formalisierte Beschreibungen von Berechnungsvorgängen. Sie stellen eine Abfolge von Aktionen dar, die ausgeführt werden müssen, um ein bestimmtes Ziel zu erreichen, beispielsweise um eine bestimmte Information zu finden oder einen Inhaltsvorschlag für den Newsreader zu generieren. Algorithmen werden oft kombiniert, um die Funktionalität komplexer computergestützter Systeme wie Nachrichtenempfehlungssysteme oder Suchmaschinen zu ermöglichen.

Während alle oben genannten Aufgaben wichtig sind, um die komplexe Beziehung zwischen Algorithmen und Journalismus zu erklären, ist die algorithmengesteuerte  Inhaltsverbreitung diejenige, die derzeit einen besonders starken Einfluss auf die Nachrichtenredaktionen und die Journalismusforschung hat. Der zunehmende Einsatz von Algorithmen für die Nachrichtenverbreitung ist seit mehr als einem Jahrzehnt Gegenstand intensiver wissenschaftlicher Debatten (für einige Beispiele siehe Helberger, 2011; Thurman, Lewis & Kutner, 2019; Trattner et al. 2022). Die  vermehrte Einführung von  Nachrichtenempfehlungssystemen durch Medienunternehmen und die potenziellen Risiken und Chancen der personalisierten Nachrichtenverbreitung haben große Aufmerksamkeit erregt. Neben Empfehlungssystemen werden jedoch auch andere Arten von “Information retrieval systems” durch Algorithmen unterstützt. Diese werden definiert als Systeme, die sich mit der Organisation, der Verarbeitung von und dem Zugang zu Informationen in verschiedenen Formaten beschäftigen. Zu diesen “Information retrieval systems” gehören auch Web-Suchmaschinen. Diese befassen sich immer öfter mit der Verbreitung von Nachrichten und stehen im Mittelpunkt unserer Forschung.

Suchmaschinen als Nachrichtenverteiler?

Im Gegensatz zu Nachrichtenempfehlungssystemen legen Suchmaschinen wie Google oder Yandex weniger Wert auf eine individualisierte Auswahl von Inhalten und sind nicht Teil der digitalen Infrastruktur der Medienunternehmen. Stattdessen organisieren Suchmaschinen das breitere Ökosystem digitaler Inhalte, indem sie Einzelpersonen dabei helfen, die Informationen zu finden, an denen sie interessiert sind. Dabei bestimmen die Algorithmen der Suchmaschinen, welche Informationsquellen – einschließlich journalistischer Angebote – in Bezug auf bestimmte Themen bevorzugt werden und welche Materialien aus diesen Quellen mehr Sichtbarkeit erhalten. Aufgrund ihrer Funktionalität werden Suchmaschinen häufig zur Entdeckung von Nachrichten genutzt und werden zunehmend zu vertrauenswürdigen  Informationsvermittlern.

Es überrascht nicht, dass die Beziehung zwischen Suchmaschinen und Journalismus immer mehr zum Gegenstand der akademischen Forschung wird. Eine Reihe von Studien (z. B. Makhortykh, Urman & Ulloa, 2020; Unkel & Haim, 2021; Trielli & Diakopoulos, 2022) zeigt, dass viele Suchmaschinen, insbesondere Google, dazu neigen, Inhalte von etablierten journalistischen Stellen zu bevorzugen. Diese Tendenz kann, zumindest teilweise, auf die erheblichen Anstrengungen der Nachrichtenredaktionen zur Suchmaschinenoptimierung  zurückgeführt werden. Im Falle von Google werden häufig journalistische Mainstream-Medien bevorzugt, was dazu führt, dass Nischen- oder überparteiliche Interpretationen als weniger wichtig wahrgenommen werden.

Mainstreaming-Effekt

In unserer Untersuchung fanden wir auch Belege für diesen Mainstreaming-Effekt von Suchmaschinen.  Jener beschreibt die Tendenz, eine Reihe gemeinsamer Ergebnisse zu bevorzugen, die häufig von den Mainstream-Journalisten stammen, wodurch die Auswirkungen unterschiedlicher Suchverhaltensweisen (z.B. die Tendenz, eher konservativ oder liberal ausgerichtete Suchanfragen zu verwenden) aufgehoben werden. In einer laufenden Studie darüber, wie Suchmaschinen Nachrichten über die Verschwörungstheorien der angeblichen Manipulation der US-Präsidentschaftswahlen 2020 durch die Demokraten (die “große Lüge“) priorisieren, hat Google routinemäßig vertrauenswürdige Quellen angegeben. Das bedeutet, dass die Nutzerinnen und Nutzer bei der Suche nach Nachrichten über diese Verschwörung eher auf Berichte stoßen, die diese Behauptungen überprüfen und entkräften, als auf Seiten, die sie als wahr oder plausibel darstellen. Diese Ergebnisse blieben auch dann bestehen, wenn man sehr nischenbezogene und ideologische Begriffe einbezog, die möglicherweise von Personen verwendet werden, die gezielt versuchen, Informationen über die Verschwörung zu erhalten.

Suchmaschinen als Instrumente der Falschinformation

Gleichzeitig sind nicht alle Aspekte des wachsenden Einflusses der Suchmaschinen auf den Journalismus so eindeutig. Während Google in den meisten westlichen Ländern noch eine Monopolstellung auf dem Suchmarkt innehat (was durch die Integration der Chatbot-Technologie in Microsofts Bing zunehmend in Frage gestellt wird), werden andere Suchmaschinen von bestimmten Gruppen von Bürger:innen genutzt. Zudem funktionieren die Algorithmen dieser Suchmaschinen oft recht unterschiedlich. Wie unsere Studie über die Darstellung von Wahlinitiativen der kremlfeindlichen Opposition in Russland gezeigt hat, können in einigen Fällen, wie z.B. Yandex, Suchmaschinen zu einem Werkzeug werden, das die regierungsfreundliche Narrative verstärkt und Zensur ermöglicht.

Auch andere Suchmaschinen mit einem beträchtlichen Marktanteil im Westen wie DuckDuckGo (eine Suchmaschine, die sich selbst damit vermarktet, ihre Nutzer:innen nicht zu verfolgen) und Bing (die Suchmaschine von Microsoft), haben eine besorgniserregende Neigung gezeigt, Nutzer:innen zu fragwürdigen Nachrichten- und Informationsquellen zu führen. Dies war der Fall bei der “Großen Lüge”, wobei ein erheblicher Teil der Nachrichten (etwa 25 %) die Behauptungen der Verschwörungstheorie nicht auf ihre Richtigkeit hin überprüfte oder sie sogar unterstützte. Bei der Suche nach Bildern im Zusammenhang mit dem Holocaust beobachteten wir eine ähnliche Tendenz bei DuckDuckGo und Yahoo. Bei beiden Suchmaschinen tauchten Resultate, die Hassreden fördern und sich über den Holocaust lustig machen, mit größerer Wahrscheinlichkeit auf, insbesondere bei russisch-sprachigen Suchanfragen.

Algorithmen der sozialen Medien

Dennoch sind die Suchalgorithmen bei weitem nicht die einzigen Faktoren, die dafür verantwortlich sind, dass Nutzer:innen ungeprüften oder falschen Informationen ausgesetzt sind. In unserer Arbeit über das Online-Engagement mit überparteilichen, alternativen und verschwörerischen Medien (Abk. HAC-Medien) haben wir herausgefunden, dass Algorithmen in sozialen Medien oft eine wesentliche Rolle dabei spielen, wie mit Inhalten, die als Alternative zur “Lügenpresse” präsentiert werden, umgegangen wird..  Ein solches Engagement kann beispielsweise dadurch ermöglicht werden, dass Nutzer:innen über die Feeds sozialer Medien auf Inhalte von HAC-Medien aufmerksam gemacht werden und dazu angeregt werden, diese zu erkunden.

Wir erklären dieses Muster als Ergebnis von zwei sich ergänzenden Prozessen. Ein erster Prozess zeigt, dass das Publikum in den sozialen Medien motiviert ist, Inhalte zu teilen. Das bedeutet, dass die Leser von HAC-Medien zur Verbreitung von HAC-Inhalten an ein neues Publikum beitragen, indem sie die Inhalte über Online-Plattformen teilen und  so möglicherweise Personen zugänglich machen, die zuvor keine Kenntnis von HAC-Sites hatten. Das Teilen von Inhalten ist somit eine Chance für die HAC-Medien, ihre Sichtbarkeit im Internet zu erhöhen und mit den etablierten Medienhäusern zu konkurrieren. Zweitens deuten unsere eigenen Nachforschungen – aber auch Informationen aus undichten Stellen in der internen Facebook-Kommunikation von Meta, dem Mutterkonzern von Facebook – darauf hin, dass die Algorithmen der Plattformen mitunter Inhalte  bevorzugen, die die Menschen wütend machen, um eine höhere Interaktion zu gewährleisten. Mit ihrer emotionalen Berichterstattung sind den HAC-Medien Skandale nicht fremd und  ihre Geschäftsmodelle beruhen oft darauf, dass sie ihrem Publikum das Gefühl geben, dass ihnen Unrecht geschieht.

Die großen Unbekannten: Algorithmen als Blackbox

In diesem kurzen Beitrag  haben wir dargelegt, welche Rolle Algorithmen und “Information retrieval systems”  beim Zugang zu Online-Nachrichten  spielen. Während unsere Arbeit und die unserer Kolleg:innen bereits einige besorgniserregende Erkenntnisse aufgedeckt haben, ist noch vieles unbekannt über die Rolle von Algorithmen beim heutigen Nachrichtenkonsum und die wachsende Rolle, die sie unweigerlich in unserer Zukunft spielen werden. Das “Blackbox“-Modell vieler großer Technologieunternehmen  führt dazu, dass Forscher:innen kaum Zugang haben.  Sie müssen einen grossen Aufwand betrieben, um untersuchen zu können, wie diese komplexen Systeme die Informationen beeinflussen, die wir zu wichtigen Themen wie Wahlen oder Verschwörungstheorien oder Völkermord konsumieren. Mit dem zunehmenden gesellschaftlichen Interesse an diesen Themen wächst jedoch auch der Druck auf die Tech-Industrie in Richtung mehr Transparenz. Wir gehen davon aus, dass es in Zukunft weitere Forschungen in diesen Bereichen geben wird, hoffentlich – aber nicht unbedingt – in engerer Zusammenarbeit mit den Big-Tech-Unternehmen.

Referenzen

Allyn, B. (2021, October 5). Here are 4 key points from the Facebook whistleblower’s testimony on Capitol Hill. NPR. https://www.npr.org/2021/10/05/1043377310/facebook-whistleblower-frances-haugen-congress

Bastian, M., Helberger, N., & Makhortykh, M. (2021). Safeguarding the journalistic DNA: Attitudes towards the role of professional values in algorithmic news recommender designs. Digital Journalism, 9(6), 835-863.

Bodó, B. (2019). Selling news to audiences–a qualitative inquiry into the emerging logics of algorithmic news personalization in European quality news media. Digital Journalism, 7(8), 1054-1075.

Broadwater, L. & Feuer, A. (2022, June 13). Jan. 6 Panel Tracks How Trump Created and Spread Election Lies. The New York Times. https://www.nytimes.com/2022/06/13/us/politics/trump-january-6-hearings-day-2.html

Chowdhury, G. G. (2010). Introduction to modern information retrieval. Facet publishing.

Coleman, S. (2019, April 4). How we automated audio news bulletins. The Guardian. https://www.theguardian.com/info/2019/apr/04/how-we-automated-audio-news-bulletins

de León, E., & Trilling, D. (2021). A sadness bias in political news sharing? The role of discrete emotions in the engagement and dissemination of political news on Facebook. Social media+ society, 7(4), 20563051211059710.

de León, E., Vermeer, S., & Trilling, D. (2021). Electoral news sharing: a study of changes in news coverage and Facebook sharing behaviour during the 2018 Mexican elections. Information, communication & society, 1-17.

Dholakiya, P. (2018, January 24). Cracking Open Google’s Black Box with Machine Learning Tools. Search Engine Journal. https://www.searchenginejournal.com/reverse-engineer-google-machine-learning-tools/233363/

Dourish, P. (2016). Algorithms and their others: Algorithmic culture in context. Big Data & Society, 3(2), 2053951716665128.

Edelson, L. (2022, April 29). Platform Transparency Legislation: The Whos, Whats and Hows. Lawfare. https://www.lawfareblog.com/platform-transparency-legislation-whos-whats-and-hows

Helberger, N. (2011). Diversity by design. Journal of Information Policy, 1, 441-469.

Kunova, M. (2022, February 9). How can artificial intelligence help increase audience engagement with the news? Journalism.co.uk. https://www.journalism.co.uk/news/how-can-artificial-intelligence-help-increase-audience-engagement-with-the-news-/s2/a901679/

Makhortykh, M., Urman, A., & Ulloa, R. (2020). How search engines disseminate information about COVID-19 and why they should do better. HKS Misinformation Review, 1(1), 1-12. doi: https://doi.org/10.37016/mr-2020-017

Makhortykh, M., Urman, A., & Ulloa, R. (2021). Hey, Google, is it what the Holocaust looked like? Auditing algorithmic curation of visual historical content on Web search engines. First Monday, 26(10).

Makhortykh, M., Urman, A., & Ulloa, R. (2022). Memory, counter-memory and denialism: How search engines circulate information about the Holodomor-related memory wars. Memory studies, 15(6), 1330-1345.

Makhortykh, M., Urman, A., & Wijermars, M. (2022). A story of (non) compliance, bias, and conspiracies: How Google and Yandex represented Smart Voting during the 2021 parliamentary elections in Russia. Harvard Kennedy School Misinformation Review, 3(2), 1-16.

Möller, J., van de Velde, R. N., Merten, L., & Puschmann, C. (2020). Explaining online news engagement based on browsing behavior: Creatures of habit?. Social Science Computer Review, 38(5), 616-632.

Schultheiß, S., & Lewandowski, D. (2021). Misplaced trust? The relationship between trust, ability to identify commercially influenced results and search engine preference. Journal of Information Science, 01655515211014157.

Steensen, S., Ferrer-Conill, R., & Peters, C. (2020). (Against a) theory of audience engagement with news. Journalism Studies, 21(12), 1662-1680.

Thurman, N., Lewis, S. C., & Kunert, J. (2019). Algorithms, automation, and news. Digital Journalism, 7(8), 980-992.

Trielli, D., & Diakopoulos, N. (2022). Partisan search behavior and Google results in the 2018 US midterm elections. Information, Communication & Society, 25(1), 145-161.

Trattner, C., Jannach, D., Motta, E., Costera Meijer, I., Diakopoulos, N., Elahi, M., … & Moe, H. (2022). Responsible media technology and AI: challenges and research directions. AI and Ethics, 2(4), 585-594.

Ulloa, R., Makhortykh, M., Urman, A., & Kulshrestha, J. (2022). Novelty in news search: a longitudinal study of the 2020 US elections. arXiv preprint arXiv:2211.04746.

Unkel, J., & Haim, M. (2021). Googling politics: Parties, sources, and issue ownerships on Google in the 2017 German federal election campaign. Social Science Computer Review, 39(5), 844-861.

Urman, A., Makhortykh, M., Ulloa, R., & Kulshrestha, J. (2022). Where the earth is flat and 9/11 is an inside job: A comparative algorithm audit of conspiratorial information in web search results. Telematics and informatics, 72, 101860.

Zhavoronkov, A. (2023, January 18). Will OpenAI End Google’s Search Monopoly? Forbes. https://www.forbes.com/sites/alexzhavoronkov/2023/01/18/will-openai-end-googles-search-monopoly/?sh=39304b24749b

 

Print Friendly, PDF & Email

Schlagwörter:, ,

Kommentare sind geschlossen.

Send this to a friend