Nutzerkommentare blockieren Informationsfluss

12. März 2013 • Digitales • von

Viele Online-Medien haben mit einer Flut von Nutzerkommentaren zu kämpfen. Journalisten stehen vor der Herausforderung, die Kommentare sinnvoll einzubinden und eine gesunde Diskussion zu entfachen, ohne aber Zensur zu betreiben. Keine leichte Aufgabe, ob teils polemischer Debatten durch anonyme Nutzer.

Eine amerikanische Forschergruppe zeigt nun in einer Studie: Unsachliche Debatten unter Online-Artikeln hindern Leser teils daran, die Informationen des eigentlichen Artikels aufzunehmen. Das Team unter Leitung der Kommunikationswissenschaftlerin Ashley Anderson vom Center for Climate Change Communication der George Mason University im US-Bundesstaat Virginia widmet sich in der Studie einer sehr spezifischen Fragestellung: Wie verändern unzivilisierte Diskussionen unter Online-Artikeln über komplexe technische Themen die Risikowahrnehmung der Nutzer? Die Forscher interviewten dafür 1.138  repräsentativ ausgewählte US-Bürger  in zwei Probandengruppen zum Thema Nanotechnologie.

Sie befragten zunächst beide Probandengruppen zu ihrem Vorwissen über Nanotechnologie, bevor sie ihnen auf der Website einer fiktiven kanadischen Zeitung denselben Artikel zu lesen gaben. Dieser führte  genauso viele Argumente für wie gegen die Technologie auf, die für ultradünne Komponenten in der Medizin oder für wasserdichte Spezial-Kleidung genutzt wird. Die Nutzerkommentare waren allerdings manipuliert: Während eine Gruppe eine sachliche Diskussion zu sehen bekam, bekam die andere Gruppe auch Kommentare wie „Wer die Vorteile der Nutzung von Nanotechnologie nicht sehen will, ist ein Idiot” zu lesen.

Bei der anschließenden Befragung reagierten die Probandengruppen sehr unterschiedlich. Während die Leser der sachlichen Debatte die Informationen des Basisartikels aufnehmen und damit ihr Wissen über Nanotechnologie erweitern konnten, waren Teile der anderen Lesergruppe polarisiert. Wer die Technologie zuvor schon gut fand, sah ihre Risiken danach als noch geringer an; wer die Risiken scheute, sah sich danach darin bestätigt. Vor allem religiöse Probanden hatten nach der unsachlichen Debatte mehr Zweifel gegenüber der Technologie als zuvor.

Die Wissenschaftler sehen es damit als erwiesen an, dass bestimmte Voreinstellungen und Heuristiken wie etwa Religiosität beeinflussen, wie Nutzer Medien konsumieren. Außerdem glauben sie, dass sich bestimmte vorgefertigte Einstellungen verhärten und neutrale Informationen schlechter aufgenommen werden können, wenn ein Thema von einer unsachlichen Diskussion begleitet wird.

Zwar gibt es aktuell keine vergleichbaren Untersuchungen mit deutschen Internetnutzern, doch die amerikanischen Forscher gehen davon aus, dass beim Lesen der Nutzerkommentare allgemeine psychologische Effekte greifen: Wer sich durch fremde Kommentare in seinen Werten und Einstellungen angegriffen fühle, könne eine Abneigung gegen das Thema entwickeln, in dessen Zusammenhang er oder sie sich angegriffen gefühlt habe.

Insofern sehen sich auch deutsche Medien tagtäglich vor die Herausforderung durch Nutzerkommentare gestellt. Die Medienhäuser gehen dabei sehr unterschiedlich mit dieser Herausforderung um. Die Online-Redaktionen der tageszeitung und der Zeit editieren etwa jeden Kommentar einzeln und prüfen ihn auf Beleidigungen oder Gewaltverherrlichung, bevor sie ihn freischalten.  Auf Bild.de und DerWesten.de dagegen editieren die Redakteure die Online-Kommentare erst, wenn sie bereits online sind – hier müssen sich die Nutzer zwar registrieren, können dies aber auch unter einem ‚Nickname‘ tun. Mittlerweile arbeiten die meisten Medien mit einer so genannten Netiquette, die den Usern Verhaltensempfehlungen gibt.

Stefan Niggemeier zeigte 2008 in einem Artikel für die Frankfurter Allgemeine Zeitung auf, vor welchen Problemen die Redaktionen dennoch stehen. Er analysierte unter anderem die frühere Strategie von Welt Online, wo damals angeblich jeder Kommentar nachträglich überprüft wurde. „Das ist angesichts der Vielzahl von unfassbar aus dem Ruder gelaufenen Diskussionen schwer zu glauben“, schrieb Niggemeier. „Obwohl man auch im Haus sieht, dass das nicht gut ist fürs Image, will man offenbar versuchen, die Kommentarfunktion so lange wie möglich so offen zu lassen.“

Mittlerweile hat die Welt Online-Redaktion ihre Regeln verändert, prüft die Kommentare vorher und schaltet sie erst dann, möglicherweise editiert, frei. Wenn zu viele problematische Kommentare kommen, schließt die Redaktion die Funktion allerdings komplett – was Nutzer eher als Eingeständnis verstehen, wie ohnmächtig sich die Journalisten gegenüber ihren Kommentaren fühlen. In anderen Redaktionen resignieren die Mitarbeiter ebenfalls. Bei taz.de arbeiten etwa Praktikanten die Flut der Diskussionsbeiträge ab, ohne die teils erhofften Impulse der Leserkommentare für die Redaktion herausfiltern zu können.  Schwer vorstellbar, dass Redaktionen bei so aufwendigen Prozessen noch auf Nuancen des Tonfalls achten können.

In den Augen der amerikanischen Forscher um Ashley Anderson  hat das fatale Folgen etwa dafür, wie neue und unbekannte Technologien oder wissenschaftliche Phänomene wie der Klimawandel in der Öffentlichkeit wahrgenommen werden. Während das Internet neue Türen für öffentliche Diskussion öffne, biete es auch vielen „Nicht-Experten und teils unverträglichen, aggressiven Rednern eine Plattform“, schreiben die Wissenschaftler. „Die dadurch online entstehende unzivilisierte Kommunikation könnte die demokratiefördernden Ziele der offenen Diskussion wieder untergraben.”

Anderson, Ashley A.; Brossard, Dominique; Scheufele, Dietram A.; Xenos, Michal A.; Ladwig, Peter (2013): Crude Comments and Concern: Online Incivility’sEffect on Risk Perceptions of Emerging Technologies. In: Journal of Computer-Mediated Communication, Beitrag erstmals online veröffentlicht am 13. Februar 2013.

Bildquelle: Gerd Altmann / pixelio.de

Print Friendly, PDF & Email

Schlagwörter:, , , , , , , , , ,

Schreibe einen Kommentar

Send this to a friend