Was vom Tage übrig bleibt – ein Navigationsversuch

8. Februar 2011 • Digitales • von

In der Debatte um die Zukunft von Medien und gesellschaftlicher Kommunikation können wir gelegentlich den Eindruck gewinnen, es gehe nicht um „alle für alle“, sondern um „jeder gegen jeden“.

Interpretationsfragen sind Machtfragen. Das ist seit Menschengedenken so und lässt sich eindrucksvoll an der Geschichte der Auslegungsfragen und ihrer Antworten in Recht, Politik, Religion, Kultur und Wissenschaft nachvollziehen.

Was das Recht mit dem Konstrukt der „herrschenden Mei­nung“ festzulegen sucht, gerät in der Politik zur Ideologie, heute zuneh­mend zum Populismusstreit (wer setzt sich nachhaltiger in den Köpfen der artikulierten oder schweigenden Mehrheit fest?). Während die Kirche Dif­ferenzen und Widersprüche in Konzilen und Enzykliken und die Kultur selbige in Kanones aufzulösen versucht, darf die Wissenschaft offener mit solchen Problemen umgehen und die Differenz als dialektisches Verhält­nis zwischen These und Antithese begreifen (wie in verschiedenen Theo­rienstreits geschehen), um womöglich irgendwann eine Synthese daraus abzuleiten, die wiederum theorie- und empirietauglich sein sollte.

Exakt dies steht in diesen Tagen in der Auseinandersetzung mit der Entwicklung des Internet an. Wir haben es mit einer Dialektik zu tun, die nicht nur die akademische Welt beschäftigt, sondern ebenso die Poli­tik, die Wirtschaft und die Feuilletons – auf der Suche nach der neuen Wahrheit der vernetzten Welt. Ein großer Teil der verwendeten Argu­mente läuft auf diesen Gegensatz hinaus:

Auf der einen Seite finden wir die Vertreter des Bewahrenden, die sich dem Netz öffnen wollen, aber dabei auf die Fortführung bekann­ter Regulierungs- und Geschäftsmodelle setzen, die erweitert, aber nicht ersetzt werden dürfen. Sie plädieren für die professionelle Inhaltspro­duktion, orientiert an den Kriterien der Aktualität und Relevanz, und halten den Menschen im Mittelpunkt ihrer Betrachtung, z. B. als Jour­nalisten. Der Mensch ist der Ausgangspunkt und gleichzeitig Schutzzone einer veränderten Kommunikations- und Medienwelt. Ihr Credo ist das Rieplsche Gesetz. Es postuliert nun seit vielen Jahrzehnten, dass „[…] die einfachsten Mittel, Formen und Methoden, wenn sie nur einmal einge­bürgert und für brauchbar befunden worden sind, auch von den vollkom­mensten und höchst entwickelten niemals wieder gänzlich und dauerhaft verdrängt und außer Gebrauch gesetzt werden können, sondern sich neben diesen erhalten, nur daß sie genötigt werden, andere Aufgaben und Verwertungsgebiete aufzusuchen.“ Das Neue steht zum Alten im Verhält­nis der Komplementarität, nicht aber der Substitution.

Auf der anderen Seite gibt es die Propheten einer Netzwelt, in der nichts bleibt, wie es ist – kein Medienangebot, kein Geschäftsmodell, keine Gestaltungs- und Eingriffsmöglichkeit der Politik. Diese Welt ist eine Welt aller für alle und aller für einen, nämlich eine Welt des Computers, der Schritt für Schritt, Datei für Datei und Algorithmus für Algorithmus die Gestaltung der Welt übernimmt. Der Mensch ist Teil dieses Prozesses, aber nicht mehr allein Subjekt des Gestaltens, sondern ebenso Objekt der Transformation von Entscheidungsprozessen. Was früher ein Journa­list konnte, das kann heute auch der Algorithmus von Demand-Media.

Jedenfalls lässt sich verkaufen, was auf dessen Grundlage produziert wird. Wenn das Geschäftsmodell fliegt, macht es manch einem wenig aus, dass der Mensch nicht mehr kreativer Urheber allen publizistischen Seins ist, sondern zum Handlager der durch Algorithmen berechneten Prioritäten im Verhältnis von publizistischer Nachfrage zu entsprechenden Angebo­ten wird. Das Credo dieser Position ist beispielsweise das 2009 veröffent­lichte Internetmanifest, das die Veränderungen in 17 Leitsätzen zu fassen sucht, die uns sagen, für die Zukunft gelte „das Internet ist anders“, „Tra­dition ist kein Geschäftsmodell oder „alle für alle“.

In der seit etwa zwei Jahren immer vehementer geführten Debatte um die Zukunft von Medien und gesellschaftlicher Kommunikation können wir gelegentlich den Eindruck gewinnen, es gehe nicht um „alle für alle“, sondern um „jeder gegen jeden“. Erinnern wir uns: Interpretationsfragen sind Machtfragen. Und deshalb müssen Positionen nicht nur öffentlich artikuliert und eingefordert, sondern auch frühzeitig festgezurrt werden, damit nicht jemand daher kommt und seinerseits die Deutungshoheit beansprucht. Das geschieht derweil, und deshalb gibt es für die volatile Entwicklung der Netzgesellschaft so etwas Statisches wie ein „Internet Manifest“, während doch eine „Internet Latenz“ der treffendere Begriff für ein Dokument wäre, das nicht mehr kann als eine Momentaufnahme zu liefern, ein punktuelles Abtasten der kontinuierlichen Veränderungs­prozesse im Netz, ihrer Beobachtungen und Thematisierungen.

Textherrschaft, Deutungshoheit & Wissensordnung

Es ist spannend – auch akademisch herausfordernd – zu begleiten, wie dieser Versuch vonstatten geht. Zu beobachten wie Momentaufnahmen in einem Diskursfreeze festgehaltenen werden, um sie zum Leitsatz der wei­teren Entwicklung und ihres Kampfes um Textherrschaft, Deutungsho­heit und Wissensordnung werden zu lassen. Drei Beispiele mögen zeigen, wie dies derzeit vonstatten geht.

1) In den ersten Wochen des Jahres 2010 tobte in den deutschsprachigen Feuilletons ein heftiger Streit um das neue „Fräuleinwunder“ der Literatur: Helene Hegemann und ihr Roman „Axolotl Roadkill“ haben Schlagzei­len gemacht – erst als Sittenbild einer Generation, dann als Beispiel für das Plagiat in der Literatur. Wenn man sich die Debatte ansieht, dann hat sie vermutlich viel damit zu tun, dass eine von arrivierten Kritikern dominierte Literaturkritik sich einerseits an dem Erfolg eines jungen Mädchens ergötzt, das über wilde Nächte im Berliner Club „Berghein“, über Ficken und Kotzen schreibt. Es hat auch damit zu tun, dass nicht sein darf, was nicht sein kann – die junge Frau, die in vielem ein Gegenentwurf zu dem von der Kritikerkaste entworfenen Literaturmodell ist und dennoch Erfolg hat.

Viel interessanter an dem Beispiel sind aber der Vorwurf des Plagiats und sein aktueller Kontext, der leider in der Debatte kaum ausgearbeitet worden ist. Geht es primär um die Frage, dass Abschreiben ohne Quel­lenangabe nicht okay ist? Nein. Geht es um die verquasten Thesen der webbasierten Intertextualität, mit der die Kritiker, die gerne auch nach den Plagiatsvorwürfen begeistert bleiben wollten, Schludrigkeit in Kon­zeptkunst verwandeln wollten? Nein. Es geht vielmehr um das Selbst­verständnis von Autoren, die einer Generation angehören, mit der wir uns für die Frage nach der Entwicklung des Internet und seiner publizis­tischen Formen auseinandersetzen müssen. Helene Hegemann selbst sagt: „Originalität gibt’s sowieso nicht, nur Echtheit. […] Von mir selber ist überhaupt nichts, ich selbst bin schon nicht von mir.“ Die Autorin fordert das Recht zum Kopieren und zur Transformation ein für ihre Generation, deren Technik im Umgang mit Texten eben so sei, wie sie sei.

Das ist der Anknüpfungspunkt, den Literaturkritik, Journalismus und auch Wissenschaft angreifen müssen. Wer gelegentlich mit Studentinnen und Studenten über den Umgang mit Originaltexten, Quellen und Ver­weisen diskutiert, merkt schnell, dass sich etwas verändert, wie dies unsere Text- und Überlieferungskultur betrifft, unsere bisherigen Vorstellungen von Urheberrecht und Copyright in Frage stellt, also eine der zentralen Errungenschaften der kulturellen Zivilisation des 18. Jahrhunderts. Wenn sich hier ein Paradigmenwechsel abzeichnet, dann ist das auch ein Thema für die Medien- und Kommunikationswissenschaft. Denn das Konzept des geistigen Eigentums ist Voraussetzung für die bisherigen Geschäfts­modelle der Medienwirtschaft, für den Musik- und Literaturbetrieb, auch für einen Journalismus, den wir jenseits festgelegter Ausbildungswege als Profession begreifen wollen.

2)  Welche Schwierigkeiten Akademia mit manchen Teilen der Netz­entwicklung hat, lässt sich am Beispiel Wikipedia dokumentieren. Auch wenn die Online-Enzyklopädie inzwischen von Millionen Menschen gestaltet und genutzt wird, auch wenn es inzwischen seriöse Studien zur Vergleichbarkeit von Wikipedia mit der britischen Excyclopedia Britan­nica oder dem deutschen Duden gibt, spielt Wikipedia in der Wissen­schaft noch immer eine fragwürdige und damit untergeordnete Rolle. Als seriöse und zitable Informationsquelle ist sie weiterhin kaum anerkannt.

Das hat weniger mit tatsächlichen als mit unterstellten Qualitäts­problemen von Wikipedia zu tun. Denn auch hier geht es wieder um Interpretationsfragen, genauer gesagt um Deutungshoheit. Ein egalitärer Ansatz der Wissensproduktion und lexikalischen Weltbeschreibung, wie er Wikipedia auszeichnet, steht der Expertenoligarchie, in der die Weni­gen für die Vielen die Welt erklären, diametral entgegen. Damit repliziert Wikipedia historische Versuche der Wissensegalisierung im Sinne einer neuen Wissensordnung mit ihren jeweiligen Schwierigkeiten. Caspar Hirschi hat in der NZZ (13.02.2010) die Parallele zum „Dictionnaire Universel de Trévoux“ von 1704 gezogen, ein von Jesuiten erarbeitetes Lexikon, das Beiträge aus vielen existierenden Lexika aufgriff, einband und durch eine anonyme Autorenschar weiterverarbeitete. Das Ergebnis dieser frühen lexikalischen Grassroot-Initiative war ein Affront gegen die absolutistische Lexikografie. Sie betrachtete den Leser „wie einen aufge­klärten Freund“, „der mit ihm deliberiert“. Das ist nun ziemlich exakt das Prinzip, dem sich auch die Autorenschaft von Wikipedia verschreibt und das heute unter dem Label „user generated content“ firmiert.

Auch dies ist also ein Thema für uns, für die Medien- und Kommuni­kationswissenschaftler, die wir gleichzeitig Vertreterinnen und Vertreter der Akademia und damit der Expertenherrschaft sind, die derzeit durch das Internet und seine Produktionsformen massiv in Frage gestellt wird. Und wir müssen uns fragen lassen, ob wir eigentlich unserer Rolle und Aufgabe als Beobachter, Analysten und Übersetzer dieser Entwicklungen gerecht werden.

3) Vor einigen Monaten erschien das Harper’s Magazine mit einer grandiosen Eigenwerbung, eine Warnung, die da lautet: „Harper’s Maga­zine 100 % content free“. Die Erklärung dazu: “Everybody gives you ‘con­tent’. But you’ll never find that in Harper’s Magazine. Instead you’ll get literature. Investigative reporting. Criticism. Photojournalism. Provoca­tive adventures. Daring commentary. And truth-telling as only Harper’s Magazine can tell it.” Unabhängig von der Tatsache, dass dies natürlich Eigenwerbung ist, liegt etwas zutiefst Wahres in dieser Anzeige, eine Wahrheit über die Entwicklung der medialen Inhalte in Zeiten des Inter­net. Dabei geht es wiederum um die Herrschaft über Inhalte, diesmal in ökonomischer Hinsicht.

Bei mir löst der Begriff „Content“ inzwischen eine Gänsehaut aus – eine der Abwehr, nicht der Faszination. Seit das Internet die digitale Verwandlung aller Inhalte mit sich gebracht hat, ist alles zu „Content“ geworden. Content steht im Englischen für Inhalt und für Gehalt. Vom ersten gibt es viel, vom zweiten weniger. Inhalte zu produzieren ist leicht, gehaltvolle Inhalte zu produzieren ist schwer, aufwändig und teuer. Das könnte der Grund dafür sein, dass der englische Begriff zum Stellvertreter für Inhalte geworden ist, die über das Internet verbreitet und vermarktet werden. Und diese Konnotation hat sich inzwischen durchgesetzt. Con­tent ist alles und Content ist deshalb oft nichts. Es zählt nicht die Über­zeugungskraft und Originalität des Textes, Bildes, Arguments, es zählt seine Vermarktbarkeit. Und gelingt die nicht, wird Content einfach so auf den Markt geworfen. Das nennen wir dann free content.

Wir erinnern uns noch mal: Interpretationsfragen sind Machtfra­gen. Wenn die Medienwirtschaft heute bevorzugt Content produziert, dann hat das auch damit zu tun, dass die Vermarktung von Inhalten als Geschäftsmodell oberste Maxime ist. Übrigens auch oberste Heraus­forderung im Internet. Es ist ein gewisser Treppenwitz der Netzent­wicklung, dass die Verlage und Medienhäuser, die sich mit Verve dem Content zugewandt und der allumfassenden Vermarktung von Inhalten das Wort geredet haben, nun ziemlich ratlos vor dem Netz stehen, weil ihre Geschäftsmodelle nicht mehr funktionieren. Der Fehler liegt im Anfang: Wer alles über Jahre kostenlos auf den Markt wirft, darf sich nicht wundern, wenn die Menschen alias Kunden lernen, dass sie alles umsonst bekommen. Das ist ein Paradigmenwechsel, der auch im Begriff „Content“ steckt und den viele Medienhäuser und Inhaltsanbieter selbst mit zu verantworten haben.

Auch hierin steckt schließlich eine spannende Herausforderung für die Medien- und Kommunikationswissenschaft. Sie kann sich Gedan­ken machen über die medienökonomischen Rahmenbedingungen und neue Geschäftsmodelle. Sie muss sich den Transformationsprozessen von Textkategorien und Genres zuwenden. Und sie hat auch die Chance und Aufgabe, gelegentlich darauf hinzuweisen, dass Journalismus beispiels­weise etwas anderes ist, als die Inhaltefabriken von Demandmedia liefern. Da war doch noch etwas, das gelegentlich aus dem Blickfeld rutscht – die gesellschaftliche Aufgabe der Medien. Die sachlichen, zeitlichen und sozialen Synchronisationen von Gesellschaft, die über Medien geleistet werden (sollten).

Funktionen und Codes der Netzkommunikation

Schauen wir doch mal in einem Streifzug durch die Welt des Web, wie das heute gelingt. Dort gibt es viele neue Formen der Präsentation, Auf­bereitung und Vernetzung von Inhalten. Eines aber haben sie gemeinsam. Alles, was mit Veröffentlichung zu tun hat – im Internet noch mehr als in traditionellen medialen Formen – ist primär aufmerksamkeitsgetrieben. Eine Botschaft ist darauf gerichtet, wahrgenommen zu werden, im Wett­bewerb um Aufmerksamkeit gegen andere Botschaften zu bestehen, ja diesen zu gewinnen. Ob das aus professionellem oder privatem Interesse, aus sozialem Engagement oder aus Gründen der Selbstinszenierung, aus Aufklärungs- oder Deutungsinteresse geschieht, ist dabei erst einmal irre­levant. Innerhalb dieses übergeordneten Systems einer Aufmerksamkeits­ökonomie, die durch den Wettbewerb um Beachtung auf einem globalen Markt der Informationen befeuert wird, bleiben allerdings einige Grund­unterscheidungen bestehen, die Orientierung im Wandel bieten können.

Auch im Internet gibt es guten Journalismus. Seine Funktion ist es, einen Beitrag für die sachliche, soziale und zeitliche Synchronisation unserer Gesellschaft zu liefern. Sein Mittel ist die Thematisierung oder das Agenda Setting, das Themen in die Welt bringt, die für die Welt und ihre Menschen relevant sind. Und sein Leitcode ist aktuell/nicht aktuell. Wenn wir uns als Bürger, Konsumenten, soziale Gefährten jeden Tag neu ver­ständigen wollen, brauchen wir diesen Journalismus, der Recherche, inve­stigatives Arbeiten und eine professionelle Beobachtungsgabe sowie ein entsprechendes Einschätzungs- und Einordnungsvermögen voraussetzt.

Die Aktualität ist dabei der zeitliche Filter, mit dem auch der Jour­nalismus im Netz seine Auswahl trifft, Themen für die Leser selektiert. Und zuweilen ist dieser Filter durch die Beschleunigung von der Tages- auf die Stunden- auf die Minuten- auf die Sekundenaktualisierung so eng geworden, dass nur noch der Zeitfaktor eine Rolle spielt und andere Selektionskriterien auf der Strecke bleiben. Schnelligkeit schlägt Sach­genauigkeit und Relevanz. Im Netz wird das zum Teil so bleiben. Aber in den traditionellen Medien erleben wir seit einiger Zeit eine erfreuliche Neubesinnung auf die sachliche und soziale Aktualität in Form von debattenorientierter Hintergrundberichterstattung, längeren Stücken, fast literarisch erzählenden Reportagen.

Die Mühlen der Wissenschaft mahlen langsamer. Ihr geht es seit jeher nicht um Aktualität, sondern um Wahrheit. Sie liefert neue Erkennt­nisse durch Forschung. Sie werden auch erst durch Veröffentlichung den Menschen zugänglich, die von ihnen profitieren sollen. Ebenso wie der Journalismus ist auch die Wissenschaft durch das Internet mit erheblichen Veränderungen konfrontiert. Die Debatte um „Open Access“ hat gezeigt, wie viele Berührungsängste gegenüber den Transformationsprozessen im Internet bestehen, wie geschickt ökonomische Interessen durch den alles schlagenden Begriff der Forschungsfreiheit verbrämt werden und wie sehr Publikationsstrategien auch Machtstrategien sind.

In all diesen Punkten besteht aus meiner Sicht wenig Hoffnung auf Stillstand und Schutz des Status quo. Und das ist gut so. Wo Forschung öffentlich subventioniert wird, sollten ihre Ergebnisse der Öffentlichkeit kostenfrei zur Verfügung gestellt werden. Wo Wissenschaftsverlage auf den gedruckten Journals bestehen, um Publikationsplätze zu verknappen und damit die Nachfrage zu erhöhen, damit sie ihre Zeitschriften zu hor­renden Preisen verkaufen zu können, die sich dann wiederum viele Uni­versitätsbibliotheken nicht mehr leisten können, sehe ich keinen Grund für Bestandsschutz. Open Access muss den gleichen Qualitätskriterien des „double blind peer review“ unterliegen, wie sie bei gedruckten For­schungsergebnissen gelten. Dann enthierarchisiert Open Access das aka­demische Publikationswesen, beschleunigt die Veröffentlichung neuer Forschungsergebnisse und verbilligt akademische Informationen für eine breitere Öffentlichkeit und die publizierenden Wissenschaftler selbst. All das wird sich ändern, aber eines bleibt: Der Code der Wissenschaft lautet wahr/unwahr. Ihr Mittel ist die Erforschung unbekannter Zusammen­hänge. Und ihre Funktion ist es, Erkenntnis und Fortschritt (Innovation) in die Welt zu bringen.

Auch die Literatur hat vor vielen Jahren die langsame, aber stetige Wanderung ins Netz angetreten. Wenn wir heute am Beispiel von Helene Hegemanns Buch über „intertextuelle Fragmenthaftigkeit“ sprechen, dann ist das nur ein neu besetztes Feld eines relativ weit verzweigten Koordina­tensystems, in dem Literatur und Kunst sich im Netz ihren Platz erobern. Ein anderes Feld wird belegt durch die Online-Aufbereitung literarischer Klassiker, wie sie beispielsweise das Projekt „Gutenberg“ bei Spiegel.de bietet. Websites für Internetliteratur, wie www.berlinerzimmer.de, bieten neue Plattformen für literarische und künstlerische Vernetzung, polyco­dierte Texte, Visualisierung von Sprache bis hin zu computergenerierter Poesie und Kunst.

Auch hier finden wir innovative, zuweilen überraschende und unge­wöhnliche Formen und Präsentationsarten von Literatur. Aber auch in diesem Feld bleibt der Leitcode erhalten. Für Literatur (als Teil des Kunst­systems) verläuft er entlang der Differenzierung zwischen schön/hässlich. Dabei kann die Erzählung eines grauenhaften Vorgangs ebenso schön sein wie das Bild eines hässlichen Menschen. Umgekehrt vermag die quälend zusammengestückelte Erzählung einer erfüllten Liebesgeschichte zuwei­len ebenso wenig ästhetisch zu überzeugen wie das naturalistische Bild einer schönen Landschaft. Der Leitcode ist nämlich in ein historisches Programm sozialer Wahrnehmung und ästhetischen Empfindens einge­bettet, das sich bekanntlich ändern kann (und vermutlich ändern muss, wollen wir nicht in unserer Wahrnehmung verarmen oder einfrieren).

Die Funktion von Literatur liegt darin, der Gesellschaft eine in diesem Sinne schöne Erzählung anzubieten, die weder aktuell noch wahr sein muss, beides aber sein darf. Sprache ist für Literatur das zentrale Verwirklichungsmedium einer nie abgeschlossenen Welterzählung, so wie das Bild in all seinen Formen Verwirklichungsmedium einer nie abgeschlossenen Weltskizze ist. “We who draw do so not only to make something observed visible to others but also to accompany something invisible to its incalculable destination.” So beschreibt es John Berger, Autor von Harpers’s Magazine, in einem Essay über seine Zeichnungen für eine verstorbene Freundin.

Doch das Internet bringt auch gänzlich neue Arten und Formen von Texten hervor. Ich möchte unter dem Begriff der Individualpublizistik zusammenfassen, was im Netz eher als „user generated content“ geführt wird – ein untauglicher Begriff, weil ich gerade die Generalisierungen von „content“ vermeiden möchte. Zu dieser Text- oder Inhaltsgattung gehören vor allem Weblogs, aber auch die Plattformen für Bürgerjour­nalismus (zum Beispiel die südkoreanische Website www.ohmynews.com) und individuelle Websites, die nicht nur statische Informationen enthalten, sondern dem Betreiber Aktualisierungen über neu eingestellte Texte, Bilder etc. ermöglichen. Diese Individualpublizistik verbindet sich inzwischen mit traditionellen publizistischen Formen, beispielsweise in der Integration von Bürgerjournalismus in die Websites von Zeitungen. Der britische Guardian ist dafür ein herausragendes Beispiel.

Diese Entwicklung hat besonders viel Hoffnungen und Sorgen hervor­gerufen. So sprechen die Netzoptimisten von der Demokratisierung der Inhalte, der kritischen Nutzerbeteiligung, wie manche Medientheorien (z. B. das Epische Theater Bertolt Brechts oder Hans Magnus Enzens­bergers Medienbaukasten) sie schon vor Jahrzehnten gefordert haben. Die Netzpessimisten befürchten, dass es zwar immer mehr Inhalte, aber immer weniger Gehalt im Netz gibt, wenn jeder sein eigener Autor und Journalist wird. Beide haben Recht. Beides gibt es im Internet. Und des­halb gibt es keinen Grund zur Sorge. Zwar erleben wir längst, wie Inhalte aus der professionellen Produktion zur Laienpublizistik abwandern, wie Zeitungen dünner werden, das Internet aber immer voller und undurch­sichtiger. Aber es gibt sie noch, die spezifischen, ja exklusiven Funktionen bekannter Inhaltskategorien. Und es wird sie auch im Netz weiter geben. Vielleicht in geringer Zahl, wahrscheinlich anders finanziert als bislang, aber doch beständig, im Kern resistent gegen all das, was im Netz ent­steht, sich verändert und komplementär zu diesem.

Wenn wir nach einem Leitcode für die Individualpublizistik suchen, dann lautet er subjektiv/intersubjektiv. Wer im Netz publiziert, tut dies erst einmal aus einer individuellen Motivation heraus und im Eigeninte­resse. Das führt manchmal zu ganz furchtbaren Ergebnissen, manchmal aber auch zu Texten und Inhalten, bei denen man nicht weiß, ob sie nicht doch Journalismus, Wissenschaft oder Literatur sind, auch wenn aller Anfang ein Blog oder individuelle Betroffenheit war. Ihre Funktion ist es, den „spontanen Ausdruck eines momentanen Gedankens“ zu ermögli­chen, wie es der US-Starblogger Andrew Sullivan beschreibt. Ihre Inhalte sind daher kontingent und extrem porös. Es gibt keine erlaubten und unerlaubten Grenzen und Referenzen. Alles ist transitorisch. Sprache ist dabei „work in progress“, ebenfalls spontan, subjektiv, oft frei von Formen und Vorgaben – „writing out loud“ wie Andrew Sullivan es nennt.

Was vom Tage übrig bleibt

Es gibt also eine ganze Menge an Themen, Fragestellungen und Heraus­forderungen, die vom Tage oder auch dieser Tagung übrig bleiben. An vielen davon arbeiten viele von uns. Es liegt im modernen, internationa­lisierten und auf akademischen Wettbewerb ausgerichteten – sprich: öko­nomisierten – Wissenschaftssystem begründet, dass viele Fragestellungen auf sehr spezielle, kleinteilige Aspekte reduziert sind und die Forschung auf diese ausgerichtet wird. Aus meiner Sicht ist es allerdings wichtig, auch das Große Ganze dabei nicht aus den Augen zu verlieren, die gesell­schaftliche Einordnung der Forschung, die wir täglich alle betreiben.

Wissen wir also, wohin die Reise geht? Wissen wir, welchen Weg wir wählen und welche Richtung wir einschlagen müssen? Es gibt eine Vielzahl brauchbarer Wegweiser aus der bisherigen Forschung zu Ent­wicklung und Bedeutung des Internet. Können wir deshalb schon sagen, was vom Tage übrig bleibt? Die gedruckte Zeitung, das Fernsehvollpro­gramm? Der Desktop-PC? Qualitätsjournalismus? Etwas wie common sense in der Verständigung unserer Gesellschaft?

Dafür ist es wahrscheinlich noch zu früh. Wir sind im neuen Zeitver­lauf des Internet-Tageskalenders wahrscheinlich gerade mal beim Mittag angekommen. High Noon würden die dramatisch veranlagten Teilnehmer der Debatte wohl sagen. Das macht uns Wissenschaftlern das Geschäft nicht leicht, aber umso spannender. Denn auf dem Wege der Erforschung einzelner Aspekte stoßen wir immer wieder auf die glücklichen, unerwar­teten Entdeckungen, die am Rande des Weges liegen. „Serendipity in the digital Age“ hat der Economist das kürzlich genannt.

Der Wissenschaft liegt eher die sachliche Analyse, die beim Internet auch auf Modell- und Theoriebildung ausgelegt sein muss. Und auch diesen Zugang brauchen wir. Ich will nicht von einer Theorie der Netz­gesellschaft sprechen, denn den Versuch zu diesem Unterfangen haben ja schon einige Kolleginnen und Kollegen im Ansatz gemacht und sind dabei mehr oder minder erfolgreich. Aber es gibt Bedarf an theoretischer Einbettung, an einer Analyse der Transformationsprozesse unserer Medi­enangebote und Kommunikationsverhältnisse auf übergeordneter Ebene. Ob es in ökonomischer Perspektive die Frage nach Geschäftsmodellen und Wertschöpfungsketten ist. Ob es in politischer und regulatorischer Hinsicht um die Frage nach der Ordnung des Netzes und der in ihm verbreiteten Inhalte geht. Ob wir versuchen, veränderte Akteursrollen der Kommunikatoren und Rezipienten und die derzeit entstehenden Hybridstrukturen zu modellieren. Oder ob wir uns bemühen, aus der Totalgeneralisierung von „Content“ im Internet wieder ein differen­zierteres Konzept der veränderten Genres und Gattungen abzuleiten, die womöglich mit tradierten medienkulturellen Vorstellungen nur noch wenig zu tun haben.

All das obliegt der Wissenschaft, besonders der Medien- und Kom­munikationswissenschaft. All das ist komplex wenn nicht kompliziert. Aber es ist auch eine unglaublich spannende Herausforderung einer Zeit, die in ihrem Kern durch technologische Innovation im Feld der gesell­schaftlichen Kommunikation gekennzeichnet ist und verändert wird. Wir stehen sozusagen im Brennpunkt dieser Entwicklung. Wenn es uns gelingt, akademisch fundierte Interpretationsangebote an alle diejenigen zu machen, die von diesem Wandel betroffen sind, lösen wir unser Selbst­verständnis als eine Gesellschafts- und Kulturwissenschaft prägnant ein.

Was dann vom Tage übrig bliebe, wäre unsere Analysekompetenz und auch ein Teil unserer Deutungshoheit. Interpretationsfragen sind – wie gesagt – Machtfragen. Ein Schelm, wer als Wissenschaftler behauptete, es sei für ihn ein grundsätzlich unerfreulicher Gedanke, ein Teil unserer Deutungshoheit und Wissensordnung könne ins digitale Zeitalter hinü­ber gerettet werden.

Erstveröffentlichung: Studies in Communication Sciences 10/2 (2010) 191–202

Print Friendly, PDF & Email

Schlagwörter:, , , , , , , , , ,

  • Beim Überfliegen des Textes lese ich, in der Wissenschaft gehe es “seit jeher um Wahrheit”.
    Wie kommt die Autorin zu dieser verfehlten Behauptung? Offenbar kennt sie die herrschende Wissenschaftslehre nicht.

  • Chris

    …tja, Theorie und Praxis eben!

Send this to friend