Zu den Rahmenbedingungen einer Dreiecksbeziehung in den Geisteswissenschaften unter digital-vernetzen Bedingungen.
von Prof. Dr. Stefan Gradmann,
IBI, Humboldt Universität
E-Mail: stefan.gradmann@ibi.hu-berlin.de
E-Mail: Stefan.Gradmann@PROJECT-CONSULT.com
Webseite:http://fakultaeten.hu-berlin.de/philfak1/institute/ibi
Der Beitrag erschien ursprünglich im Sammelband 'What the Hell Is Quality', Campus Verlag Frankfurt, 2008. Stefan Gradmann ist seit 2007 Mitglied im PROJECT CONSULT Beraterteam.
„Es ist eben kein beiläufiger, sondern ein wesentlicher Unterschied zwischen den prototypischen Naturwissenschaften und den prototypischen Geisteswissenschaften, daß sie sich in ihrem Kommunikationsverhalten an unterschiedlichen Leitgattungen und deren unterschiedlichen Gattungsgesetzen orientieren. Das ergibt sich zwangsläufig aus den Gegebenheiten des wissenschaftlichen Sprachverkehrs.“ (Weinrich 1995, 170)
Elektronisches Publizieren und die zwei Wissenschaftskulturen
„Die Wissenschaftler trauen der Online-Publikation nicht.“ Mit diesem lapidaren Satz fasste Dieter E. Zimmer (2001) die Vorbehalte zusammen, die zum damaligen Zeitpunkt noch in den allermeisten Wissenschaftsdisziplinen gegenüber dem elektronischen Publizieren bestanden.
Inzwischen sind jedoch zumindest die von Zimmer damals als besonders kritisch eingestuften Einflussgrößen „Echtheit, Aufbewahrung und Dauerhaftigkeit“ offensichtlich soweit beherrschbar geworden, dass viele Wissenschaftler die mangelnde Authentizität, Archivierbarkeit und Persistenz der digitalen Publikationsform nicht mehr als grundlegendes Manko empfinden: in weiten Teilen der ‚harten’ Wissenschaften ist das elektronische Publizieren inzwischen dabei, sich als primäre Publikationsform zu etablieren. Die großen kommerziellen Verlagsunternehmen im Bereich STM (Science, Technology, Medicine) wie etwa Elsevier oder Springer haben inzwischen den Umstieg aus rein druckbasierten Geschäftsmodellen der Zeitschriftenpublikation in digitale Produktions- und Verwertungsmodelle so weitgehend vollzogen, dass die weiter parallel zur digitalen Produktions- und Verwertungskette angebotene Druckpublikation demgegenüber mitunter schon den Charakter eines Derivats, eines Sekundärproduktes annimmt.
Parallel zu diesem Prozess hat sich ebenfalls im STM-Bereich in den vergangenen Jahren ausgehend von dem Kampfbegriff Open Access eine heftige Debatte um die Frage entwickelt, wie die Bedingungen des Zugangs zu mit öffentlichen Mitteln erarbeiteten Forschungsergebnissen und darauf bezogenen Publikationen gestaltet sein müssen, um eine optimale Verbreitung dieser Publikationen und einen möglichst ungehinderten Zugang zu Forschungsergebnissen (und in Zukunft zunehmend auch Primärdaten aus dem Forschungskontext) zu gewährleisten. Die überreich dokumentierte Debatte um Open Access war anfangs stark von publikationsökonomischen Aspekten und der vordergründigen Sorge bestimmt, die Etats wissenschaftlicher Bibliotheken könnten bald nicht mehr ausreichend sein, um angesichts der dramatisch gewachsenen Abonnementspreise und der Monopolstellung einiger Anbieter eine Literatur-Grundversorgung in den STM-Fächern überhaupt noch sicherstellen zu können. Sehr bald jedoch verschob sich der Fokus dieser Diskussion zunehmend hin zu der Frage, wer eigentlich für die technische und inhaltliche Qualität wissenschaftlicher Veröffentlichungen einsteht – diese Rolle nämlich reklamierten die großen Copyright-Verwerter als ihre originäre Leistung und als Rechtfertigung zugleich für Endpreise, die eben neben den gerade unter digitalen Produktionsbedingungen zunehmend marginalen Herstellungskosten vor allem auch die nunmehr als Hauptfaktor eingestuften Verfahrenskosten für die Qualitätssicherung beinhalten.
Eng verbunden schließlich mit den Aspekten der Qualitätssicherung und in der jüngsten Phase derDiskussion um Open Access zunehmend beherrschend ist die Frage nach der Beziehung zwischen Publikationswegen und –verfahren auf der einen und Verfahren für die Bemessung wissenschaftlicher Relevanz oder zumindest Wirkung (impact) und daraus abgeleiteter Reputation von Forschenden und Institutionen auf der anderen Seite. Das ist nicht weiter verwunderlich, denn die Wahl des Publikationswegs nimmt existentielle Dimensionen an, wenn – wie inzwischen mancherorts beispielsweise in medizinischen Fakultäten praktiziert – die Impact-Werte der Zeitschriften auf den Literaturlisten der Kandidaten fast mechanisch auf die Gestaltung von Berufungslisten durchschlagen. Neben die Auseinandersetzung mit den kommerziellen Rechteverwertern wie Elsevier im Zusammenhang mit Open Access tritt nun also zunehmend auch die Frage nach der Rolle von Produkten wie Web of Science oder Scopus und die Suche nach praktikablen und vor allem transparenten, kontrollierbaren Alternativen.
Der Einzug digitaler, netzbasierter Szenarien wissenschaftlichen Arbeitens hat also im Bereich der hard sciences drei eng verbundene Entwicklungen mit einer sehr lebhaften Diskussion im Umfeld der Kernbegriffe Publikation, Qualität und Reputation gezeitigt.
Von alledem ist in den Geisteswissenschaften wenig zu bemerken. Elektronisches Publizieren ist hier unverändert eher ein Nischenthema, Open Access – zumindest wie im STM-Bereich diskutiert – allein schon wegen des weit geringeren Stellenwertes der Zeitschriftenpublikationen kaum von Interesse und der Komplex Qualität/Relevanzevaluation wird – wenn überhaupt - als Bedrohung wahrgenommen, wie in der folgenden Äußerung von Nida-Rümelin (2008):
„Im Zuge der Reformen wird ein Forschungs- und Wissenschaftsbegriff paradigmatisch, der den Geisteswissenschaften weitgehend fremd ist. Forschung wird in Gestalt großer, 50 oder 200 Forscher einschließender Cluster gefördert, die Forschungsleistung wird nach Drittmitteleinwerbung und veröffentlichten Papers in amerikanischen Review Journals [sic!] bewertet. Die größere Buchpublikation - für die geisteswissenschaftliche Forschung nach wie vor zentral [...] und für ihre breitere Wahrnehmung (und damit für ihre gesellschaftliche und politische Relevanz) unverzichtbar - wird entwertet. Publikationen in der Muttersprache oder in einer anderen Sprache als Englisch zählen nicht mehr. Die stilistische Sorgfalt - charakteristisch für geisteswissenschaftliche Publikationen - schwindet, die „Schrumpfform“ des Amerikanischen, wie sie in internationalen englischsprachigen Zeitschriften dominiert, nivelliert die geisteswissenschaftliche Terminologie, klassische Quellen und fremdsprachige Texte werden lediglich in ihren englischen Übersetzungen rezipiert etc. Letztlich mündet diese Entwicklung in eine Art Selbstkolonialisierung der reichhaltigen und vielfältigen geisteswissenschaftlichen Landschaften in Europa.“
Neben dem Befremden ob der „veröffentlichten Papers in amerikanischen Review Journals“ als Evaluationsfaktor und Förderkriterium treten hier gleich noch zwei weitere Grundmotive zutage, die eine spezifisch andere Grundkonstellation von Publikation, Qualität und Reputation vermuten lassen: die Fremdheit kollaborativer Arbeitsformen („50 oder 200 Forscher einschließende Cluster“) und das berechtigte Unbehagen an einem angelsächsisch dominierten Wissenschaftsparadigma, das in der Tat nicht-englischsprachige Veröffentlichungen nur mehr als Marginalien ohne wirklichen impact zulässt. Der Grundtenor des Zitates jedoch ist kulturkritischdefensiv und lässt erst einmal auf eine konservierend-abwehrende Haltung der Geisteswissenschaften schließen.
Dieser Befund wird unterstützt durch die Analyse des Unterausschusses für elektronisches Publizieren der DFG, wie etwa in der folgenden Passage: „Innerhalb der Geisteswissenschaften besteht der Vorbehalt, dass Online-Publikationen keine hinreichend seriösen Publikationen sind und deshalb wenig Renommee einbringen.“ DFG (2006, 2)
Und doch haben die Geisteswissenschaften durchaus auf ihre Weise auf das Aufkommen digitaler, netzbasierter Arbeitsszenarien reagiert: vor allem im Bereich der Editions- und Quellenwissenschaften belegen Projekte wie die digitale Bibliothek Perseus, TextGrid oder HyperNietzsche eine durchaus rege Auseinandersetzung mit dem Potential digital basierter Arbeitsformen.
Und auch die medientheoretischen Ansätze vor allem von und im Gefolge von Norbert Bolz oder die vornehmlich in den neunziger Jahren des letzten Jahrhunderts grassierende und teilweise fast schon inflationäre Obsession mit Hypertext in weiten Bereichen der Textwissenschaft, personalisiert in der Galionsfigur Friedrich A. Kittler, belegen eine teilweise schon sehr früh einsetzende Faszination zumindest von Teilen der Geisteswissenschaften durch digital basierte Arbeitstechniken und digital konstituierte Objekte.
Vielleicht am weitesten ging in diesem Sinne Cramer (2001), der in einem Vortrag auf dem Germanistentag unter dem Titel „Für eine Textwissenschaft des Digitalen“ die folgende, recht radikale These aufstellt:
„Computer und Internet basieren auf Code, d.h. auf Text. Auch alles „Multimediale“ des Computers ist textuell gespeichert und prozessiert. [...] Es gibt im Computer nichts als Schrift, woraus folgt, daß Schrift, Text der Schlüssel zum strukturellen Verständnis des Computers und der Digitalisierung analoger Zeichen ist. Der Prozeß der Digitalisierung von Zeichen ist unzweifelhaft der größte Verschriftlichungsprozeß in der Geschichte der Menschheit.“
Hier vollzieht sich eine frappante Rollenverkehrung von Diskurs und Instrument: der Computer, gemeinhin als Hilfsmittel wissenschaftlicher Tuns gesehen, wird hier als Gegenstand (text-) wissenschaftlicher Arbeit apostrophiert, das Corpus der Philologie erweitert sich um ihr vermeintliches digitales ‚Instrument’ ...
Mag auch dies letzte Beispiel extrem gelagert sein, so illustriert es doch, wie andersartig die Annäherung der Geisteswissenschaften an digital basierte Arbeitsformen verläuft: sie ist fixiert auf digitale Informationsobjekte, auf ‚Dokumente’ – und nicht primär auf deren Veröffentlichungsmodus. Das Verständnis dieser Andersartigkeit wiederum – so die Kernthese dieses Beitrages – ist Voraussetzung für eine adäquate Bestimmung des spezifischen Konstellation von Publikation, Qualität und Reputation in den Geisteswissenschaften. Und insofern ist an dieser Stelle ein genauerer, systematischer Blick erforderlich auf einige der Veränderungen, die durch den Einzug digitaler und netzbasierter Plattformen in das Informationskontinuum von Wissenschaft verursacht wurden und werden.
Diese Veränderungen lassen sich als ein mehrfacher Paradigmenwechsel beschreiben, der drei Konstanten der traditionellen Produktions- und Rezeptionskette betrifft: die linear/zirkulär organisierten Verfahrenskette, die starke funktionale Prägung durch traditionell etablierte Kulturtechniken und zuletzt die Idee eines monolithisch verfassten ‚Dokuments’ selbst. Und dieser dreifache Paradigmenwechsel hat – wie in den folgenden Abschnitten zu zeigen sein wird – spezifische Folgen für die Geisteswissenschaften.
Die digitale Neuformation des wissenschaftlichen Informationskontinuums
Will man die tief greifenden Folgen der mit dem Einzug digitaler und netzbasierter Plattformen einher gehenden Veränderungen begreifen ist es sinnvoll, sich die Grundzüge der wissenschaftlichen Produktions- und Rezeptionskette vor Augen zu führen, wie sie über Jahrhunderte in der buchgeprägten Wissenschaftskultur weitgehend konstant waren. Sie sind in der untenstehenden Abbildung 1 schematisiert dargestellt.
Abb. 1: Das traditionelle Informationskontinuum
In diesem traditionellen Ablauf waren typischen Stationen wie ‚Verfassen’, ‚Begutachten’, ‚Publizieren’, ’Organisieren’, ‚Rezipieren’, ‚Zitieren’ und ‚Annotieren’ weitgehend mit Hilfe weniger stabiler Kulturtechniken (und mit den Kernoperationen ‚Lesen’ und ‚Schreiben’) konstituiert, und die linear organisierte Reihenfolge der Stationen war weitgehend starr und wenig Veränderungen unterworfen. Diese traditionelle Ablaufkette war um das Informationsobjekt ‚Buch’ zentriert, das darum in die Mitte des Kreises gesetzt ist.
Nach Einzug digitaler Medien und Arbeitsinstrumente dann blieb diese Funktionskette in einer ersten Phase praktisch unverändert, einzig die Aktivitäten in deren einzelnen Stationen selbst wurden mit digitalen Mitteln nachgebildet, wie in Abbildung 2 angedeutet.
Abb. 2: Das wissenschaftliche Informationskontinuum im Emulationsmodus
Das solcherart in den Emulationsmodus versetzte Informationskontinuum hat gewisse Ähnlichkeiten mit der Inkunabelkultur in den ersten Jahrzehnten nach Erfindung des Buchdrucks: so wie diese eine Zeitlang noch die Eigenschaften mittelalterlicher Folianten konservierte, erhielt (und erhält zum Teil immer noch) jene die typischen Eigenheiten der traditionellen Ablaufkette. Auch das für dies Stadium zentrale elektronische Informationsobjekt emuliert in druckähnlichen Formaten wie PDF noch weitgehend die Eigenschaften des Informationsträgers ‚Buch’. Die Charakteristika des digital basierten Mediums werden in diesem Stadium noch nicht wirksam, die elektronischen Mittel werden noch ausschließlich zur Nachbildung traditioneller Funktionen verwendet: insofern biete sich neben dem Terminus ‚Emulation’ die Beschreibung als ein elektrifiziertes Informationskontinuum an.
Die erste wirklich qualitative Veränderung vollzieht sich dann im Übergang zu einer dritten Phase, deren Charakteristika und mit diesen verbundene offene Fragen in der untenstehenden Abbildung 3 angedeutet sind. Der Übergang zu dieser dritten Phase, in der einzelne Schritte innerhalb des immer noch weitgehend intakten linearen Funktionsparadigmas nunmehr mit genuin digitalen Mitteln modelliert und damit substantiell verändert werden, ist derzeit in vollem Gange und je nach Wissenschaftsdisziplin unterschiedlich weit fortgeschritten. Einige ausgewählte Charakteristika dieser dritten Phase sind mitsamt den sich daran knüpfenden Fragen in der untenstehenden Abbildung 3 skizziert.
Abb. 3: Digital konstituierte Schrittfolge im traditionellen Funktionsparadigma
Das Verfassen wissenschaftlicher Dokumente beispielsweise wandelt sich dabei zunehmend zum Generieren von Inhalten in einer XML-Syntax mitsamt zugehöriger Präsentation in XSLT oder vergleichbaren Prozessierungstechniken. Der Begutachtungsprozess wandelt sich zu einem mehr oder minder öffentlichen Verfahren den digitalen Annotation. ‚Publizieren’ wird dann gleichbedeutend mit dem Stabilisieren eines Dokumentinhalts, seiner Versionierung, sowie dem Hinzufügen eines Identifikators. ‚Zitieren’ beinhaltet dann das Identifizieren des referenzierten Informationsobjektes und das Verweisen auf Mikrostrukturen innerhalb dieses Objektes – wobei offen ist, inwieweit die Teilreplikation des zitierten Kontexts (wie traditionell üblich) unter diesen Bedingungen noch erforderlich/sinnvoll ist, beziehungsweise inwieweit es sich nunmehr ausschließlich um eine Referenzierung handelt. Unklar bleibt bei alledem, wieweit der Begriff ‚Lesen’ noch für die Beschreibung der Rezeptionsprozesse sinnvoll ist. Und gänzlich unklar ist, wie lange die Bibliotheksmetapher noch für die Beschreibung der gewandelten Organisationsformen für digitale Informationsobjekte angemessen bleibt.
Bei alledem schwindet rapide die funktionsprägende Kraft der traditionellen Kulturtechniken an den einzelnen Stationen der Kette. Dies ist der erste Paradigmenwechsel, und er hat weitreichende Folgen an verschiedenen Stellen des wissenschaftlichen Informationskontinuums: die Tatsache etwa, dass das ‚Verfassen’ eines digitalen Dokuments zunehmend nicht mehr sinnvoll vom (analogen) Schreibvorgang her gedacht werden kann und dass dabei eine zunehmend konsequente Trennung der inhaltlichen von den formal-gestalterischen Elementen stattfindet, hat weitreichende Rückwirkungen auf das Konzept der Autorschaft selbst. Ein weiteres Beispiel ist der Publikationsvorgang, der nun nicht mehr über die Drucklegung definierbar ist, sondern völlig neu konstituiert und kollektiv verankert werden muss (dementsprechend ausgeprägt ist derzeit in manchen Fällen die Unsicherheit bezüglich der Frage, wann denn ein digitales Dokument als ‚veröffentlicht’ anzusehen sei!)
Doch trotz dieses ersten Paradigmenwechsels bleiben auch in dieser Ausprägung noch wesentliche Charakteristika des traditionellen Informationskontinuums erhalten: es bleibt linearzyklisch konstituiert und kreist um ein monolithisches Informationsobjekt, das ‚Dokument’.
Diese beiden letzten Charakteristika nun dürften in einer schon am Horizont erkennbaren Phase tangiert werden, deren wesentliche Eigenschaften in der untenstehenden Abbildung 4 angedeutet sind.
Abb. 4: Ein de-konstruiertes Informationskontinuum
In dieser zukünftigen Phase vollziehen sich zwei weitere grundlegende Paradigmenwechsel. Zum einen können die Stationen des früheren linear-sequentiellen Kreislaufs in beinahe beliebige, netzförmige Beziehungen zueinander gesetzt werden, wie sich dies bereits heute beispielsweise in den Verfahren des public reviewing andeutet, in denen der Begutachtungsprozess zu einer mehr oder minder öffentlichen Annotationsform im Anschluss an die eigentliche Veröffentlichung wird. Ein anderes Beispiel sind Rezeptionsprozesse bezogen auf sogenannte preprint Versionen von erst später im kanonischen Sinne veröffentlichten Dokumenten. Die Funktion der „bibliothekarischen“ Organisation von Informationen schließlich muss auch heute schon neben den Publikationen selbst das Verwalten von Annotationen mit im Auge haben. Die Rekombinierbarkeit der zuvor in linearen workflows geordneten Teilschritte wird jedoch noch systematischere Ausmaße annehmen.
Folgenreicher noch ist ein zweiter Prozess, in dem das zentrale Informationsobjekt ‚Dokument’ seinen monolithischen Charakter verliert und selbst zu einem vernetzt konstituierten Objekt-Cluster mit zunehmend unscharfen Rändern wird. Van de Sompel/Lagoze (2007) haben diese Tendenz bezogen auf die an sich wenig komplexe Publikationsform des Zeitschriftenaufsatzes folgendermaßen beschrieben:
“One major challenge to the existing system is the change in the nature of the unit of scholarly communication. In the established scholarly communication system, the dominant communication units are journals and their contained articles. This established system generally fails to deal with other types of research results in the sciences and humanities, including datasets, simulations, software, dynamic knowledge representations, annotations, and aggregates thereof, all of which should be considered units of scholarly communication.”
Und Crane (2006) akzentuiert diese Diagnose mit Blick auf die heute schon denkbaren Informationsarchitekturen auf Basis massenhaft digitalisierter Monographien:
“Most digital libraries still mimic their print predecessors, treating individual objects – commonly chunks of PDF, RTF/Word, or HTML with no standard internal structure – as its constituent units. As digital libraries mature and become better able to extract information (e.g., personal and place names), each word and automatically identifiable chunk of words becomes a discrete object. In a sample 300 volume, 55 million word collection of nineteenth-century American English, automatic named entity identification has added 12,000,000 tags. While this collection focuses on name rich historical materials and includes several reference works, this system already discovers thousands of references to named entities in most book length documents. We thus move from single catalogue entries with a few hundred words to thousands of tagged objects – an increase of at least one order of magnitude with named entities and of at least two orders of magnitude when we consider each individual word as an object.”
Und doch beschreibt Crane einen noch vergleichsweise leicht fassbaren Zustand, in dem die Dokumentgrenzen durch die ursprüngliche Medienbindung der digitalisierten Monographie noch garantiert und leicht rekonstituierbar sind. Ganz anders verhält es sich im Falle komplexer, genuin digitaler Dokumente ohne entitätskonstitutive Medienbindung und ohne kulturell prädeterminierte Merkmale der Internstruktur (wie beispielsweise eine ‚Seitenzählung’): hier wird die Frage nach der Konstitution der digitalen Dokumententität, nach ihren Grenzen und ihrer Internstruktur zu einem vitalen Problem. Und dieser dritte Paradigmenwechsel, die De-Konstruktion des Dokumentbegriffes unter digital-vernetzen Bedingungen, trifft die Geisteswissenschaften gleichermaßen „ins Herz“ und dies gerade auch hinsichtlich der Kernbegriffe Publikation, Qualität und Reputation, verändert er doch grundlegend Produktions- und Veröffentlichungsbedingungen und dabei insbesondere die Bedingungen der Rezeption und der Weiterverwendung geisteswissenschaftlicher Dokumente, indem er die grundlegenden Bedeutungsmodi von Dokumenten als komplexen Zeichen selbst tangiert.
Insofern ist als letzte Voraussetzung für Aussagen zu künftigen Verhältnissen im Dreieck von Publikation, Qualität und Reputation in den Geisteswissenschaften ein Blick auf die spezifische Beziehung zwischen (vornehmlich hermeneutisch basierten) Geisteswissenschaften und den konstitutiven Repräsentationsmodi von Dokumenten als komplexen Zeichen erforderlich.
Dokument und Bedeutung ...
Bei näherer Betrachtung wird nämlich deutlich, dass in der Fachdiskussion um elektronisches Publizieren Aspekte der Dokumentmodellierung und des Dokumentinhalts (und damit auch der Bedeutung) bislang fast ausschließlich nach Maßgabe eines Informationsmodells diskutiert wurden, wie es in den empirisch geprägten Wissenschaften vorherrscht. In diesem Modell ist wissenschaftliche Forschung als Kernaktivität vom Publikationsprozess völlig getrennt und diesem vorgängig. Erst nachdem Forschung ‚Resultate’ erbracht hat, werden diese diskursiv verpackt und in der Regel als Zeitschriftenaufsätze veröffentlicht. In diesem robusten und wenig komplexen ‚Containermodell’ wissenschaftlichen Publizierens ist der oben beschriebene ‚Emulationsmodus’ des elektronischen Publizierens völlig ausreichend und dementsprechend konzentriert sich eben auch die gesamte Diskussion um Open Access auf die Frage, wie der Zugang zu diesen elektrifizierten Veröffentlichungen zu gestalten sei. Ohnehin handelt es sich aus Sicht der ‚hard scientists’ um eine vergleichsweise ephemere Problematik, die man, weil sie sich weit ab von der eigentlichen Forschung befindet, notfalls auch ohne Schaden den Bibliothekaren überlassen kann.
Wissenschaftliches Publizieren in den hermeneutisch geprägten Geistes- und Sozialwissenschaften hingegen vollzieht sich in einem gänzlich anderen Informationsmodell: Forschung und diskursive ‚Verpackung’ sind hier untrennbar ineinander verwoben, zumal in den allermeisten geisteswissenschaftlichen Disziplinen (und vor allem in den Philologien) ‚Diskurs’ und ‚Text’ wiederum Gegenstand wissenschaftlichen Arbeitens sind: typischerweise operieren diese Disziplinen allesamt über Text- oder Diskurskorpora mit dem Ziel entweder der Re-Aggregation dieser Corpora (etwa in Quelleneditionen oder kritischen Textausgaben) oder der korpusbasierten Modellierung und Interpretation. In all diesen Szenarien sind ‚Texte’ in einem erweiterten Sinn Gegenstand und Ergebnis wissenschaftlicher Arbeit zugleich. Es dürfte damit deutlich geworden sein, dass die beiden Informationsmodelle sich letztlich vor allem hinsichtlich der Form-Inhaltsrelation unterscheiden. Im Grunde unterliegt damit den unterschiedlichen Publikationskulturen der beiden Wissenschaftskulturen eine weit fundamentalere semiologische Differenz. Der dominante, meist von der Informatik geprägte Diskurs in den naturwissenschaftlichen communities verwendet dabei Begriffe wie Dokument, Zeichen oder Name vergleichsweise naiv und ohne Berücksichtigung ihrer inhärenten semiologischen Komplexität. Dies resultiert letztlich in einer Art nominalistischer Regression (wenn auch auf hohem technischen Niveau!), mündet in ein ‚Zeiger -> Objekt’-Modell, in dem ‚Wörter’ auf real existierende ‚Dinge’ verweisen. Dies Modell kennt ausschließlich denotative Beziehungen, wie in der nachstehenden Grafik angedeutet:
Im Gegensatz zu diesem sehr einfachen Konzept der Relation zwischen Wörtern und Dingen ist für das Verständnis des für die Geisteswissenschaften maßgeblichen Bedeutungsmodus eine Rückbesinnung auf das Modell das Sprachzeichens hilfreich, wie es ursprünglich von de Saussure entworfen wurde:
und wie es dann, nach Verfeinerungen durch Hjelmslev, Eco und andere in ein generalisiertes Sprachmodell mündet, das in dieser Form auch als Grundlage für ein erweitertes Text- und Dokumentmodell dienen kann:
Signifikanten und bezeichnete Konzepte (Signifikate) sind in diesem Gedankenmodell ebenso wenig voneinander zu trennen wie Form und Substanz der Zeichenkomponenten; zudem müssen produzierte und interpretierte Einzelinstanzen immer in ihrem sprachlich-systemischen Kontext gesehen werden. Und weder Laute noch reale ‚Dinge’ sind in diesem Ansatz Teile des sprachlichen Repräsentationsraums.
Eine solche Erweiterung des Informationsmodells ist von einem gestandenen Informatiker gesprächsweise einmal als „Öffnen der semiotischen Büchse der Pandora“ bezeichnet worden – und doch ist exakt eine solche Erweiterung erforderlich, will man verstehen, wie sich Geisteswissenschaften und Dokumente zueinander verhalten, und wie letztere als komplexe Zeichen und diese wiederum als Teil eines Systems solcher komplexer Zeichen (vulgo ‚Literatur’) begriffen werden können.
... und die De-Konstruktion des Dokumentbegriffes.
Der Begriff des Dokuments als komplexes Zeichensystem also steht im Mittelpunkt des Nachdenkens über das Dreieck Publikation – Qualität – Reputation, und zugleich war schon weiter oben deutlich geworden, dass dieser Begriff sich im Kontext der Erosion des traditionellen Produktions- und Rezeptionskontinuums unter vernetzt-digitalen Bedingungen aufzulösen beginnt. Diesen Auflösungsprozess präziser zu analysieren und beschreibbar zu machen war Anliegen einer Forschergruppe des CNRS (RTP-DOC), die nach mehrjähriger Vorarbeit in den Jahren 2003 bis 2005 zuerst im Netz und im Jahr 2006 dann als gedrucktes Buch unter dem Pseudonym Roger T. Pédauque für das Verständnis gerade auch der absehbaren Veränderungen des Dokumentkonzeptes grundlegende Arbeiten veröffentlicht hat.
RTP-DOC begreift die Entwicklung des Dokumentbegriffs im Übergang vom gedruckten zum digitalen Dokument entlang dreier Paradigmata, die grosso modo den Ebenen ‚Morphosyntax’, ‚Semantik’ und ‚Pragmatik’ des linguistischen Schichtenmodells entsprechen:
| | |
| · | Le document comme forme ; sous cette rubrique, nous rangerons les approches qui analysent le document comme un objet, matériel ou immatériel et qui en étudient la structure pour mieux l’analyser, l’utiliser ou le manipuler. |
| · | Le document comme signe ; pour ces chercheurs le document est perçu avant tout comme porteur de sens et doté d’une intentionnalité ; ainsi le document est indissociable du sujet en contexte qui le construit ou le reconstruit et lui donne sens ; en même temps, il est pris dans un système documentaire ou un système de connaissances. |
| | |
| · | Le document comme médium ; cette dimension enfin pose la question du statut du document dans les relations sociales ; le document est une trace, construite ou retrouvée, d’une communication qui s’est affranchie de l’espace et du temps ; en même temps, il est un élément de systèmes identitaires et un vecteur de pouvoir. (Pédauque 2006, 32) |
In der Folge wird für jedes dieser Paradigmata einer der Aspekte als dominanter, aber nichtexklusiver Vektor verwendet für die Entwicklung von Gleichungen, welche traditionelle, elektronische und web-basierte Dokumentbegriffe unterscheidbar machen, wobei jedes dieser Gleichungstripel in einer vektorbezogenen Definition des ‚elektronischen Dokuments’ resultiert.
Dementsprechend kann der Form-Vektor, in dem der Objektcharakter konstitutiv ist, in den folgenden drei Gleichungen zusammengefasst werden:
„Document traditionnel = support + inscription [...]
Document numérique = structures + données [...]
Document XML = données structurées + mise en forme.“ (ebd., 45)
Und diese kumulieren in einer ersten Definition:
„Un document numérique est un ensemble de données organisées selon une structure stable associée à des règles de mise en forme permettant une lisibilité partagée entre son concepteur et ses lecteurs.“ (ebd.)
Analog mündet der Zeichen-Vektor mit dem sinntragenden Charakter des Dokuments im Fokus in den folgenden drei Gleichungen:
„Document = inscription + sens [...]
Document numérique = texte informé + connaissances [...]
Document W[eb] S[émantique] = texte informé + ontologies“ (ebd., 59)
Und die daraus abgeleitete Definition lautet
„Un document numérique est un texte dont les éléments sont potentiellement analysable par un système de connaissance en vue de son exploitation par un lecteur compétent.“ (ebd.)
Und schließlich resultiert die Diskussion des Medien-Vektors mit dem Dokument als sozialemPhänomen im Zentrum in den folgenden drei Gleichungen:
„Document = inscription + légitimité [...]
document numérique = texte + procédure [...]
document Web = publication + accès repéré.“ (ebd., 75)
Dazu gehört die folgende Definition:
„Un document numérique est la trace de relations sociales reconstruite par les dispositifs informatique.“ (ebd. 74)
Die hiermit nur gerade angerissenen und kurz charakterisierten Arbeiten der Gruppe RTP-DOC (Pédauque 2006 und 2007) sind mindestens ein guter Ausgangspunkt für eine Neubestimmung des Dokumentbegriffes unter vernetzt-digitalen Bedingungen. Dieser wiederum ist Dreh- und Angelpunkt einer möglichen Agenda für den in diesem Beitrag angesprochenen Komplex, von der nun abschließend die Rede sein soll.
Bausteine einer Agenda für eine (Neu-)Bestimmung des Spannungsdreiecks Publikation – Qualität – Reputation in den Geisteswissenschaften
Aus den bisher entwickelten Elementen lassen sich Bausteine herleiten für das Projekt einer mittelfristigen (Neu-)Bestimmung des Spannungsdreiecks Publikation – Qualität – Reputation in den Geisteswissenschaften. Erforderlich ist ein solches Projekt aus mehreren Gründen:
| | |
| · | wie oben gezeigt befinden sich die traditionellen Konzepte für die Publikation komplexer Dokumentformate in Auflösung – von ihrem Funktionieren aber hängen weite Teile der Geisteswissenschaften vital ab, |
| · | verlässliche Indikatoren und ggf. auch Metriken für die Bestimmung von Qualität fehlen noch ganz weitgehend, |
| · | dementsprechend bleibt auch intransparent und kaum kontrollierbar, nach Maßgabe welcher Kriterien die Bemessung persönlicher und institutioneller Reputation erfolgen soll, |
| · | die vorgenannten Faktoren stellen zusammen genommen angesichts der ungebrochenen politischen Bestrebungen, auch für die Geisteswissenschaften funktionierende Verfahren der Evaluation und Mittelvergabe aufzubauen ein erhebliches Risiko in dem Sinne dar, dass mangels anderer Methoden und Kriterien schlicht die in den ‚harten’ Wissenschaften gängigen Verfahren auf die Geisteswissenschaften übertragen werden. |
Eine solche Übertragung fremder Methodologien – dies dürfte aus diesem Beitrag deutlich geworden sein - wäre angesichts der eigenen diskursiven Kultur und der spezifischen Bedeutungsmodi in den Geisteswissenschaften grotesk unangemessen. Diese spezifischer herauszuarbeiten als in Weinrichs einleitend zitierter Rede von den „Gegebenheiten des wissenschaftlichen Sprachverkehrs“ ist sicher ein Baustein einer Projektagenda.
Dabei ist – wie ebenfalls gezeigt – der Dokumentbegriff von besonderer Bedeutung: es ist sicher nicht ausreichend, monographienartige Publikationsformate digital zu implementieren und solcherart die Geisteswissenschaften systematisch in den Emulationsmodus zu versetzen: die in diesem Zusammenhang regelmäßig erwähnten eBooks sind ein reines Übergangsphänomen und bieten nicht einmal den Ansatz einer zukunftsorientierten Lösung! Ebenso wenig ist eine verordnete Migration in Zeitschriften-Publikationsformate eine angemessene Lösung. Zu leisten ist vielmehr ein Neu-Denken der Bedeutungsbeziehung zwischen digitaler Publikationsform und wissenschaftlichem Inhalt, das in den Kategorien des hier angesprochenen Paradigmenwechsels zumindest beginnen kann. Resultat müssen dann innovative digitale Publikationsformate sein, die unter vernetzt-verteilten Produktionsbedingungen die semiologische Komplexität rekonstituierbar machen, für die in der Gutenberg-Galaxis die Forschungsmonographie stand.
Zugleich muss deutlich werden, dass elektronisches Publizieren und Open Access gerade im Kontext der ‚digital humanities’ nur als Teil einer Gesamtstrategie für eScholarship Sinn machen und damit zum Beispiel nur als Kombination von offenem Zugang zur wissenschaftlichen Publikation und zugleich zu deren Quellengrundlage sinnvoll ist: eine besondere Einheit von ‚open access’ und ‚open source’ also ist eine Lebensbedingung für genuin digital verfasste Geisteswissenschaften.
Schließlich müssen die Geisteswissenschaften Mittel und Wege finden, überprüfbare (und womöglich auch messbare) Aussagen sowohl über die technische als auch über die inhaltliche Qualität und Relevanz von Forschungspublikationen zu generieren bevor ihnen auch hier Fremdverfahren aufoktroyiert werden, die dann zudem mit ziemlicher Sicherheit die für die Geisteswissenschaften vitale sprachliche Diversität nicht berücksichtigen, sondern rein angelsächsisch dominiert sein werden: Bausteine für dies letztgenannte Teilziel wird das EC- geförderte Projekt EERQI erarbeiten. (SGn)
Literatur
American Council of Learned Societies / ACLS (2006), Our Cultural Commonwealth.
Deutsche UNESCO-Kommission (2006), Open Access. Chancen und Herausforderungen. Bonn 2007
D’Iorio, Paolo (2007), „Nietzsche on New Paths: The HyperNietzsche Project and Open Scholarship on the Web“, in Maria Cristina Fornari, Sergio Franzese (Hgg.), Friedrich Nietzsche. Edizioni e interpretazioni, Pisa ETS
Gradmann, Stefan (2004), Vom Verfertigen der Gedanken im digitalen Diskurs. Versuch einer wechselseitigen Bestimmung hermeneutischer und empirizistischer Positionen, In: Historical Research, 20(1), S. 56-63.
Gradmann, Stefan (2007a), „Verbreitung vs. Verwertung. Anmerkungen zu Open Access, zum Warencharakter wissenschaftlicher Informationen und zur Zukunft des elektronischen Publizierens“, In: Integrität wissenschaftlicher Publikationen in der Digitalen Bibliothek. Wissenschaftsforschung Jahrbuch 2007, S. 93-106
Gradmann, Stefan (2007b), Open Access – einmal anders! Zu den spezifischen Funktionsbedingungen wissenschaftlichen Publizierens in den Geisteswissenschaften, In: Zeitschrift für Bibliothekswesen und Bibliographie (ZfBB), 54(4-5), S. 170-173.
Gradmann, Stefan / Meister, Jan Christoph (2008), „Digital document and interpretation: rethinking „text“ and scholarship in electronic settings“, In: Poiesis & Praxis (2008) 5, S. 139-153
Nida-Rümelin, Julian (2008): „Die hochschulpolitische Lage und die Zukunft der Geisteswissenschaften in Deutschland“. Beitrag zum Sonderheft Hochschulpolitik „Aus Politik und Zeitgeschehen“, Beilage zu „Das Parlament“, Heft 48
Pédauque, Roger T. (2006): Le document à la lumière du numérique. Toulouse
Pédauque, Roger T. (2007): La redocumentarisation du monde. Toulouse
Stöber, Thomas (2004), „Das Internet als Medium geistes- und kulturwissenschaftlicher Publikation, In: PhiN-Beiheft 2/2004: 283 - 296
Weinrich, Harald (1995), „Linguistik, Wissenschaftssprache, Sprachkultur und die Einheit der Wissenschaft“, In: Linguistik der Wissenschaftssprache. Hrsg. von Heinz Leonhard Kretzenbacher, Harald Weinrich. Berlin: Walter de Gruyter, S. 155-174
Zimmer, Dieter E. (2001), „Analoge und digitale Informationsmedien“, in: Ansorge, Kathrin (Red.), Wissenschaftspublikation im digitalen Zeitalter. Verlage, Buchhandlungen und Bibliotheken in der Informationsgesellschaft. Vorträge eines Symposiums am 8. und 9. Februar 2001 in Berlin, Wiesbaden, S. 129-136