Jeder Surfer ist ein Wissenschaftler - oder die Zukunft der wissenschaftlichen Kommunikation

Vorbemerkungen zur WissKom 2007


Abstract

von H. Peter Ohly

Die "Wissenskommunikation der Zukunft" ist dieses Jahr Thema in der Reihe der inzwischen traditionellen Tagungen der Zentralbibliothek des Forschungszentrums Jülich.[1] Zunächst muss man sich fragen, wieso die Kommunikation in der Wissenschaft überhaupt hinterfragt wird. Haben Gelehrtenzirkel nicht schon immer für Diskurs und Transfer in der Wissenschaft gesorgt?[2] Kolloquia, Disputationen, "Streitgespräche" und die obligatorischen Diskussionsminuten nach Vorträgen sind lediglich eine neuere formalisierte, popularisierte Form hiervon. Tagungen werden bewusst als Foren genutzt, auf denen eigene Forschungsergebnisse einem breiteren Publikum publik und zugleich parallele Entwicklungen ausfindig gemacht werden. Sollte dies so nicht mehr funktionieren?

Inzwischen wird Wissen nicht nur in der Hochschulkommunikation, die ohnehin zunehmend rezeptiv vermittelt wird, sondern auch autodidaktisch erfahrbar: durch Wissenschaftsjournale, Funkkollegs, eLearning sowie Internet- und Datenbank-Mining. Parallel hierzu haben sich Chat- und Diskussionsgruppen organisiert, die eine virtuelle Kommunikation ermöglichen und damit zum Wissensaustausch beitragen. Der Trend zur individuellen Workbench wird unterstützt durch die Entwicklung leistungsfähiger Mikrocomputer, Bereitstellung von Daten auf hochverdichteten transportablen Speichermedien und Informationszugang über drahtlose Netzanschlüsse. Die massenmediale Grundtendenz bleibt dabei weitgehend unverändert: Marktführer versorgen den Benutzer mit Informationspools, Datensätzen und entsprechender Software zur Weiterverarbeitung. Rückmeldungen sind zwar über Nutzergremien, E-Mail oder Formulare möglich aber doch schwerfällig und ohne nennenswerte Einwirkungsmöglichkeit. Nimmt man die Entwicklung des Urheberrechtes dazu, so wird die Einengung und Entmündigung des Konsumenten durch die Information-Stakeholder noch deutlicher: Kopien, maschinelle Verarbeitbarkeit und Veränderung werden weitgehend eingeschränkt.[3]

Anders ist es bei Open Source Software, wie Linux, Open Office oder Firefox. Hier wird der Benutzer bewusst aufgefordert, an der Weiterentwicklung und Dokumentation des (Software-)Systems mitzuarbeiten. Die Lizenzverträge beinhalten explizit die Offenlegung des Quellcodes, das Nutzungs- und Verbreitungsrecht und das Recht zur Veränderung.[4] Ein ähnliches Modell wird für wissenschaftliche Literatur von der Open Archive Initiative angestrebt, wo auf Internet-Servern Texte digital gespeichert werden und gemäß Creative Commons unter differenzierbaren Verwertungsformen angeboten werden.[5] Die Musik­tauschbörse Napster verfolgte einen Peer-to-Peer-Ansatz, wo kostenlose Musik-Kopien von Mitgliedern dezentral ausgetauscht werden konnten. Weiterentwicklungen, die einem nicht zentralisierten Austausch vieler Dateitypen dienen, sind OpenNap und SlavaNap.[6]

Zur dezentralen Editierung, Verlinkung und Verwaltung von Texten im Internet wurden WikiWebs entwickelt.[7] Im Falle der Wikipedia, dem bekanntesten Vertreter, wird weltweit von Interessierten eine populärwissenschaftliche Enzyklopädie zusammengestellt, die je nach Engagement, Fachwissen und Konsens der Mitarbeitenden eine ungewöhnliche Fülle von Informationen zusammenträgt. Flickr ist eine Sammlung aus Amateurbildern, die sich in bestehende Thematiken einreihen und neue hinzusetzen. Dem Betrachter bieten sich u.a. ein geographischer Zugriff, eine Listung der häufigsten Tags, Fotos vom gleichen Kameratyp oder pro Bild weitere Bildverweise zu dem Autor, den Kommentatoren oder den vergebenen Tags an. Das Persönliche wird Teil der unendlichen Internet-Allmende.[8]

All dies soll nun vom Geruch des Subkulturellen befreit werden und zum Credo der Informations- und Wissensspezialisten werden. Universitäten und Fachgesellschaften bieten fachlich sortierte online-Repositorien für qualitativ hochstehende Veröffentlichungen an. Unter dem Begriff der eScience (digitally enhanced Science) oder CyberScience werden Arbeitsmodelle, Soft- und Hardwareentwicklungen vorangetrieben, die Unterstützung auf Gebieten anbieten, wo Ressourcen-intensive, zeitnahe und multilaterale Zusammenarbeit nötig ist.[9] Zu denken ist etwa an komplexe Modellrechnungen, Zusammenführung von Lokalstatistiken in Realzeit und weltumspannende Laborarbeit. Grid-Computing koordiniert und integriert hierbei Ressourcen und Benutzer unterschiedlicher administrativer Domänen[10] und verwendet offene, standardisierte Protokolle und Schnittstellen[11] um nicht triviale Service-Qualitäten bereitzustellen.[12] Portale, die Informationen aus den verschiedensten Komponenten miteinander verbinden, sind das Pendant im Informationsvermittlungsbereich. Und last not least gehören immer auch kommunikative Elemente dazu, die dem Benutzer die Kommunikation mit Anderen, Beteiligung am Datenaufkommen, besseren Durchblick und eine Individualisierung des Zugriffs ermöglichen. Der Begriff "MyScience" ist nicht nur ein Informationsportal und eine wissenschaftliche Suchmaschine für Forschung und Entwicklung in der Schweiz, sondern könnte auch für eine Programmatik stehen, die dem Wissenschaftsbetrieb eine qualitative, egalitäre Wende geben könnte.[13]

In diese Richtung geht auch der Ausbau des Internets. War das World Wide Web zwar schon ursprünglich als many-to-many-Medium gedacht[14], so ist es effektiv ein Medium geblieben, das Vieles anbietet, aber Inhalte und Benutzer nur ungenügend vernetzt, unter- wie miteinander. Mit dem Ausbau, der mit dem Begriff "Web 2.0" umschrieben wird, wird Vieles als Desiderat angesprochen: Plattform für viele Dienste und Kommunikationsstile, Verlinkung von Einzelangeboten zu Kollektionen, Verarbeitung von Anwendungsdaten, Software nicht als Produkt sondern als Service, Datenservice-Schnittstelle, Einbezug von Mobilgeräten, informationsverdichtende Benutzerschnittstellen.[15] Beispiele hierfür sind eben o.g. Flickr als Foto-Kollektiv mit integrativen Übersichten[16], aber auch Weblogs[17], wie SOWI-WEB, die assoziativ Informationen verschiedener Teilnehmer zusammenzutragen, oder auch die gemeinsame Verwaltung von Bookmarklisten (z.B. del.icio.us). Gebraucht wird hierzu sog. "Social Software", die die Kommunikation und Pflege von virtuellen Gemeinschaften unterstützt. Gefragt ist speziell die technische Unterstützung von Informations-, Identitäts- und Beziehungsmanagement.[18]

Rückrat für kollektive Angebote sind neben der Computertechnik aber auch die verwendeten Begriffe. Anstatt diesen freien terminologischen Lauf zu lassen oder sie in verbindliche Systematiken zu pressen, werden Metadatenschemata und Ontologien angeboten, die Klassen von Textsorten und Beschreibungsmerkmalen sowie Beziehungen typisieren aber inhaltlich flexibel gefüllt werden können. Soweit diese auf Informationen im Internet angewendet werden, ergeben sich Möglichkeiten zur logischen Verknüpfung von aus unterschiedlicher Quelle stammenden Seiten, womit ein sog. Semantic Web[19] entsteht. Hilfsmittel, die Metabeschreibung von Internetdokumenten zu standardisieren, sind u.a. Dublin Core Elements, Resource Description Framework, Web Ontology Language, Simple Knowledge Organisation System.[20] Durchgängige Anwendungsstandards und breite Akzeptanz sind allerdings noch nicht in Sicht.

Zum Anderen gibt es Ansätze, geeignete Metadaten auch kollektiv durch die Nutzer zu erstellen. Unter Democratic Indexing, Collaborative Tagging, Ethnoclassification und Folksonomy laufen Ansätze, die jeden Benutzer auch als Indexierer und Entwickler der verwendeten Terminologie zulassen. Man macht die Betroffenen zu Beteiligten zumindest bei den für sie relevanten Teilen der Internetinformation und erreicht damit Individualisierung, Kreativität, Flexibilität, Dynamik aber auch Mittelmäßigkeit.[21] Erinnerungen an clusteranalytische, aus Titelwörtern gewonnene Schlagwortsysteme oder benutzeradaptive Erweiterungen von diesen werden wach Forschungsprojekte, die dann der Experten-Korrekturen nach wie vor bedurften.[22]

Angesichts solcher Anarchie bei Internetinformationen nun auch auf wissenschaftlicher Seite ist es nicht verwunderlich, dass auf dem Programm der Tagung auch die Wissenschaftsindikatoren (wieder) stehen. Ein massenhaftes Chaos ruft eben danach, quantifiziert, geordnet und bewertet zu werden, um wenigstens etwas Durchblick zu bekommen. Andererseits wird gerade durch die proklamierte Vielseitigkeit des Internets und die genannten benutzernahen Verfahren die babylonische Verwirrung zusätzlich vergrößert. Was ist als wissenschaftlich zu werten und was nicht? Müssen bestimmte Fachgebiete und Kulturen unterschiedlich behandelt werden? Was ist (heute) als wissenschaftlich bedeutende Leistung anzusehen? Wie kann eine vergleichende Bewertung erfolgen? Inzwischen nehmen auch die Fachgesellschaften und die Deutsche Forschungsgemeinschaft die Bibliometrie selbst in die Hand und versuchen aus ihrem Eigenverständnis heraus die Exzellenz in ihren Fächern zu hinterfragen. Jeder nach seinem Maßstab, sofern ein einheitlicher Konsens innerhalb der Fächer überhaupt gefunden werden kann[23]?

Fragen, die wohl auch nach der Tagung in Jülich offen bleiben werden, sind die nach dem Stellenwert von Wissenschaft und Alltagshandeln im Schatten des Internets. Sollte Kuhn"s These vom konstruktivistischen Charakter des Wissens nun erst recht für die digital unterstützte Wissenschaft gelten? Kann jeder Surfer und Internetzulieferer bereits als Wissenschaftler oder Fachexperte akzeptiert werden (um ein Zitat nach Joseph Beuys abzuwandeln)? Wird zusätzlich auch die traditionelle Informationsvermittlung überflüssig, wenn nur softwaretechnisch an den richtigen Schrauben gedreht wird? Am Ende ist zu befürchten, dass wegen der Vernetzungen im Internet diejenigen besser dastehen, die am besten die Möglichkeiten beherrschen, die eingespeisten Daten zu manipulieren. Die Bildungskluft könnte zunehmen, wenn Webkompetenz nicht zum Schul- und Studienfach wird. Dadurch mag sich entscheiden, ob der Webauftritt wie eine Hyde Park Corner-Rede verhallt oder eine Dynamik bekommt, wie eine Marc Anton Rede auf dem Forum Romanum.


Zum Autor

H. Peter Ohly ist Vorsitzender der Deutschen Sektion der Internationalen Gesellschaft für Wissensorganisation GESIS

Informationszentrum (IZ) Sozialwissenschaften
Lennéstraße 30
D-53113 Bonn
E-Mail: peter.ohly@gesis.org


Anmerkungen

[1] 6. bis 8. November 2007 in Jülich < http://www.fz-juelich.de/zb/wisskom2007 >.
Anmerkung: Alle angegebenen URL-Adressen beziehen sich auf den Stand vom 27.6.2007.

[2] Gerd-Uwe Funk: Integriertes Werte- und Wissensmanagement. In: Ohly; Sieglerschmidt; Swertz: Wissensorganisation und Verantwortung: Gesellschaftliche, ökonomische und technische Aspekte, Würzburg: Ergon 2006, S. 216-223.

[3] WIPO Copyright Treaty < http://www.wipo.int/treaties/en/ip/wct/ >; zweiter Korb zum Urheberrecht < http://vs.verdi.de/urheberrecht/aktuelles/korb_ii_ist_raubzug_gegen_kreative/data/Entwurf_Korb_II_060322 >; Materialien des Instituts für Urheber- und Medienrecht zum Urheberrecht < http://www.urheberrecht.org/topic/Korb-2/ >.

[4] Open Source Initiative < http://www.opensource.org/ >.

[5] Antje Michel: Open Access und Creative Commons als Elemente eines modernen Urheberrechts. Qualifikationsarbeit an der Bayerischen Bibliotheksschule 2007
< http://www.bib-bvb.de/bib_schule/Michel_Open-Access.pdf > .

[6] Stichwort "Napster" in Wikipedia < http://de.wikipedia.org/wiki/Napster >.

[7] Bo Leuf, Ward Cunningham: The Wiki way: quick collaboration on the Web. Addison-Wesley, London 2001. Eine stärker auf Institutionserfordernisse ausgerichtete Variante stellen Content-Management-Systeme dar, die die gemeinschaftliche Erstellung und Bearbeitung des Inhalts von Text- und Multimedia-Dokumenten ermöglichen und organisieren.

[8] < http://www.flickr.com >. Zirka 3 Tausend Fotos werden pro Minute hochgeladen. Die häufigsten Bilder stammen übrigens von Hochzeiten.

[9] Ergebnisse sind dann bessere, reichhaltigere, schnellere oder neuere Forschungsergebnisse.

[10] Was Rückwirkung auf Sicherheit, Abrechnung und Mitgliedschaft hat.

[11] Um Authentifizierung, die Autorisierung, die Ressourcen-Ermittlung und den Ressourcen-Zugriff zu ermöglichen.

[12] Ian Foster, Carl Kesselman: The Grid: Blueprint for a new computing infrastructure. San Francisco: Morgan Kaufmann, Tech. Rep., 1998; Joseph Carl Robnett Licklider, Robert W. Taylor: The Computer as a Communication Device, Science and Technology, April 1968
< http://gatekeeper.dec.com/pub/DEC/SRC/publications/taylor/licklider-taylor.pdf > .

[13] Carsten Orwat, Carsten Holtmann: Sozio-ökonomische Herausforderung des Grid-Computing. In: Nachrichten - Forschungszentrum Karlsruhe, Vol. 36, No. 4, pp. 240-242 (2004)
< http://www.itas.fzk.de/deu/lit/2004/orho04a.pdf > .

[14] Tim Berners-Lee, Mark Fischetti: Weaving the Web: The Original Design and Ultimate Destiny of the World Wide Web , San Francisco: HarperSanFrancisco 1999 (dt. Der Web-Report. München: Econ 1999).

[15] Tim O'Reilly: What Is Web 2.0. Design Patterns and Business Models for the Next Generation of Software, 2005
< http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html >; Markus Kühle: Was ist Web 2.0?
< http://www.webthreads.de/2006/04/was-ist-web-20/ >.

[16] Rob Hidderley, Pauline Rafferty: Flickr and Democratic Indexing: Disiplining Desire Lines. In: Advances in Knowledge Organization 10 (Knowledge Organization for a Global Learning Society: Proceedings of the Ninth International ISKO Conference). Würzburg: Ergon 2006, S. 405-411.

[17] Stichwort "Weblog" in Wikipedia < http://de.wikipedia.org/wiki/Weblog >.

[18] Jan Schmidt: Social Software: Onlinegestütztes Informations-, Identitäts- und Beziehungsmanagement. In: Forschungsjournal Neue Soziale Bewegungen, Nr 2/2006, S.37-46.

[19] Tim Berners-Lee, James Hendler, Ora Lassila: The Semantic Web - A new form of Web content that is meaningful to computers will unleash a revolution of new possibilities. In: Scientific American, May 17, 2001 < http://www.sciam.com/print_version.cfm?articleID=00048144-10D2-1C70-84A9809EC588EF21 > .

[20] Alistair Miles, Dan Brickley: SKOS Core Guide. W3C, 2. November 2005
< http://www.w3.org/TR/swbp-skos-core-guide/ >; Stichwort "Semantic Web" in Wikipedia < http://de.wikipedia.org/wiki/Semantic_Web > .

[21] Adam Mathes resümiert: "Its uncontrolled nature is fundamentally chaotic, suffers from problems of imprecision and ambiguity that well developed controlled vocabularies and name authorities effectively ameliorate. Conversely, systems employing free-form tagging that are encouraging users to organize information in their own ways are supremely responsive to user needs and vocabularies, and involve the users of information actively in the organizational system." (Folksonomies - Cooperative Classification and Communication Through Shared Metadata. Computer Mediated Communication - LIS590CMC 2004)
< http://www.adammathes.com/academic/computer-mediated-communication/folksonomies.html > .

[22] Frank Sarre et al.: Die Thesaurus-Relationen des lernfähigen Information Retrieval Systems TEGEN. In: Informatik-Fachberichte 238. Interaktion und Kommunikation mit dem Computer. London: Springer 1989, S. 164 175.

[23] GEGENWORTE Heft 5, 2000: Gütesigel für die Wissenschaft? Zur Diskussion über Qualität, Evaluierung und Standards; GEGENWORTE Heft17, 2007: Excellent oder Elitär? Die Wiederkehr der Eliten; Annette Lessmoellmann: Milliarden für die Forschung - doch wer kontrolliert die Qualität? In: Journalismus-Darmstadt.de am 10.06.2007 < http://blog.journalismus-darmstadt.de/?p=248#more-248 > .