Knowledge eXtended. Die Kooperation von Wissenschaftlern, Bibliothekaren und IT-Spezialisten

3. Konferenz der Zentralbibliothek des FZ Jülich vom 2. bis 4. November 2005

von Ulrike Eich

Gebäude der ZB mit Konferenzlogo
Die Konferenzen der Zentralbibliothek im Forschungszentrum Jülich haben eine noch junge Tradition, aber schon eine eigene Kultur, die sie von anderen Tagungen unterscheidet, die auch die Akteure und Beteiligten im wissenschaftlichen Informations- und Kommunikationsprozess zusammen- und miteinander ins Gespräch bringen wollen. Hier dominieren die (Natur-)Wissenschaftler nicht nur das Publikum und die Referenten, sie prägen die Themen und den Stil der Diskussion. Bei dieser dritten Tagung waren auch die IT-Spezialisten zum überwiegenden Teil wissenschaftlich tätig, Bibliothekare waren in der Minderheit, präsent und aktiv waren auch Verlage. Wissenschaftstypisch war auch, dass ein kleinerer Teil der Themenbeiträge nicht durch Vorträge, sondern eine Postersession präsentiert wurde. Der Anspruch und der Ehrgeiz der Veranstalter kam auf besondere Weise darin zum Ausdruck, dass sie als Festredner Norbert Bolz hatten gewinnen können. Er bereitete mit seinem Vortrag "Die Wissensgesellschaft - Stupid Stuff oder Serious Business" einen Bezugsrahmen und für manche wohl auch eine Grundlage für die Thesen und Ergebnisse der Konferenz. Norbert Bolz' Gedankengang lässt sich innerhalb dieses Tagungsberichts nicht angemessen wiedergeben. Ich kann nur auf eine für diese Konferenz besonders relevante Schlussfolgerung hinweisen: Der schon viel zitierte information overload werde für den Einzelnen nur beherrschbar, wenn die Information bewertet, gefiltert und strukturiert und damit als Wissen verfügbar werde, dies sei die Aufgabe "symbolanalytischer Dienstleister".

Die fachliche Tagung war in vier Themenbereiche gegliedert. Der erste Komplex, "Open access - lessons learned", bildete eine Art Brücke zur ersten Konferenz und den vielen Tagungen und Diskussionen zum Thema wissenschaftliches und elektronisches Publizieren in den letzten Jahren. Die drei weiteren Blöcke, "Datamining", "Semantische Netze" und "Grid computing" befassten sich mit Art und Zweck der Aufbereitung von Information zu Wissensressourcen.

Open Access - Lessons Learned

Empfang mit den Teilnehmern: Professor Norbert Bolz (HU Berlin, Festredner), Dr. Rafael Ball (Leiter der ZB im Forschungszentrum Jülich GmbH); Professor Joachim Treusch (Vorstandsvorsitzender Forschungszentrum Jülich GmbH)
Zwei Beiträge zum Thema "Open access" waren Teil einer Art Auftaktseminar zur Konferenz. Les A. Carr (Southampton) rekapitulierte in seinem Beitrag "From open access to knowledge" die beiden Grundformen des open access, die sich mittlerweile herausgebildet haben: Das als "golden road" bezeichnete Modell, in dem der Autor für die Publikation zahlt, nicht der Leser, und das "green road" genannte Verfahren, bei dem der Autor alle, auch kommerziell publizierte Artikel selbst auf seinem oder dem Server seiner Institution kostenfrei zugänglich macht. Carr geht davon aus, dass der zweite Weg in der Wissenschaft ohne große Schwierigkeiten umsetzbar sei. Er erwartet und fordert allerdings, dass diese "institutional repositories" mehr bieten müssten als nur eine Sammlung von Artikeln, sie sollten mit knowledge services ausgestattet werden, die Daten und Dokumente so bereitstellten, dass sie weiterzuverarbeiten seien. Damit waren gleich zu Beginn die zwei Prinzipien Interaktive Systeme und Interoperabilität genannt, die eigentlich alle Wissenschaftler für essentiell hielten und einforderten. Carr ermunterte (noch) die Bibliothekare, sich dieser Aufgabe anzunehmen, dabei sollten sie aber schnell und pragmatisch handeln und sich "nicht hinter Standardisierungen verschanzen".

Ludwig Richter stellte als Mitverantwortlicher das Projekt "German Medical Science" vor, das mit neuen nationalsprachlichen Zeitschriften die deutsche medizinische Forschung international verbreiten will. Trotz des im internationalen Maßstab noch bescheidenen Umfangs verzeichne das Angebot exzellente Zugriffszahlen, Hauptnutzer seien aber die großen Pharmakonzerne. Um das Projekt nach der Förderphase im Routinebetrieb weiterführen zu können, müssten jetzt Finanzierungsmodelle entwickelt und Einnahmequellen erschlossen werden.

Aus der Sicht eines Verlegers beschrieb Hans-Robert Cram (de Gruyter, Berlin) "die Auswirkungen der 'Open Access'-Initiative auf die Wertschöpfungskette und die Struktur wissenschaftlicher Kommunikation". Auch er ging von den beiden Grundmodellen "Autorenfinanzierung" und "Selbstarchivierung" aus; das Finanzierungsmodell hielt er für fragil, weil nur wenige Institutionen sich viele produktive Autoren leisten könnten. Den Weg der Selbstarchivierung hält er für zukunftsfähig, weil er den traditionellen und etablierten Publikationsprozess nicht wesentlich verändert, sondern um eine direkte Rückkopplung zwischen Autor und Leser bereichert. Implizit aber werden in seinem Konzept die Institutionen in zweifacher Hinsicht verantwortlich: Sie verwalten das Archiv der Autoren und besorgen mit ihren Bibliotheken gleichzeitig die Archivierung der Verlagspublikationen. Die dauerhafte und verlässliche Archivierung ist den Wissenschaftlern sehr wichtig. Darauf wies Heiner Müller-Krumbhaar (Physiker am FZ Jülich und hier als Moderator) hin; der Wissenschaftler wolle mit seinen Veröffentlichungen in erster Linie die Wissenschaft befördern, dazu müssten seine Werke dauerhaft gesichert und zugänglich sein. Christoph Bläsi (Professor für Buchwissenschaft an der Universität Erlangen-Nürnberg) sieht eine Parallelität zwischen der Open Access-Entwicklung und der Open Source-Bewegung in der Softwareproduktion und stellte deshalb die Frage "Herausforderung Open Access - können die Verlage etwas lernen von den Strategien angesichts Linux & Co.?" Entscheidend war für ihn die Erkenntnis, dass alle großen Softwareunternehmen bei der Entwicklung von Open Source-Produkten mitwirkten. Den großen Lexikonverlagen würde er deshalb analog empfehlen, sich in die Wikipedia-Bewegung einzuschalten und dann zu diesen freien Angeboten Komplementprodukte zu entwickeln. Der Themenkomplex wurde abgeschlossen mit dem konkreten Beispiel einer Open Access-Zeitschrift, welches das Funktionsprinzip dieser Publikationsform sehr gut veranschaulichte. Cordula Nötzelmann und Sören Lorenz (Universität Bielefeld) beschrieben "das Redaktionstandem als innovatives Kooperationsmodell zwischen Fachwissenschaftlern und Bibliothekaren am Beispiel des Open Access E-Journals 'Brains, Minds & Media'". Zwei maßgebende Faktoren wurden in dem Beitrag und in der anschließenden Diskussion herausgearbeitet: Die Zeitschrift veröffentlicht vor allem Sekundärmaterial für Lehrzwecke, für welches sich kaum ein kommerzieller Verlag interessieren dürfte; die Zeitschrift existiert vor allem dank des außerordentlichen und wirtschaftlich nicht messbaren Engagements der Mitarbeiter am Lehrstuhl (für Neurobiologie) und in der Universitätsbibliothek. Die Zeitschrift wird zudem noch mit Landesmitteln im Rahmen des DIPP(Digital Peer Publishing)-Projektes am Hochschulbibliothekszentrum Nordrhein-Westfalen gefördert. Um im Routinebetrieb zu bestehen, sehen auch die Mitarbeiter die Notwendigkeit, ein Geschäftsmodell zu entwickeln und den Redaktionsaufwand zu minimieren. Im Grunde hat dieses Projekt dieselbe Struktur wie "German Medical Science", allerdings auf sehr viel schmalerer Basis und mit einer sehr kleinen Zielgruppe.

Aufbau und Funktion von Wissensspeichern

Auch der zweite, eigentlich neue und umfangreichere Komplex der Tagung, der Aufbau und die Funktion von Wissensspeichern, war schon in der Auftaktsitzung exemplarisch vorbereitet worden. Doris Wochele hatte berichtet, wie am Forschungszentrum Karlsruhe ein "Enterprise Content Management System für Verwaltung und Forschung" eingesetzt wird. Ziel sei eine einheitliche Plattform zur Verwaltung und Integration aller Daten und Dokumente, um das darin enthaltene Wissen für das gesamte Unternehmen nutzbar zu machen. Das Vorgehen ist pragmatisch: Die Informationen werden nach den Einheiten abgelegt, die sie produzieren, z. B. die Protokolle einer Abteilung. Für die Erschließung und als Grundlage einer übergreifenden Suche wurde ein flexibles, wenig normierendes Erfassungsschema entwickelt. In der Zuhörerschaft überwogen die Zweifel, ob ein derart schwach ausgeprägtes System funktionieren könne; das Vorgehen entsprach aber sicher dem, was Lev Carr zu Beginn angesprochen hatte, als er praktikable Lösungen und Lösungsversuche einforderte.

Data Mining

In der ersten Sektion, "Data mining", wurden vor allem theoretische und methodische Fragen des Data- und Textmining behandelt. Der Medienwissenschaftler Christian Wolff (Regensburg) beschrieb Erzeugung und Wachstum von Ontologien aus elektronischen Textsammlungen. Das Publikum war sehr interessiert an diesem Struktur- und Ordnungsprinzip für digitale Textcorpora, doch kaum jemand konnte sich schon vorstellen, wie Ontologien in den Wissenssystemen der Zukunft anzuwenden sein könnten. Konkreter war der Vortrag des Informatikers Reiner Krause (Jena). Er stellte vor, wie für das Max-Planck-Institut für Biogeochemie ein webbasiertes Datenbanksystem konzipiert und implementiert wurde. Als wesentliche Funktionen hob er Versionierung, Dokumentation und Rechteverwaltung hervor. H. Peter Ohly erläuterte die Fortentwicklung der analytischen Verfahren Bibliometrie und Data Mining zum Bibliometric Mining, das - etwas verknappt - bedeute, Inhalte in komplexen Datenbanken zu suchen, zu strukturieren und zu visualisieren.

Semantische Netze

Das Thema der zweiten Sektion, "Semantische Netze - Wissen professionell organisieren", handelte eigentlich von einer bibliothekarischen Kernkompetenz. Aber auch hier waren es Wissenschaftler, die beachtliche Produkte und Ergebnisse präsentierten. Ulrich Bügel (Karlsruhe) widmete sich "technologischen Trend(s) beim Einsatz semantischer Netzwerke". Zweck und Ziel semantischer Netze sei es, komplexe Datenbanken kontextsensitiv zu erschließen, indem die Informationen über Metadaten flexibel und zugleich konsistent zueinander in Beziehung gesetzt würden. Jetzt sei es an der Zeit, automatische Verfahren zu entwickeln, um den Erschließungs- und Verwaltungsaufwand zu minimieren. Der Vortrag erinnerte mich daran, dass Bibliothekare mit der Facettenklassifikation doch schon einmal Ähnliches entwickelt und diskutiert, dies aber wahrscheinlich zu sehr als Selbstzweck behandelt haben.

Rainer Hammwöhner (Regensburg) gab einen Einblick in das "Regensburger Signalpfad Informationssystem RESIST". Er sprach dabei ein ganz wesentliches Problem der Informationsverarbeitung an, dem bisher zu wenig Aufmerksamkeit geschenkt wurde: der inter- oder transdisziplinären Nutzung komplexer Datensysteme. Seine Ausführungen wurden am Ende der abschließenden Podiumsdiskussion von unterschiedlichen Wissenschaftlern sehr deutlich und eindruckvoll bestätigt. Das Phänomen der Signalpfade sei zunächst in der Biochemie analysiert und definiert worden, werde jetzt aber auch mit und in der Klinischen Medizin untersucht. Beide Fachgebiete mit je eigener Terminologie und Methodik könnten sich aber nicht ohne weiteres miteinander verständigen. Das hier aufzubauende Informationssystem müsse also verschiedene Disziplinen bedienen und interdisziplinäre Konflikte "aushalten", z. B. disparate Ergebnisse verwalten können. Sehr aufschlussreich für aktuelle Fragen der Wissensorganisaton und -nutzung war der Vortrag von Sabine Trott (Ilmenau) über die "digitale Mechanismen- und Getriebebibliothek (DMG-LIB)". Das Wissen und die Erfahrung zu Mechanismen und Getrieben müsse von sehr verstreuten Orten und aus heterogenen Quellen zusammengetragen werden, um es innerhalb eines Systems zu ordnen und für vielfältige Fragestellungen nutzbar zu machen. Das Projekt sei interdisziplinär und branchenübergreifend angelegt, wobei "jeder das macht, was er am besten kann". Den Bibliothekaren wurden dabei allerdings nur sehr konventionelle Aufgaben zugeteilt, nämlich die Beschaffung der Literaturquellen, die Klärung von Nutzungsrechten sowie die Beratung bei Metadaten (und nicht etwa Implementierung eines Standards, z. B. Dublin Core). Das Projekt ist in besonderer Weise medienübergreifend angelegt, so soll beispielsweise die Abbildung in einem alten (digitalisierten) Buch mit einer modernen Animation verknüpft werden, die die abgebildete Funktion in Bewegung zeigt. Die medienübergreifende Erschließung war auch zentraler Gegenstand in Maximilian Stempfhubers (Bonn) Vortrag über "Text-Fakten-Integration in Informationssystemen". Anhand eines konkreten Beispiels aus der Marktforschung ließ sich veranschaulichen, wie wichtig für den Nutzer die Verbindung etwa von Zeitreihen und entsprechenden Analysen in Textdokumenten ist.

Grid Computing

In der letzten Sektion wurde - notwendigerweise sehr technisch - das Verfahren des Grid Computing als neue Grundlage wissenschaftlicher Kommunikation und Kooperation behandelt. Heinz-Gerd Hegering führte mit grundlegenden Aussagen und Thesen zu "Chancen und offenen Fragen" des Grid Computing in das Thema ein. Er bewertete diese Technologie als einen Paradigmenwechsel in der wissenschaftlichen Kommunikation, weil sie Ressourcen visualisierbar mache, disziplinspezifische Dienste anbieten und Organisationen flexibel machen könne. Karin Schauerhammer (Berlin) informierte über das X-WIN, das Folgesystem zu G-WIN, und beschrieb am Beispiel der Grid-Anwendung im CERN die Entwicklung "von ersten Ansätzen der Wissenschaftsnetze zu modernen Kollaborationswerkzeugen". Anschaulich und informativ waren auch Olaf Schneiders (Karlsruhe) Erläuterungen zu "Web Services im CampusGrid". Er charakterisierte Web Services als die "lingua franca des Verteilten Rechnens". Aufbauend auf diese Berichte konnte Achim Streit (Jülich) Struktur und Zweck der UNICORE Software darstellen. UNICORE ist eine Grid Middleware Software, die schon in vielen Supercomputer Zentren sowie europäischen und internationalen Kooperationen eingesetzt werde. Es ist zugleich ein Open Source Produkt.

Die abschließende Podiumsdiskussion half, die Ergebnisse und Erfahrungen der Konferenz nutzbar zu machen, weil die Teilnehmer (Heinz-Gerd Hegering, Ulrich Schurr, Jülich, und Christian Wolff für die Wissenschaftler, Rafael Ball für die Bibliothekare und Jürgen Bunzel als Vertreter der Deutschen Forschungsgemeinschaft) die heute zentralen Fragen und Probleme der Wissensorganisation noch einmal formulierten. Sie gingen davon aus, dass die Grid-Technologie Institutionen und Ressourcen auf der Basis interaktiver Prozesse vernetzt und den Einsatz und Gebrauch von Technik effektiviert. Jürgen Bunzel wies allerdings darauf hin, dass Deutschland im internationalen Vergleich noch erheblich aufzuholen habe, etwa dabei, den Zugang aller wissenschaftlichen Einrichtungen zu Netzen und Ressourcen mit einheitlichen Authentifizierungssystemen zu vereinfachen. Betont wurde auch die Bedeutung von Bildern und Primärdaten als wesentliche neue Publikationsformen. Für Rafael Ball sind die Virtuellen Bibliotheken schon Vergangenheit, seit die Grid-Technik den interaktiven Zugriff auf Primärdaten möglich macht. Thematisiert wurde auch der Umstand, dass bisher die Naturwissenschaftler die Entwicklung der Informationsstrukturen bestimmt und vorangetrieben hätten, weil sie ihre Ideen und Ziele gleich mit eigener Kompetenz verwirklichen könnten. Mit der Frage, was die Verbreitung der neuen Dienste und Angebote hindere, wurden zugleich Aufgaben für die Zukunft formuliert: Die Systeme müssten nutzerfreundlicher und leichter bedienbar werden, Möglichkeiten und Bedingungen echter Interdisziplinarität müssten noch erforscht und entwickelt werden, Daten und Informationen müssten der interaktiven Nutzung adäquat aufbereitet und strukturiert werden. Diese Fragen könnten schon innerhalb wissenschaftlicher Institutionen aufgegriffen werden, etwa bei der Einrichtung und Ausgestaltung institutioneller Daten- und Dokumentenrepositorien, die ja auch für die Open Access-Bestrebungen als besonders zukunftsträchtig gelten.

Alle Themen und Beiträge sind, ergänzt um die ausformulierten Postersessions, in dem mächtigen und exzellent aufbereiteten Tagungsband dokumentiert. Dass er bei Konferenzbeginn schon vorlag, sollte besonders gewürdigt werden, weil er so ebenso zur Nachbereitung und Vertiefung anregt wie er die wertvollen Ergebnisse allgemein zugänglich macht.


Zur Autorin

Dr. Ulrike Eich ist Leiterin der

Hochschulbibliothek der RWTH Aachen
Templergraben 61
D-52062 Aachen
E-Mail: eich@bth.rwth-aachen.de