Persistent Identifier und Bibliothek 2.0

von Rüdiger Schneemann

Die von mir besuchten Veranstaltungen waren sehr gut besucht, zeitweise überfüllt. Die Organisatoren werden in Zukunft nicht umhinkommen, bei der Anmeldung schon die Gebiete zu erfragen, zu denen man hingehen möchte, um die Saalgrößen besser zuordnen zu können.

Ich hatte mir zwei Veranstaltungen ausgesucht: "Die Verwendung von Persistent Identifiern für den Zugriff auf digitale Objekte" [TK03 Bibliotheksorganisation und Informationsmanagement - quo vadis?] und "Bibliothek 2.0" [TK09 Elektronische Dienstleistungen in der Diskussion].

Auf den ersten Blick ergibt sich nur ein loser Zusammenhang: bei der einen wird erörtert, wie die Digitalisate verlinkt sein sollten, bei der andern, was man damit anfangen kann. Das klingt nach ziemlich handwerklichen Erörterungen, mehr oder weniger für Technikfreaks. Diese kamen auch zur Sprache, natürlich, aber es wurde auch Grundsätzliches thematisiert: wenn die Bibliotheken ihre Möglichkeiten nicht ausreizen, wenn sie nur ihre Bestände verwalten und nicht das enorme Potential z.B. neuer Webdienste nutzen, dann wendet sich das Klientel anderen zu. Bei Web 2.0 Communities ist der Prozess schon zu beobachten.

Ist das überzeichnet? Vielleicht, aber so ganz daneben ist es nicht; man braucht nur zu beobachten, wie sich Nicht-Bibliothekare gelegentlich äußern. Ein paar Beispiele:

Steht also das Ende der Bibliotheken bevor? Keineswegs, im Gegenteil, die Frische, die Qualität und der Optimismus vieler Präsentationen in Erfurt haben gezeigt, dass es gute Konzepte gibt, dass es klare Vorstellungen für eine Bibliothek der Zukunft gibt. Die folgenden Kurzberichte zu einigen Vorträgen geben dies hoffentlich wieder.

Die Verwendung von Persistent Identifiern für den Zugriff auf digitale Objekte

Von den Autoren/innen der neun Einzelbeiträge dieser Veranstaltung wurde übereinstimmend hervorgehoben:

Christa Schöning-Walter (dnb) stellte die PI-Strategie der Deutschen Nationalbibliothek vor. Die DNB verwendet den Uniform Resource Name (URN) und betreibt einen URN-Resolver für Deutschland, Österreich und die Schweiz. Alle Digitalisate (seit kurzem auch Fachartikel) bekommen eine URN, alle Titelsätze im Katalog erhalten einen Permalink (http-basierte URI); nur auf dieser Basis kann man Eingang im Web of Data (= Social Web bzw. Web 2.0 und Sematic Web bzw. Web 3.0) finden, für Anwendungen wie Bookmarking, Wikipedia, Zitierungen, Normdateien.

Warum wählte die dnb das System URN? Es ist weltweit eindeutig, global gültig, registriert von der Internet Assigned Numbers Authority (IANA). Technisch ist die URN-Vergabe relativ problemlos, wesentlich wichtiger sind Vergabepolitik und Klärung der Verantwortlichkeit in einer Region. Problematisch ist allerdings, dass bei allen Browsern die Resolver-URL der URN-Adresse vorgeschaltet werden muss, sonst ist eine weltweite Eindeutigkeit nicht gegeben. Um dieses Problem zu lösen, gibt es eine Initiative von Knowledge Exchange (Internationale Kooperation der DFG mit anderen Forschungsförderern), eine gemeinsame Infrastruktur zu schaffen und mit Hilfe der europeana einen gemeinsamen Resolving-Dienst zu schaffen, der von allen Browsern "verstanden" wird.

Viele Digitale Ressourcen müssen nicht nur auf Werkebene, sondern auch auf Seitenebene PIs bekommen. Dorothea Sommer (ULB Halle), Kay Heiligenhaus (2semantics) erläuterten URN Granular als ein Projekt zur Identifizierung und Adressierung von Einzelseiten digitalisierter Drucke, das für die Sammlung Ponickau der ULB Sachsen-Anhalts entwickelt worden ist (9.000 Drucke mit ca. 600.000 Seiten). Basis ist das X-Epicur-Format, um automatisiert über eine OAI-Schnittstelle Daten transferieren zu können. Auch das METS-Format wird bedient (erforderlich z.B. für den DFG-Viewer). Seit Frühjahr 2008 befindet man sich im Regelbetrieb. Für eine gute und einheitliche Policy prüfte man Empfehlungen von DFG, Allianz der Wissenschaftsorganisationen, EU etc.

Der Einsatz von PI ist unstrittig, man braucht aber auch für den Workflow ein gutes Hilfsmittel. Jochen Kothe (USB Göttingen) trug vor: Einführung und praktischer Umgang mit PIs für Digitalisate innerhalb der Produktionsumgebung Goobi. Diese open source Produktions- und Präsentationssoftware vergibt die PI automatisch, Metadaten und Texte werden im METS-Format transferiert, Bilder als TIFF (Details sind beschrieben in: Hans-Werner Hilse and Jochen Kothe: Implementing Persistent Identifiers, Göttingen 2006, ISBN 90-6984-508-3, frei im Web verfügbar). Und auch in diesem Vortrag wurde die Policy betont; Beispiele: wenn Bilder geändert werden, vergibt man eine neue URN, wenn nur die Metadaten geändert werden, bleibt die URN.

Monika Böhm-Leitzbach (Bundesrat), Stefan Wolf (BSZ) stellten vor: Das Informationsportal des Bundes als Agentur für die Vergabe von Pis. Das Portal des Bundes ist ein gemeinsames Angebot von 22 Behördenbibliotheken im Intranet des Bundes (IVBB-Netz) und ging 2004 an den Start. Der Publikationsserver basiert auf der Software BSZ Online-Archiv. Zum Leistungsumfang gehört die URN Vergabe durch das Programm SWB-Content vom BSZ und die automatisierte Meldung an die DNB.

Malte Dreyer (Max Planck Digital Library) beschrieb den Evaluationsprozess zur Auswahl einer geeigneten Basistechnologie für die PI-Infrastruktur der Max Planck Gesellschaft. Weil sich die Namen von Institutionen, Servern, Organisationseinheiten ändern können, suchte man sich aus dem Angebot der PI-Systeme (URI, XRI, Handle, DOI, URN, ARK etc.) einen semantikfreien PI und entschied sich für Handle. Wichtige Hinweise kamen von der Webseite von John A. Kunze "noid - nice opaque identifier generator commands". Innerhalb der MPG gibt es weiterhin auch andere Systeme; so nutzt das MPI für Metereologie sowohl DOI (aus Kostengründen nur auf höherer Ebene) als auch URN (für die Massen an Daten). Woran man noch arbeitet: man will auch Fragmente (Bildauschnitte, Sprungstellen von Videos) adressieren können (vergleichbar dem BMBF-Projekt HyperImage von HU Berlin und Uni Lüneburg).

Im Vortrag von Dr. Jan Brase (TIB): Der Digital Objekt Identifier (DOI) auch für Bibliotheken ging es um einen PI, der aus Handle entwickelt wurde und inzwischen eine geschützte Marke ist. DOI existiert seit 1998 und ist im Verlagswesen weit verbreitet. Seit 2005 ist die TIB eine nicht-kommerzielle DOI Registrierungsagentur (RA), hauptsächlich für Forschungsdaten und im Bibliothekskontext. RA für Verlage ist das kommerziell ausgerichtete CrossRef. Um ein gleichwertiger Partner zu werden, plant die TIB gemeinsam mit ZBMed und ZBW die Gründung eines europäischen Konsortiums, als RA für öffentliche Einrichtungen.

Da sich jeder ein Handle-System besorgen kann, gründete man die non-for-profit-Organisation International DOI Foundation (IDF) als Basisorganisation. Derzeit hat die IDF 7 Registrierungsagenturen. Seit 2006 arbeitet die ISO Working Group 26324 an einer Standardisierung, die eine wichtige Voraussetzung für eine Browser-Implementierung ist. DOIs haben im Gegensatz zur URN keine geographisch abhängige Resolveradresse, es genügt weltweit der gleiche Vorspann http://dx. Derzeit gibt es 30 Mio. DOI-Namen, 98% davon für Zs-Artikel.

Drei Beiträge befassten sich mit Entwicklungen in der Schweiz und in Österreich. Barbara Signori (Schweizerische Nationalbibliothek) erläutete das Projekt e-Helvetica: URN-Politik in der Schweizerischen Nationalbibliothek und im Hochschulbereich Schweiz. Mit einen gemeinsamen internationalen URN-Auflösungsservice befasste sich Ross King (Austrian Research Centers): Der Europeana Resolution Discovery Service. Abschließend erörterte Niklaus Bütikofer (Uni Bern): Kriterienkatalog zur Prüfung der Vertrauenswürdigkeit von PI-Systemen. Seine wichtigsten Fragen waren: Welche Verantwortlichkeiten übernimmt der Betreiber des Resolverdienstes, welche der Nutzer? Wie definiert sich die Identität zwischen Objekten? Welches sind Kernfunktionen eines PI-Systems, welches sind Mehrwertdienste?

Bibliothek 2.0

Zu diesem Themenkreis äußerten sich sechs Autoren/innen - ebenfalls sehr qualifiziert. Der Moderator, André Schüller-Zwierlein (UB München), führte mit der Bemerkung ein, dass die Veranstaltung auch "Zugänglichkeit" oder "Kollektive Zugänglichmachung" hätte heißen können. Übergreifend stellte man fest:

Nun zu den einzelnen Beiträgen:

Christof Niemann (UB Mannheim): Wissensmanagement im digitalen Zeitalter: Kooperative Intelligenz und inhaltliche Erschließung. Soziales Verhalten und Lernen der heutigen Studierenden sind von virtuellen Communities wie StudiVZ geprägt. Konsumenten werden zu Prosumenten durch Kommentieren, Annotieren, Tagging (Schlagwörter vergeben). Niemann untersucht in einem DFG-Projekt, ob dieses Verhalten auch in Bibliotheksangeboten nutzbar gemacht werden kann. Beispiel: Tagging als Ergänzung zur Schlagwortvergabe und zum automatischen Indexieren für OPACs.

Vorgehen: Titel, die in Bibsonomy getaggt sind, werden im Opac angezeigt (momentan 62.000 Tags bei 250.000 Einträgen). Um die Datenmenge zu reduzieren, schränkte man die Tags auf deutsche Sprache und Substantive ein und löste Wortketten auf. Dann analysierte man sie mit Natural language processing (NLP), der Software Semtinel und intellektueller Überprüfung. Im Vergleich zum automatischen Indexieren bringt Taggen weniger Begriffe, ist aber deutlich kreativer; zudem beinhaltet es einen Empfehlungscharakter. Man kann zudem auf der Basis des Taggings auch Benutzergruppen erfassen (clustern). Fazit: Tagging kann zur Aktualisierung der Schlagwörter genutzt werden. Es ist besser als gar keine Erschließung, eine fachliche Aufsicht ist unabdingbar.

Jutta Bertram (FH Burgenland) machte sich Gedanken zu Social Tagging - mehr als eine Spielwiese für Bibliotheken? Wer taggt? Es sind keine Informationsspezialisten, sondern Leute, die kommunizieren wollen. Wie wird getaggt? Frei, offen sichtbar, gemeinschaftlich, kumulativ. Wo liegen die Probleme? Schreibweisenunterschiede, "Metadatenmüll". Fazit: Es macht nicht immer Sinn, Web 2.0-Anwendungen einfach in Bibliotheken nachzubilden. Viel wichtiger und erfolgversprechender ist es, Brücken zu bauen und Bibliotheksdienste mit Web 2.0 Anbietern zu koppeln: Beispiele: KUG (UBS Köln) + Bibsonomy, KOBV + LibraryThing.

Sehr spannend war die Präsentation von Peter Kostädt (USB Köln): Bibliothekswebsite 2.0 - Auf dem Weg zu einer einheitlichen Benutzeroberfläche. Websites von Bibliotheken leiden unter dem häufigen Bruch von Seitenlayout und Navigationsstruktur für ihre unterschiedlichen Dienste (Katalog, Fernleihe, EZB, DBIS, etc.), die häufig auf externen Servern laufen. Die USB Köln verfolgt nun einen "ganzheitlichen" Portalansatz:

Die Projektgruppe besteht aus acht Kollegen/innen (die weiterhin ihrer "normalen" Arbeit nachgehen) bzw. Gästen (auch Studierenden); es erfolgte keine Beschaffung zusätzlicher Programme, man nutzte vorhandene Ressourcen der USB bzw. des HBZ. Etwas zur Systemarchitektur: 3-Schichten-Modell, bestehend aus Präsentationsschicht (Apache, ZMS-Zope, IPS); Serviceschicht (SOAP, HTTP, Z39.50); Datenquellen. Inzwischen ist die Beta-Version schon im Web sichtbar, die endgültige Freischaltung steht bevor. Fazit: Eine vorbildliche Erfolgsgeschichte, die zeigt, was Bibliotheken aus eigener Kraft schaffen können. Voraussetzungen: man orientiert sich konsequent am Kunden, hinterfragt bibliothekarische Gewohnheiten, scheut weder Kritik noch Dialog, bündelt vorhandene Fähigkeiten und Interessen, nutzt kooperativ externe Ressourcen.

Anette Seiler (HBZ) hob ebenfalls die Kundenorientierung hervor: Was die Benutzer wollen: mehr als Metadaten. Das Ziel des Endnutzers ist nicht ein Katalogisat (Metadaten), sondern möglichst die Information selbst (Volltext). Ein wichtiger Schritt dorthin ist die Anreicherung von Katalogen mit Digitalisaten, Inhaltsverzeichnissen, Klappentexten, Probekapiteln u.v.m. Das HBZ hat inzwischen 170.000 ToCs (Inhaltsverzeichnisse) hinzugefügt. Weiterhin hat es in Kooperation mit Walter Nagel und Semantics das ScantoWeb eingerichtet, mit dem Ziel, große Mengen bearbeiten zu können (quasi industrialisiert). Pilotprojekte: ULB Bonn und Lippische Landesbibliothek in Detmold. Ein weiteres Projekt hat zum Ziel, die meistgenutzten Bücher digitalisiert in den Räumen der Bibliotheken zum Lesen anzubieten (nicht zum Download, gemäß Urteil des LG Frankfurt zum §52b UrhG zur UB Darmstadt vom Mai 2009).

Volker Conradt (BSZ) widmete sich dem Thema Enduser Environment - OPAC, Portale, Suchmaschinen. Bibliotheksbenutzer erwarten die nahtlose Integration von bibliothekseigenen und externen Angeboten, wollen aber auch, dass die lokale "Heimatbibliothek" erkennbar als Anbieter auftritt. Mit selbst erstellten Modulen, MashUps, Verlinkungen etc. bemüht man sich um umfassende Angebote. Am Beispiel BAM-Portal (Bibliotheken, Archive, Museen), gehostet vom BSZ, kann man das gut beobachten; dazu gehören: Suchmaschinentechnilogie (Lucene), Metadatenindex, Drilldowns und Facettierungen, Links zu Wikipedia und WorldCat, Verfügbarkeitsrecherchen bei Buchhändlern, JOP-Dienst (Journals Online & Print) von EZB/ZDB.

Zum krönenden Abschluss stellte Anne Christensen (SUB Hamburg): Bibliotheksdienste für soziale Netzwerke vor. Sie präzisierte nochmals die Forderung der Bibliothek 2.0-Bewegung, Bibliotheksdienste dort anzubieten, wo sich die Benutzer/innen befinden. Soziale Netzwerke sind die virtuellen Treffpunkte im Web mit hohen Reichweiten, insbesondere bei jungen Erwachsenen. Bibliotheken sollten deswegen sichtbar sein, z.B. ist die ETH in Facebook (schon >130 Fans) oder auch der Datenbankhersteller PubMed. Die TIB Hannover ist mit WiWiBib in Twitter aktiv. Noch wichtiger aber sind die Lernplattformen (Studie "Learning Delphi 2008" vom MMB-Institut). Beluga, das Katalog 2.0-Projekt der Hamburger Bibliotheken, greift die genannten Intentionen auf. Fazit: Ob Facebook oder andere Plattformen bleiben, ist unklar; das Schema "Soziale Netzwerke" aber bleibt, vgl. dazu die OCLC-Studie Sharing, Privacy and Trust in Our Networked World, es lohnt sich also für jede Bibliothek, sich zu engagieren.


Autor

Rüdiger Schneemann

TU Berlin - Universitätsbibliothek
Abt. Digitale Dienstleistungen
schneemann@ub.tu-berlin.de