Digital Libraries

Informationsform der Zukunft für die
Informationsversorgung und Informationsbereitstellung?

Teil 4: Kapitel 5.0 bis 5.8

(Teil 1: Heft 2/1999, Teil 2: Heft 3/1999, Teil 3: Heft 4/1999)

von Diann Rusch-Feja


Abstract

1. Digital Library - Bezeichnung und Deutungsschwierigkeiten
  1.1 Der Begriff und seine Herkunft
  1.2 Verbreitung und Veränderung in der Bedeutung
  1.3 Abgrenzung zu Electronic Library, Traditional Library
        und Informationssystem (im herkömml.Sinn)
  1.4 Virtuelle Bibliothek
2. Die ersten Digital Libraries
  2.1 Erste Forschungsaufträge für die digitale Bibliotheken
3. Förderung der Digital Libraries
  3.1 National Science Foundation
  3.2 DARPA, NIH, NHI, NLM, LOC etc. in USA
  3.3 Research Libraries Group & Digital Libraries Federation
  3.4 eLIB (UKOLN, JISC) in Großbritannien
  3.5 EU Projekte (DESIRE, NORDIC Metadata Project), andere
  3.6 NSF / EU Kooperation, DFG / international Kontakte
  3.7 DFG "Digital Forschungsbibliothek"
  3.8 GLOBAL-INFO
  3.9 Niederlande, Frankreich, Schweden, Rußland, Portugal, etc.
  3.10 Asien, Japan, Hongkong
  3.11 Australien, Neuseeland
4. Forschung über und in der Digital Library
5. Generelle Charakteristika der Digital Library

  5.1 Systemarchitektur der digitalen Bibliothek

  5.2 Metadaten

  5.3 Dokumentenerstellung

  5.4 Interoperabilität

  5.5 Retrieval & Schnittstellen

  5.6 Gateways, Clearinghouses etc.

  5.7 Paradigmenverschiebung bzw. -wechsel

  5.8 Elektronische Zeitschriften

  5.9 Abrechnungsmodalitäten
  5.10 Archivierung
  5.11 Leistungsmessung und Evaluierung
6.0 Die Rolle der Bibliothekare in der Digitalen Bibliothek
7.0 Zusammenfassung und Zukunftsperspektive


 

5. Generelle Charakteristika der Digital Library

Die digitale Bibliothek ist "a managed collection of digital objects and services that support the storage, discovery, retrieval and preservation of those objects."1 Somit ist die Funktionalität der digitalen Bibliothek, diese Dienste für die Interessen ihres Klientels anzubieten bzw. zu ermöglichen. Dazu gehören ein Namensdienst, Speicherdienste ("repository services"), ein Indexierungsdienst und ein Retrievaldienst. Die Sammlung selbst (hier "collection") wird nach den Benutzerbedürfnissen zusammengestellt. Die Dienste, die hier angesprochen sind, vertreten sowohl die Dienste, die vor Ort produziert werden, als auch Dienste, die über externe Anbieter, über vernetzte Quellen erreichbar sind, und Dienste, für die eine zeitliche Nutzung gekauft wird (Lizenzierung, "pay-per-view" etc.). Der Datenaustausch bzw. die gleichzeitige Ansprechbarkeit und gegenseitige Verarbeitungsmöglichkeiten verschieden gelagerter, strukturierter und verteilter Datenquellen unter möglichst einem Arbeitsvorgang bzw. einer Suchoberfläche bietet einen hohen Grad von Interoperabilität. Somit können im Hintergrund zu einer Literatursuche verschiedene Bibliothekskataloge, Verlagsserver (inklusive konfigurierter Nutzungsbedingungen für den Computer, von dem die Abfrage stammt) und andere Dienste (Lieferdienste, Homepage des Autors etc.) angesprochen werden und miteinander "kommunizieren." Dem Nutzer werden dann verschiedene Auswahlmöglichkeiten (Zugang zu den elektronischen Zeitschriften je nach Lizenzierungsabkommen, Kauf eines Aufsatzes, Herunterlademöglichkeit von der HomePage des Autors, Bestellung über einen regionalen Lieferdienst etc.) angeboten.

Die Definition von Lagoze und Payette bezieht sich auf den Bereich der Informatik, von wo aus die ersten digitalen Bibliotheken (wie NCSTRL http://www.ncstrl.org) entwickelt wurden. David Levy von der Forschungsabteilung der Firma Xerox bemerkt: "The current digital library agenda has largely been set by the computer science community and clearly bears the imprint of this community's interests and vision."2 Aber auch in anderen Fällen und fachbezogenen Bereichen, in denen rein digitale Werke gesammelt, verzeichnet und zur Nutzung angeboten werden, gilt diese Definition. Wenn jedoch die digitale Bibliothek in die herkömmliche Bibliothek integriert wird, um möglichst alle Dienste über ein sog. Portal zu integrieren, dann ist es unvermeidlich, dass neben den digitalen Objekten (Volltexte, Bilder, Software etc.) im selben System auch über digitale Nachweisinformationen und Metadaten auf nicht digitalisierte, physisch greifbare Objekte hingewiesen wird und diese ggf. auch bestellt werden können, also eine heterogene Informationsumgebung. So versteht Chris Rusbridge3 den Begriff der "Hybridbibliothek", den auch Herbert van de Sompel und andere für die kombinierten Informationsdienste der Zukunft anwenden.4

Die Mischung von traditionellen Bibliotheks- und Informationsdiensten inklusive der Integration externer Informationsdienste und -quellen bringt Probleme mit sich, die nicht nur rein technischer Art sind. Nürnberg et al. betonten bereits 1995, die Probleme bei digitalen Bibliotheken sind Variationen der Probleme anderer Fachgebiete, obwohl es wiederum vereinfacht sei, digitale Bibliotheken als natürlichen Auswuchs der bereits bekannten Datenbankwelt anzusehen.5 Auf der einen Seite sind digitale Bibliotheken eine Form von "federated databases" (Nürnberg et al.), auf der anderen Seite jedoch sind digitale Bibliotheken eine Sonderform der Hypertexttechnologie. Wenn dann auch hochspezifische Dienste anderer Quellen sowie externer Sammlungen aller Art einbezogen werden, dann entsteht die Hybridbibliothek. Dies führte bereits zu dem Vergleich, dass das World Wide Web ebenfalls eine umfassende digitale Bibliothek sei. Diese Auffassung wird jedoch relativiert von Lagoze und Payette in deren Bemerkung: Das World Wide Web in sich ist noch keine digitale Bibliothek, weil die Komponente des Collection Management bzw. Service-Management noch fehlt. So umfasst eine realistische Darstellung der Informationswelt in der unmittelbaren Zukunft wohl eine strukturierte Mischung digitaler und nicht digitaler Bestände und Dienste, die bestimmte Zwecke und Nutzerbedürfnisse erfüllen.6

5.1 Systemarchitektur der digitalen Bibliothek

Die Systemarchitektur einer digitalen Bibliothek beinhaltet die Art und Weise wie die Methodik, mit der die Informationen einer oder verschiedener Daten- und Informationssammlungen ("Repositories") zwecks einer effektiven Nutzung organisiert und strukturiert wird. Die Strukturen ermöglichen, dass das Wiederauffinden gezielt, einfach, präzis und schnell ist, und die Integration der Informationsinhalte in weitere Verarbeitungsschritte muss leicht und ohne Schwierigkeiten sein (ohne Neuformatierung, ohne rechtliche Einschränkungen etc.).

Zum Teil beruht die Systemarchitektur der digitalen Bibliothek auf der Wissensrepräsentationsphilosophie, die in den Strukturen inhärent ist. Bei jedem System mit einer Systemarchitektur ist eine Stufe bzw. eine Art künstliches Intelligenzsystem vorhanden, die einem Wissensrepräsentationssystem zugrunde liegt. Dieses System muss nicht einmal einheitliche Komponenten haben, sondern setzt voraus, dass die Systemarchitektur die Basis dafür gibt, alle uneinheitlichen Subsysteme und Komponenten im System zusammenzuführen oder zumindest über Indizes oder eine andere Methodik einheitlich ansprechbar zu machen. Ziel der Systemarchitektur ist es, eine Recherche zu ermöglichen, die gleichermaßen Treffsicherheit in allen Formaten und differenzierten Formen / Strukturen von Informationen bietet. Eine solche Architektur beruht auf einer oder mehreren Ontologien.7 Ebenso wichtig ist die gleichzeitige Bedienung mehrerer unterschiedlicher Nutzercommunities mit dem Ziel, die Informationsinhalte so organisiert darzustellen, dass die Nutzer sie identifizieren, auswählen und weiterverarbeiten.8

Bisher hatten Bibliotheken ihre Sammelpolitik auf Bücher, Zeitschriften, Loseblattsammlungen und andere Texterzeugnisse eingeschränkt, die relativ seriös waren. Die Medieneinheiten standen an einem Standort mit Hinweisen über den Inhalt durch ein Nachweissystem mit mehreren Zugangsebenen (Haupteintrag, Autorennamen, Titel, Gesamttitel, Schlagwörter, ggf. geographische Schlagwörter etc.). Mit der Einführung von computer-gestützten Bibliothekskatalogen konnte man mehrere Begriffe gleichzeitig bei der Recherche kombinieren, mehrere Zugangspunkte gleichzeitig integrieren, um die Suche präzis und erfolgreich zu gestalten. Diese Suche fand jedoch nur in vereinzelten Beständen statt. Auch mit der Z 39.50 Schnittstelle war lediglich in Bibliothekskatalogen gleichzeitig zu recherchieren. Bildmaterial, Ton- und Klangmaterial, Filmgut und andere Arten von Informationsträgern waren oft in anderen Einrichtungen mit wenigen Berührungspunkten gehalten und verzeichnet. Das Zusammenführen aller relevanten Materialien und Informationsformen zu einem Thema scheiterte an der Getrenntheit der Bestände nach Format, nach Herkunft, nach Nutzungsart, nach Zugänglichkeit, nach abweichenden Nachweisarten. So ermöglicht die Systemarchitektur einer digitalen Bibliothek den Zugang, die Verarbeitung verschiedenartiger Bestände, auch derjenigen, die nicht mit derselben unterliegenden Struktur bzw. dem Protokoll versehen sind, etc. und vor allem derjenigen, die an verschiedensten Orten in der Welt liegen, ggf. in verschiedenen Sprachen.

Die Struktur und das Design der digitalen Bibliothek hängt auch von der Struktur und Reichweite der Informationen ab, die in der digitalen Bibliothek nachgewiesen und gespeichert werden sollen, von den vorgesehenen Nutzerkategorien, von den Bedürfnissen der einzelnen Nutzergruppen etc. Teilweise hängt wiederum die Struktur der gespeicherten Daten und Dokumente sowie der Detailliertheitsgrad der Metadatenerfassung von diesen nutzerdefinierten Zielen ab (siehe unten, Punkt 5.3). Effektive Recherchen in einem so heterogenem System erfordern ausreichende Metadaten für solche Objekte, und diese Metadaten müssen im Einklang mit den zu antizipierenden Nutzerbedürfnissen stehen. Eine ebenso wichtige Voraussetzung ist ein adäquater Retrievalmechanismus, der auch nicht-textbezogene Dateien mit berücksichtigt.

Die Integration von verschieden verteilten und verschiedenartigen Beständen erfolgt über dieselben grundlegenden Komponenten: 1) eine Erschließungsmethode, die das einheitliche Wiederauffinden von Informationen von verschiedenen Nutzergruppen zu verschiedenen Zwecken ermöglicht, 2) ein Retrievalsystem, das alle Datenkomponenten und -formate verarbeiten läßt, und 3) eine Systemarchitektur, die alle Nutzungsaspekte und Informationsverarbeitungsmodalitäten im Gesamtsystemaufbau berücksichtigt. Das Erschließungssystem beruht auf Metadaten, das Retrievalsystem beruht auf die Basis der Interoperabilität und die Systemarchitektur basiert auf der gewünschten Funktionalität des gesamten Systems, ggf. auch innerhalb eines Netzwerks von Informationssystemen. So kann man drei Schlüsselaspekte der digitalen Bibliothek zusammenfassen:

Integration - Funktionalität - Interoperabilität

Neben diesen gehören noch die Erhaltung der Datenqualität, der Datenintegrität und der Datensicherheit dazu. Die Datenqualität beruht nicht nur auf den Daten selbst und ihren Inhalten. Auch hier spielen die Ermittlungsmerkmale der Daten (durch verschieden tief strukturierte Metadaten und Wiedergabeformate) eine große Rolle und inwieweit und für welche Nutzergruppen diese Ressourcen nützlich sind.

Auf der einen Seite beruht die Datenintegrität auf der Verifizierung und Validität der Daten und auf der anderen Seite auf der Pflege und den Aktualisierungsmerkmalen und damit der Organisation des Systems sowie der Datensicherheit. Letzteres, die Datensicherheit, dient sowohl dem Schutz des Systems und dem Schutz der Datenintegrität als auch dem Schutz der Qualität des Systems.

Kryptographie und Datensicherheit

Wichtig sind die verschlüsselten Dateien bei Transaktionen, die zum einen kostenpflichtige Bewegungen ("pay-per-view" oder Abrechnungsmodalitäten auf individueller oder institutioneller Basis) oder zum anderen die Integrität der Autorenrechte / -schaft und Schutz des intellektuellen Eigentums gehen. Verschiedene Verschlüsselungsarten werden eingesetzt und erprobt: digitale Wasserzeichen, persönliche Signaturen, die aus Verschlüsselungen zum Abgleich bestehen, etc.

Eine weitere Variante der Kryptologie ist die Frage des "Datumstempels" und eines "notarisierten" elektronischen Dokuments, zum Beispiel durch das "date-time-stamping" nach den Algorithmen von Scott Stornetta and Stuart Haber (1991): "In a simplistic notarizing system, users send the operator messages and the operator dates them and digitally signs the message. ... The basic idea is that users submit hashed codes for the documents they wish to notarize, using a good one-way hash function, so that no one can create a document matching that hash code. The notarizer adds a date, rehashes, and sends back the hashed string. But the new hash is not just based on the date and on the hash codes of the previous document sent in and the next one. In order to be deceptive, it would be necessary not only to create a fake hashed code for the original user but to create an entire chain of fake hashes involving everything submitted to the hashing authority. This is not possible."9

5.2 Metadaten

In ihrem Übersichtsartikel zum Thema Metadaten im Annual Review of Information Science and Technology (1998) notiert Sherry Vellucci, dass Ersteller, Provider und Nutzer von elektronischen Ressourcen - vor allem in den akademischen, öffentlichen und kommerziellen Sektoren - unterschiedliche Lösungsansätze benutzten, um die Organisations- und Managementprobleme bei den Massen von Informationen im Internet und in vernetzten Informationsressourcen zu bewältigen. Vellucci merkt an, wie wichtig es ist, dass diese einzelnen Gruppen ihre Beiträge gegenseitig anerkennen, damit sie zusammen eine flexible Struktur für die Organisation und den Zugang zu Internet-Ressourcen ermöglichen. Sie sieht Metadaten sowohl als Organisationsinstrument als auch als Werkzeug für das Ressoucenmanagement: "Metadata …a term which transcends boundaries among various stakeholders in the Internet arena and provides a common vocabulary to describe a variety of data structures. The stakeholders interested in metadata are diverse and include the computer scientists and engineers who develop Internet search engines and create standards for Internet documents, the scholars in specific disciplines who develop Internet texts and image documents and databases, the librarians and archivists who organize and provide access to electronic resources, and the general Internet users who want to improve web site retrieval." 10

Bibliographien zum Thema Metadaten zur Erschließung elektronischer (und ggf. nichtelektronischer) Ressourcen in digitalen Bibliotheken werden aktuell gepflegt bei der IFLA (Digital Libraries: Metadata Resources http://www.ifla.org/ifla/II/metadata.htm), auf den UKOLN Projektseiten (Metadata. UK Office for Library and Information Networking, http://www.ukoln.ac.uk/metadata/), beim World Wide Web Consortium (http://www.w.3.org/Metadata/), bei der US Umweltschutzbehörde (U.S. Environmental Protection Agency, EPA Scientific Metadata Standards Project, http://www.lbl.gov/~olken/epa.html), beim australischen Distributed Systems Technology Centre, Resource Discovery Unit, http://www.dstc.edu.au/RDU/, und im Abschnitt "Cataloging, Classification, and Metadata" von Charles W. Baileys "Scholarly Electronic Publishing Bibliography, Version 29 [HTML: URL: http://info.lib.uh.edu/sepb/sepb.html Acrobat: URL: http://info.lib.uh.edu/sepb/sepb.pdf Word 97: URL: http://info.lib.uh.edu/sepb/sepb.doc], http://info.lib.uh.edu/sepb/sepb.html. Diese Sammelquellen bieten nicht nur Literatur und Homepages zu den verschiedenen Metadateninitiativen, sondern auch Listen von Metadatenprojekten, Anwendungsberichten, Autorentools für Metadaten und in einigen Fällen auch Annotationen zu den aufgeführten Ressourcen.

Die Geschichte von Metadateninitiativen wird von Holley R. Lange und B. Jean Winkler in ihrem Aufsatz von 199711 dargestellt. Vellucci setzt diese Übersicht über verschiedene Metadatenansätze (IAFA, EAD, TEI, FGDC, DC) fort, die von 1996-1998 in englischsprachigen Ländern bei einer Vielzahl von Metadatenprojekten in den USA und Europa im Einsatz sind. John T. Phillips behandelt Metadaten bei Datenbankenanwendungen.12 Der Begriff "Metadata" in seiner Definition "Daten über Daten" wird sowohl für die Verzeichnung und Indexierung von elektronischen als auch für nichtelektronische Ressourcen benutzt. Dies führte zu gewissen Widerständen in der Bibliothekswelt, die von Mary Larsgaard für geospatielle Metadaten13 und Priscilla Caplan für Metadatenanwendung bei allgemeiner Katalogisierung14 widerlegt wurden. Lorcan Dempsey und Rachel Heery (1997) definieren eine Typologie von drei Metadatenkategorien: 1) unstrukturierte Daten, die automatisch aus den Ressourcen extrahiert werden und für Retrievalzwecke indexiert werden, 2) strukturierte Daten, die die Feldsuche von diskreten Objekten unterstützen, und 3) hochstrukturierte Datenformate für Lokalisierung, Auffinden (Suche) und Beschreibung von spezialisierten, domain-spezifischen diskreten Objekten oder Sammlungen von Ressourcen.15 Diese Typologie vergleicht außerdem 22 Metadatenformate (darunter das Text Encoding Initiative (TEI) (http://www-tei.uic.edu/orgs/tei/), das Encoded Archival Description (EAD) (http://lcweb.loc.gov/ead/), den Government Information Locator Service (GILS) (http://www.gils.net/) etc.).

Unter den vielen (vgl. die IFLA Net "DIGITAL LIBRARIES: Metadata Resources" http://www.ifla.org/II/metadata.htm) Metadatenformaten hat der Dublin Core Metadatensatz weltweit große Anwendung gefunden, obwohl dieser stets in Konkurrenz mit den TEI, EAD, GILS, MARC und IAFA Whois++16 Metadatenformaten steht, die ggf. früher und in größeren Projekten benutzt worden sind. Bei einigen dieser Formate gibt es große Überschneidungen mit Dublin Core Metadaten, vor allem bei dem in Arbeit befindlichen Dublin Core Qualified Metadatensatz (siehe unten). Insbesondere jedoch bei TEI, MARC und zum Teil bei GILS und EAD ist der Metadatensatz eher textbezogen, wo der Dublin Core Metadatensatz bei allen elektronischen Ressourcen gut anwendbar ist.

Die Text Encoding Initiative (TEI) ist eine der ersten Metadatenansätze, der SGML (Standard General Markup Language) für die Einbettung von bibliographischen und textorganisierten Metadaten innerhalb derselben Datei mit dem Textinhalt angewandt hat. TEI wurde zunächst in der Zeit der Digitalisierung von Printtexten entwickelt17 und enthält neben der Textinformation über das Quellenwerk auch Information zur Kodierung und zum Bearbeitungsvorgang. So ergeben sich 4 Komponenten im Header: 1) Beschreibung der Datei, 2) Kodierungsbeschreibung, 3) Profilbeschreibung und 4) Beschreibung des Status im Arbeitsvorgang. In der ersten Komponente ähnelt die Beschreibung des Textes den bibliographischen Daten in einer Titelaufnahme nach den Anglo-American Cataloging Rules (AADR2). Ein MARC-TEI-Konvertierungsprogramm wurde an der University of Virginia, obwohl die direkte Mapping der Felder nicht immer vollkommen übereinstimmt, angewandt.18 Bis dato wenden mehr als 60 Digitalisierungsprojekte für Texte die Richtlinien für TEI bei der Metadatenerfassung an.19

Ein weiterer Metadatensatz, der auf der Basis von SGML DTD basiert, wurde in der Archivierungslandschaft entwickelt, um geeigneten Zugang zu elektronischen Archivinformationen über die Attribute im MARC-Metadatensatz hinaus zu ermöglichen. Ein kooperatives Projekt unter der Leitung der University of California, Berkeley, entwickelte einen Standard für die maschinelle Verarbeitung von Informationen über Fundstellen, die dann zum Encoding Archival Description (EAD) wurde. Dieser Standard wurde vorwiegend zur Beschreibung von Sammlungen in Bibliotheken, Archiven, Museen, Indizes etc benutzt. EAD hat eine hierarchische Struktur, die aus einem Header (mit großer Ähnlichkeit zum TEI Header) und einer Fundstellenbeschreibung (mit Informationen über die gesamte Sammlung von Ressourcen) besteht. Der EAD-Standard wird von der Library of Congress in Zusammenarbeit mit der Society of American Archivists gepflegt. Projekte, die den EAD-Standard anwenden, sind das Library of Congress American Heritage Virtual Archive, das Berkeley Finding Aid Project, und das Duke University Digital Scriptorium.20

Der Dublin Core entwickelte sich aus Überlegungen von Bibliothekaren, Informatikern und Fachwissenschaftlern, die 1995 einen einfachen Metadatensatz zur Erfassung und Wiederauffindung elektronischer Ressourcen konzipierten, der die Einschränkungen bisher bekannter Metadatensätze überwinden könnte, und vor allem für jeden im World Wide Web anwendbar sei. So entstand der Dublin Core aus zunächst 13 Elementen (1995 wurden es endgültig die heute bekannten 15 Elemente), die nach den Prinzipien des Dublin Core alle wiederholbar, optional, erweiterbar, und syntaxunabhängig sind.21 Die Standardentwicklung in der Dublin Core-Gemeinschaft erfolgt über Konsensbildung der weltweit freiwillig Beteiligten. Einzelne Arbeitsgruppen widmeten sich den Problemen der Anwendung der Elemente sowie verschiedenen Aspekten der Nutzung des Dublin Core wie Mehrsprachigkeit, Zitierweisen für geteilte Ressourcen, spezifischen Problemen der Anwendung in einzelnen Fach- oder Berufsbereichen etc. (siehe Dublin Core Working Groups auf der DC HomePage). Nach Konsensbildung in den einzelnen Arbeitsgruppen veröffentlichen sie ihre Berichte und Empfehlungen, die dann von dem Dublin Core Advisory Committee und Usage Board (Nutzungsbeirat) begutachtet und abgestimmt wurden. Die Anerkennung des Dublin Core Standard wird bei der NISO und ISO angestrebt. Bisher sind die einfachen 15 Elemente im Internet RFC 2413 zum inoffiziellen Standard geworden und die europäische Standardorganisation hat den Dublin Core ebenfalls anerkannt.22

Erfahrungsberichte und Darstellungen der Anwendung von Dublin Core in Projekten sind über die Dublin Core Metadaten Initiative HomePage anzusehen. Aus vielen Projekten weltweit entstand eine Reihe von Masken und Metadatengenerierungswerkzeugen für Dublin Core Metadaten, die von der Dublin Core Metadata Initiative zusammengestellt worden sind (http://purl.org/dc/tools/index.html), inklusive Konversionsprogramme für bibliographischen Daten nach US-MARC in Dublin Core. In diesem Zusammenhang sind die Leistungen aus dem Nordic Metadata-Project nennenswert, aus dem eine der größten Sammlungen von unterschiedlich erzeugten Metadaten, eine auf Dublin Core basierte Suchmaschine und ein Metadatengenerierungstool entstanden sind.23

Weitere Erfahrungsberichte mit dem Einsatz von Dublin Core Metadaten im Arts and Humanities Data Service (AHDS) in Großbritannien24 zeigen anhand der Diskussion bei der Anwendung von Dublin Core Metadaten die Schwierigkeiten der Nutzung jeder Art von Metadaten in zweidimensionalen Systemen wie HTML. Der Bericht untersucht die Effizienz und Eindeutigkeit der Metadatenvergabe nach den damaligen Dublin Core-Prinzipien für verschiedene Medienarten inkl. Kunstobjekten und deren digitale Surrogate, Datenbanken, archäologische Fundstellen und Funddaten, elektronische Texte, digitales und nicht digitales Filmmaterial, geospatielle Daten, Multimedia, und Tonaufnahmen u.a. Die Diskussion dieser Schwierigkeiten bei der Metadatenvergabe, z.B. Nesting (Einbettung) von Metadaten über Surrogate und Originalobjekte, verstärkte den Übergang in der Dublin Core Community auf der einen Seite zu einer qualifizierten Unterteilung der ursprünglich vorgesehenen 15 Elemente25 bzw. auf der anderen Seite zu Metadatenstrukturen im Resource Description Framework26 in einer XML-Umgebung zur Lösung dieser Strukturenge. Die Dublin Core-Arbeitsgruppe für das Datenmodell hat sich ausführlich mit der Resource Description Framework beschäftigt und Richtlinien zur Erstellung von Dublin Core Metadaten im RDF ausgearbeitet (http://www.ukoln.ac.uk/metadata/resources/dc/datamodel/WD-dc-rdf/). So kann die Mehrdimensionalität bzw. Heterogenität von Datensammlungen, wie oben in der Diskussion der Systemarchitektur der digitalen Bibliotheken erwähnt, durchsichtiger, jedoch auch tiefer erfasst und von den Verarbeitungsprozessen in der digitalen Bibliothek bearbeitet werden. So können bestimmte Interoperabilitätsengpässe mit semantisch begrenzten Metadatensystemen überbrückt werden, um alle inhaltlichen, formalen und sonst relevanten Aspekte einer Informationsquelle zusammenzuführen und in einem einzigen Suchvorgang zu verarbeiten.

Bei der Metadatendiskussion taucht immer wieder die Frage nach der "granularity" (zu Deutsch "Granularität" oder Tiefenstruktur") der Strukturen auf: Welche strukturellen Komponenten vorhanden sind und in welchen Verhältnissen sie zueinander stehen. Gibt es eine interne Struktur an sich sowohl in einer Informationsressource als auch in einer Datensammlung? Gibt es eine Metastruktur wie ein Directory, eine Übersicht etc. Die "Granularität" betrifft auch die Betrachtung, ob die Strukturelemente kontinuierlich oder diskret (einmalig) sind. Z.B. eine kontinuierliche skalierbare Anzeigenoberfläche, die vom Standpunkt räumlicher Repräsentation auch kontinuierlich ist. Solche Angaben sind für die Darstellung von geophysischen Koordinaten etc. erforderlich. Strukturverbindungen (structural relationships) bedürfen in manchen Anwendungen einer bestimmten Grammatik, mal sind sie eingeschränkt, mal uneingeschränkt. "Granularität" betrifft auch das Problem der "Nesting-Umgebungen". Hierzu stellt sich die Frage: Erlaubt das zugrundeliegende System einer digitalen Bibliothek eine freie Zuordnung, die evtl. Hierarchiestrukturen in sich birgt? Nämlich ein "Nesting of environments"? Wenn ja, ist das Nesting, z.B. einer Liste innerhalb einer Sektion, eine syntaktische Voraussetzung? Das Nesting von Bezugsdaten innerhalb eines Metadatensatzes (trotz z.B. des Dublin Core Prinzips "Ein Metadatensatz für eine Ressource" - "one-to-one principle") kommt insbesondere bei Metadaten für Surrogate, z.B. digitale Bilddarstellungen eines Originalkunstwerkes, wo die Daten über das Originalwerk eigentlich nicht zu den Metadaten des Surrogats gehören, jedoch dringend erforderlich bei einer inhaltlichen Recherche sind, da die Recherche eher nach Informationen über das Originalwerk geht, als gezielt über das Surrogat.

Bei diesen Überlegungen wird deutlich, dass eine sehr eingegrenzte Struktur bestimmte Hilfsmittel auf der Nutzeroberfläche erforderlich macht. Ebenso bei der Vergabe der Metadaten z.B. durch den Autor des Werks muss ein Verständnis über die Umgebung geschaffen werden, in die das Objekt eingebettet wird, bzw. welche Einschränkungen vom Kontext her auf die Nutzung des Objekts entstehen. Furuta gibt Beispiele struktureller Operationen, die im Rahmen einer Suche nach Hypertextkomponenten mittels Strukturmerkmalen ggf. auch in Kombination mit Kontextmetadaten die Frage aufwirft, ob dynamische Dokumente (Dokumente, die sich durch neue Fassungen, Versionen, Bearbeitungen, Aktualisierungen etc. ändern) ihre Strukturen auch ändern.27 In seinen Forschungsergebnissen aus Literaturrecherchen zeigt er, dass eine Umwandlung der Dokumentenstrukturen den grammatikalischen Merkmalen der Beziehungen zwischen Dokumenten (i.e., inhaltliche Ähnlichkeit, Verwandtschaftsgrad etc.) entsprechen. So spricht er von Problemen der kumulativen Wiederverifizierung und Versionierung ("incremental revalidation and versioning"). Auch diese Probleme sind den Metadaten-Anwendern sehr bekannt, zumal es hier auch um die Datenintegrität geht sowie um den Ausdruck eines gegenwärtigen Standes bei einem sich verändernden Werk durch die entsprechenden Metadaten. Auch diese Fragen sind bei der Erstellung von Autorentools in der digitalen Bibliothek (s.u.) wichtig.

Zwei weitere Metadaten-Initiativen bedürfen noch der Erwähnung: INDECS (Interoperability of Data in E-Commerce Systems) (http://www.indecs.org) ist eine internationale Initiative der Vertreter und Verwalter der Rechteinhaber, die Metadatenstandards für die Abrechnung von Tantiemen etc. über den elektronischen Weg entwickelt haben. Die Initiative stammt aus der kommerziellen Musikbranche, wo verschiedenste Aufführungs-, Mitschnitt- und Wiedergabetantiemen weltweit an Komponisten, aufführende Musiker und weitere Rechteinhaber abgeführt werden. Die Komplexität dieser Metadatenstandards, vor allem bei der Einbeziehung der Abrechnungsmodalitäten, die bei Dublin Core lediglich in einem Element ("DC Rights") beschrieben werden, ggf. mit einer Link zu einem getrennten Abrechnungsmetadatensystem vertreten sind, bieten sich für digitale Bibliotheksanwendungen mit Zahlungs- bzw. finanziell geregelten Nutzungs-Grundlagen sowie für alle E-Kommerzbereiche. Hier stehen die Entwickler des INDECS-Metadatensystems auf dem Standpunkt: Das Internet prägt alle Bereiche des Lebens. Deshalb wird auf lange Sicht der E-Kommerzmarkt sowohl die Nutzung von Informationen als auch die Kaufpreise und Nutzungskonditionen bestimmen. Da diese Haltung für traditionelle Bibliotheken mit wenigen Ausnahmen28 noch relativ fremd ist, werden diese Aspekte noch wenig berücksichtigt, zumal sie auch im Verlagsbereich traditionell verlagert sind.

Auch die Verlage, die sich zunächst für den Dublin Core als Metadatensatz zu entscheiden schienen, bemühen sich nun, eigene Metadaten sowohl für die bibliographisch-inhaltlichen Merkmale, die für Informationssuche und -retrieval der Quellen dienen, als auch für die Metadaten zur eindeutigen Identifikation auf der Aufsatz- bzw. Bild- oder Tabellenebene sowie zur Erfassung interner bzw. nutzerbedingter Abrechnungsmodalitäten zu entwickeln. Als Folgeerscheinung der Zukunftsorientierung der American Association of Publishers waren einige der größten wissenschaftlichen Verleger gemeinsam bestrebt, sich über Standards für die elektronische Erfassung und Verlinkung von Zeitschriftendaten innerhalb der digitalen Bibliothek zu einigen. So entstand der Digital Object Identifier (DOI) (http://www.doi.org), der eigentlich ein sog. "Persistent Identifier" ist, anstatt lediglich Metadaten. Der DOI besteht aus einer eindeutigen Zahlen- und Buchstabenkonstellation, die z.B. die ISSN einer Zeitschrift, Band, Heftnummer, Seitenzahl und ggf. weitere Informationen wiedergibt. Verknüpft mit der DOI sind bibliographische Metadaten, teilweise nach dem Konzept der Dublin Core Metadaten,29 sowie weitere Metadaten, die zum Teil zum Abrechnungs- und Wirtschaftlichkeitsbereich gehören ("business model") und entsprechend dem INDECS-Metadatenmodell entnommen werden. Diese sind jedoch intern bzw. nutzerbedingt. Insbesondere arbeiten die Mitglieder der DOI Foundation (mittlerweile ca. 30 Mitglieder) zur Zeit an der Verlinkung von Referenzen und inhaltlichen Verknüpfungen zwischen den unterschiedlichen Verlagsservern (siehe unten Punkt 5.8).

Bei bestimmten Ressourcengruppen, wo aus einer großen Datensammlung sehr detaillierte Informationen gesucht werden, ist es erforderlich, Metadaten für mehrere Ebenen und mehrere Aspekte eines Werkes oder einer zu erwartenden Nutzung des Werkes zu erfassen. So ist z.B. die Erfassung von Bildreihen in Szenen bei Videosequenzen oder sogar die Ausdrucksweise des Mundes korreliert zur Tonstelle bei Bild-Ton-Aufnahmen zur Erhaltung und Präservierung einer bedrohten Sprache. Für solche Forschungs- oder Dokumentationsaufgaben wird MPEG730 in XML erprobt. Dieses Metadatensystem erlaubt die Erfassung von Ressourcen über mehrere Ebenen und in verschiedensten Beschreibungsschemata. Deskriptoren können nachträglich definiert und hinzugefügt werden, z. B. Annotationen zu Bildsequenzen, Übersetzungen zu Sprachsequenzen, Kontextmetadaten etc. Diese Methode eignet sich am besten für eine bestimmte Anwendung, die in sich von der Anwendungsmethode her (z.B. Bildsequenzen in Videos suchen, in denen bestimmte Personen vorkommen etc.) homogen ist, auch wenn das Datenmaterial dazu sehr umfangreich ist. Schließlich muss der Suchende die Rubriken (Datenschemata) verstehen und kennen, um effektiv die Merkmale zu finden, die er sucht.

Ähnliche spezialisierte Anwendungen von z.B. Dublin Core Metadaten gibt es im Bildungsbereich (siehe unten "Multimediale Ressourcen") und im Museumsbereich. Das International Consortium for the Computer Interchange of Museum Information (CIMI) hatte bereits 1994 eine SGML DTD für Ausstellungskataloge, die zunächst den Standard-TEI-Header integriert hatte. CIMI hat jedoch inzwischen Dublin Core Metadaten für seine Zwecke getestet, wie auch andere Museumseinrichtungen. Allerdings existieren mindestens 10 verschiedene Metadatenstandards für Bildgut.31

5.3 Dokumentenerstellung - Multimediale Ressourcen

Der gesamte Bereich elektronischer Informationsquellen beinhaltet nicht nur Texte wie elektronische Monographien, Kapitel, Enzyklopädien, Zeitschriften, Einzelaufsätze, Berichte etc., sondern auch Bilder, HomePages, Listen von (annotierten) Links, multimediale Ressourcen, Software, Datensammlungen, Datenbanken, Email-Archives, interaktive Anwendungen, Tutorials etc. Bisher sind nur wenige Erstellungsinstrumente und Software-Anwendungen vorhanden, die gleich bei der Erstellung von solchen Informationsträgern eingesetzt werden können. In Einzelfällen gibt es Erstellungsmasken für z.B. Lehrbriefe (Humboldt-Universität Fernstudium mit der Universität Koblenz-Landau), Metadatenerstellung (Nordic Metadaten Projekt, My Meta-Maker etc.), und ähnliches mehr.

Dokumentenerstellungstools und Autorentools

Mit Hilfe von einer DTD (Document Type Description) können sowohl die Strukturmerkmale als auch die gattungsspezifischen Metadatenerfordernisse kategorisiert und demnach erfaßt werden. Nach dem Prinzip der DTD wird innerhalb eines Medientyps (Dokument, Zeitschriftenheft, Zeitschriftenaufsatz, Gesetzestext, Bild, Datenbank oder Datensatz) eine einheitliche Organisation des Inhalts erwartet. So kann sich der Nutzer besser bei seiner Informationssuche orientieren, genau so arbeiten teilweise die Suchmaschinen. Diese Organisation kann durch eine physische Aufteilung in Kapitel, Abschnitte, Absätze etc. vorgenommen werden. Die inhaltliche Strukturierung kann aber durch Metadaten und durch andere Strukturierungsmerkmale wie Umfang, Format, Hinweise auf Tabellen etc. ergänzt werden. Die Anwendung analoger Strukturierungsmechanismen in einer Digitalen Bibliothek wird benötigt, um Konsistenz unter den einzelnen Komponenten der digitalen Bibliothek zu erhalten.32 In einer digitalen Bibliothek wird es auch notwendig sein, die Beziehungen zwischen Teilen eines Gesamtwerkes und Teilen von mehreren Dokumenten zu strukturieren. Hier dienen die logischen Beziehungen vor allem denjenigen, die mit den physischen Strukturen verknüpft sind, ggf. nicht mehr der optimalen Verbindung inhaltlicher Zusammenhängen. Aber auch Beziehungen verschiedener Versionen, Formate und Überarbeitungen oder sogar künstlerischer Darstellungen eines Werkes sollen über Beziehungszusammenhänge zusammengeführt werden können. Auch die Aspekte des interaktiven Zuganges bestimmen, dass die Struktur und das Design der Dokumente, ihre Komponenten und deren Ordnung innerhalb der Bestände durch die Strukturierung des Prozesses (Browsingschnittstelle, Direktrecherche, andere Informationen über das Dokument etc.) ergänzt werden müssen.

So kann nur für homogen strukturierte Objekte ein Dokumentenerstellungstool eingesetzt werden. Ein solches Tool bestimmt, dass bestimmte Ordnungsprinzipien immer an gleicher Stelle in den Dokumenten sind bzw. diese Ordnungsmerkmale dienen als Signposts für eine maschinelle Verarbeitung des Werks. Dieses Prinzip setzt die Bemühungen der Standardorganisationen in den 60ger Jahren des letzten Jahrhunderts fort, als die Ordnung der Titelseitenelemente für eine Monographie bzw. für einen Aufsatz festgelegt wurde. So kann es sein, dass die Struktur der Dokumente auch den Designkriterien der digitalen Bibliothek entspricht, auch wenn die Architektur der digitalen Bibliothek verschiedenartigste Dokumente und Strukturen zuläßt und berücksichtigt.

Generisches Markup (logische strukturbasierte Repräsentationen), das z.B. nach einer DTD gemustert wird, zeigt oft Mängel an der Differenzierung des Bedarfs: Der Bedarf nach sehr qualifizierten Metadaten oder Strukturmerkmalen kann zu einer gewissen Unzufriedenheit mit breiter angelegten Strukturen führen: "A number of lessons of relevance to the digital library can be learned from an examination of the previous uses of logical structure in document specification. These include the competing benefits and drawbacks of more complex versus less complex structures: of strongly constrained versus unconstrained specifications: and of externally-defined (e.g., grammatical) versus ad-hoc style specifications."33 Bei allen Strukturierungsversuchen - ob im formalen Dokumentenerstellungstool oder bei der Vergabe von Metadaten - gilt es viel Energie und Mühe zu investieren, um Konsistenz, Weiterverwendbarkeit, und Verifizierbarkeit zu gewährleisten.

Unterstützung für Autorentools in der digitalen Bibliothek beruhen auf der Fähigkeit, Modelle zu bauen und neue Medienarten anzuwenden sowie die Elementenstruktur des Objekts und die Zusammenhänge zu anderen Elementen des Objekts zu definieren, analysieren, und durchzusetzen. Ebenso sollen Transformationen zwischen verwandten Repräsentationen und zwischen verschiedenen Versionen derselben Repräsentationen vollzogen werden. Die Autorentools sollen eine hohe Ebene der Abstraktion ermöglichen, sowie ausreichende Definitionsmöglichkeiten liefern, damit automatische Prozesse über die Struktur erkannt werden können und die darin spezifizierten Komponenten neu zu nutzen sind. Nutzeroberflächen / Schnittstellen für den Autor und den Leser sollen modelliert werden, um bestimmten Klassen von einzelnen Nutzern hinsichtlich ihrer Bedürfnisse zu dienen.

Weitere Probleme im Dokumentenmanagement einer digitalen Bibliothek schließen die Konversion der Dokumente mit ein, die in anderen nicht netzfähigen Formaten erstellt worden sind, und die nachträgliche Mark-up ggf. auch andere Personen außer den Autoren zu ermöglichen. Idealerweise sollten automatische Konversionsprogramme dafür angewandt werden, in der Realität müssen jedoch noch oft Nacharbeiten geleistet werden (Links erstellt, Strukturmerkmale, die nicht einheitlich sind, bereinigt, etc.). Auch die automatische Erstellung bzw. Extrahierung von Metadaten aus den Texten ist noch nicht gänzlich zufriedenstellend erreicht worden.

Ein letzter Aspekt des Dokumentenmanagements einer digitalen Bibliothek bezieht sich auf die Zusammenhänge der Struktur der einzelnen Bestandteile der digitalen Bibliothek und ihre Charakteristika gegenüber strukturellen Zusammenhängen, die dieses Objekt mit anderen im Universum der Objekte verbinden.34 Nach Furuta gehören hierzu Strukturierungsmetaphoren, homogene oder heterogene Datenstrukturen, "Granularität" der Struktur, strukturelle Einschränkungen, dynamische oder statische Definitionen der verwandten Einheiten.

Bei Zeitschriften entwickelte sich das Produktionstool zur Überwachung und Steuerung des gesamten Prozesses der Produktion vom Autor über das Peer-Review-Verfahren bis hin zum typographischen Design und Layout und Verknüpfung von Links und Abrechnungsmetadatenstrukturen. So können Metadaten gleich bei der Erstellung eines Aufsatzes erfaßt werden. Wenn aber vom Autor an den Verlag geliefert wird, muss ein Management-System angewandt werden, damit die Ergebnisse z.B. des Peer Review-Verfahrens, der Status des Dokuments, die verschiedenen Stadien der typographische Erstellung des elektronischen Textes und Prüfung der Links innerhalb des Dokuments etc. überschaubar werden.

Bei rein elektronischen Zeitschriften kann auch ein Alertingsystem für die Bezieher der elektronischen Zeitschriftenabonnements nützlich sein, wenn zum Beispiel das erwartete Heft nicht jeweils an einem bestimmten Termin für die Öffentlichkeit (bzw. für den Abonnentenkreis) ins Netz gelegt wird.35

Multimediale Ressourcen

Bei multimedialen Ressourcen werden erste Erfahrungen gesammelt. Einige Dublin Core-Metadatenprojekte behandeln multimediale Objekte, wobei oft die Komplexität der einzelnen Teilbereiche (Ton, Bild, Text etc.) in Bezug zum Ganzen reibungslos über das Dublin Core Beziehungselement ("DC Relationship") und ihre Unterteilung in Qualifier für Recherchezwecke36 dargestellt werden können.

Noch wenige Erfahrungen mit interaktiven Objekten über Eingabe-Masken für Datenbankanwendungen hinaus sind bisher verzeichnet worden. Da sich im interaktiven Objekt auch inhaltliche Kriterien sowie Formate bei Nutzung verändern können, sind diese Angaben vor allem bei der Kategorisierung der Metadaten oft nur bedingt einzubeziehen. Erstellungssoftware für multimediale und interaktive Objekte sind hauptsächlich im Bildungsbereich vorhanden und stehen oft noch nicht öffentlich zur Verfügung. Einige Initiativen, multimediale Erstellungssoftware zu entwickeln, auch im Bereich der Chemie, sind im Rahmen der Global-Info-Förderung (http://www.global-info.org) konzipiert worden.

Im Bildungsbereich in Deutschland geht die Entwicklung langsam voran, im Ausland entwickelt sich dieser Bereich unabhängig von einer Förderung. Einige Verlage arbeiten an multimedialen Projektvorhaben. Andere multinationale Unternehmen wie das Instructional Management System (IMS) (http://www.imsproject.org, auch http://www.imsproject.org/tools/index.html) und das EU Telematics Projekt ARIADNE (Alliance of Remote Instructional Authoring and Distribution Networks for Europe) (http://ariadne.unil.ch und http://ariadne.unil.ch/tools/) bieten ihren Kunden schon Software zur Erstellung von neuen Lehreinheiten aus zusammengesetzten Fundstellen im Netz an.37 Diese Software ist teilweise kostenpflichtig bzw. nur durch Beitritt in das jeweilige Unternehmen bzw. Projekt zu bekommen. Sowohl IMS als auch ARIADNE haben ausführliche Metadaten für die zu erstellenden Lehr- und Lernobjekte festgelegt, mit der sich die Dublin Core Arbeitsgruppe für bildungsbezogene Metadaten zur Zeit auseinandersetzt.38

Vor allem bei Videos und anderen Bildern sind z.T. differenziertere Metadaten erforderlich - je nach dem Zweck der zu erwartenden Nutzung. Das Australische Distributed Systems Technical Center (DSTC) hat Metadatengeneratoren zur Erstellung eines Metadatensatzes für Bildgut entwickelt. Die Metadaten werden teilweise durch das Portable Networking Graphic (PNG) Format in derselben Datei wie das Bild als Hintergrundinformationen gespeichert.39 Die Anforderungen für Videobilderreihen ("Szenen" oder "Sessions") werden insbesondere bei journalistischer, dokumentarischer oder forschungsorientierter Nutzung sehr differenziert: Szenen aus einer Reihe inhaltlich- oder sogar bewegungszusammenhängender Bilder bekommen detaillierte Metadaten, aus denen Personen, Worte, Gesten, Einzeltöne (bei Sprachforschern bis zu Phonemen und Laute), Handlungsweisen etc. ggf. wieder auffindbar sind. So benötigt man ein besonderes, konfiguriertes Suchsystem für solche Medien und ggf. in die Suchmaschine eingebaute Applikationssoftware, um die Einzelattribute zu bearbeiten.40

5.4 Interoperabilität

Die Interoperabilität ist ein Hauptaspekt der digitalen Bibliothek. Interoperabilität bedeutet, dass alle Teile einer digitalen Bibliothek ggf. mit Hilfe von semantischen Interoperabilitätsmechanismen wie Metadaten oder mit Hilfe von Zusatzsoftware-Anwendungen (wie Z 39.50 Protokolle und Tabellen bzw. Parsingprogramme) bearbeitet werden und so in der Lage sind, heterogene Datenbestände und unterschiedliche Tiefenstrukturen so zu verarbeiten, dass die Funktionalität des gesamten Systems gewährleistet wird. Bei der sogenannten Hybridbibliothek sind die Voraussetzungen für Interoperabilität weitaus komplexer, zumal verschiedene, getrennte Dienste über den sog. Gateway oder Portal für Nutzerzwecke vereinigt werden sollten. Im Bereich Metadaten bildet noch der Warwick Framework41 die Grundlage für das Nebeneinanderbestehen mehrerer Metadatenansätze, die gleichzeitig jedoch in getrenntem Verfahren angesprochen und verarbeitet werden können.

5.5 Retrieval & Schnittstellen

Die Technologie und Struktur des Informationsretrievals in großen Datensammlungen blieb seit den frühen 1970er Jahren bis ins Ende der 1990er Jahren fast unverändert. Kontrolliertes Vokabular, festgesetzte Datenfelder in einer geschlossenen Datensammlung und ausgereifte Suchkombinationen charakterisierten die bibliographischen Datenbanksysteme der sog. Fachinformationsära (1960 (in USA) /1970 (in Deutschland) bis Ende der 1990er Jahre). Mit dem Übergang zur Entwicklung von Informationsretrievalmechanismen für integrierte Suchvorgänge in verteilten vernetzten Datensammlungen über das Internet veränderte sich die Informationswelt. Da es sich hier um die Erstellung einer Kompatibilität mehrerer unterschiedlich strukturierter Datensammlungen über Zusatzermittlungsebenen handelt, werden Technologien für Informationsorganisation sowie eine Einigung auf gewisse Standards vorausgesetzt.42

Retrieval in verteilten Systemen einer digitalen Bibliothek erfordert nach Bruce Schatz und Hsinchun Chen, "federating" (das Zusammen-Mapping ähnlicher Objekte aus heterogenen, verteilten Sammlungen) in der Art und Weise, dass sie im Recherchevorgang wie in einer einzigen, homogen organisierten Sammlung funktionieren.43 Um dieses Ziel am besten zu erreichen, betonen Schatz und Chen die Bedeutung der Indexierungsqualität, die nicht nur die inhaltliche sondern auch die formale Erschließung der digitalen (und nicht digitalen) Objekte durch die entsprechenden Metadaten und Strukturmerkmale betrifft. In den meisten ersten digitalen Bibliotheksprojekten wurde ein strukturiertes Mapping für Texte hauptsächlich mit SGML durchgeführt, wie auch die meisten Verlage eine Variante von SGML für ihre eigenen elektronischen Verzeichnungsarbeiten benutzt haben. Somit konnten nicht nur Texte, sondern auch Tabellen, Bilder und mathematische Formeln mit der Mark-up-Sprache versehen werden.

Bei der Integration verschiedener Datensammlungen, die z.B. auf verschiedenen Datenformaten, Datenstrukturen oder anderen unterschiedlichen Merkmalen aufgebaut sind, ist ein Retrievalmechanismus erforderlich, der die Nutzerfrage in eine Abfragesprache übersetzt, so dass die Ergebnisse aller getrennt gelaufenen Suchmaschinen der einzelnen Datensammlungen integriert werden können, um eine kohärente Sammelantwort mit allen Aspekten der Redundanzbeseitigung, der Korrektur von evtl. leicht abweichenden Begriffen etc. zu erstellen. Nach Schatz und Chen ist die bisher erfolgreichste Methode der Ergebnisbearbeitung in förderativen Sammlungen die statistische Analyse der einzelnen, zusammengeführten Suchergebnisse der Einzelsysteme. Gemeinsame Indizes für alle angesprochenen Sammlungen werden zusammengestellt.44

Methoden zur Identifizierung von inhaltlich verwandten "Dokumenten" schließen auch sogenannte "Vektormodelle"45 mit ein. Der "Vektorraum" dient als Möglichkeit, Dokumente innerhalb eines Retrievalsystems zu steuern. Jedes Wort in einem Dokument kann als eine Richtung (Vektor) in einem hochdimensionierten Raum angesehen werden. Die Zahl der Dimensionen gleicht der Zahl der unterschiedlichen Wörter im Dokumentenbestand (Sammlung). Die Stärke des Vektors in jeder Richtung gleicht der Häufigkeit des Wortes in allen Dokumenten. So kann jedes Dokument als ein Vektor in diesem hochdimensionierten Raum angesehen werden, und der Grad der Übereinstimmung oder Ähnlichkeit der Dokumente kann beurteilt werden, indem der Winkel zwischen deren Vektoren verglichen wird. Saltons Forschung in diesem Bereich wird häufig im Rahmen der Retrievalsysteme der digitalen Bibliothek angewandt.

Ein weiteres Suchverfahren im US-Digital Library "Testbett" von Artikeln aus Fachgesellschaftszeitschriften46 umfasst die vom jeweiligen Verlag mitgelieferten DTD (Document Type Description), um die Dokumentenstruktur der jeweiligen Zeitschriften zu berücksichtigen, sowie die entsprechenden SGML Metadaten auf der Artikelebene.47 So wurde ein Retrievalsystem aufgebaut, das verschiedene Metadatenfelder in den heterogenen DTDs bearbeitet und miteinander korreliert. Das Web-basierte Retrievalsystem "DELIVER" ("Desktop Link to Virtual Engineering Resources") wurde seit 1997 in diesem Projekt von Studenten und Lehrkräften eingesetzt, so dass über 97.000 Suchen analysiert werden konnten. Bei der Weiterentwicklung der Suchoberfläche wurde die Möglichkeit zur Kombination von Elementen aus verschiedenen Indizes angewandt, zum Beispiel um die gleichzeitige Recherche in Volltextdokumenten in SGML und in Abstracts verschiedener bibliographischen Datenbanken über den Host OVID zu ermöglichen.

Diese Testbett-Anwendung wird zur Zeit über Datensammlungen 10 weiterer bedeutender Universitätsbibliotheken in den USA erweitert, um die Untersuchungsbevölkerung zu vermehren, um die Benutzerschnittstellen weiter zu testen, und um das Model der Retrievalmechanismen für verteilten digitalen Datensammlungen ("repositories") weiter zu entwickeln.

Aufgrund der Vielfalt und Kombinationsmöglichkeiten von Software und Retrievalprogrammen gibt es in der digitalen Bibliothek neue Methoden zur Visualisierung von Daten. Dies bezieht sich in erster Linie auf die Darstellung von Daten überhaupt, kann aber genauso bei der Anzeige der Retrievalergebnisse angewandt werden, um z.B. Sprachbezogenheit, Anteil von verschiedenen Formaten oder Streuung von mehreren ähnlichen Suchbegriffen innerhalb einer Datensammlung darzustellen. Solche Methoden dienen nicht zu Retrievalzwecken und Zuordnung ähnlicher Werke in einer Sammlung, sondern auch zur Prüfung der Gültigkeit der Metadatenvergabe aus verschiedenen Quellen und für verschiedene Nutzerbedürfnisse.

5.6 Gateways, Clearinghouses, Portals etc.

Um die sogenannte Informationsflut zu bewältigen, wurden fachbezogene Clearinghouses, Subject Gateways und neue Portals konzipiert, um themenspezifische Zugangsstellen im Internet aufzubauen, wo (annotierte) Linksammlungen zunächst zusammengestellt wurden. Über die Entwicklung von Clearinghouses und Subject Gateways wird an anderer Stelle berichtet48, so dass es hier ausreicht, diese als zunächst institutionsbezogene Sammlungen von elektronischen Ressources mit — aber meistens ohne — fachlicher Auswertung oder Annotationen zu erwähnen. Da der Wert solcher Sammelstellen darin lag, dass andere diese Such- und ggf. Evaluationsarbeit nicht noch einmal machen müssen, um zu den themenorientierten Quellen zu kommen, wuchs das Interesse, solche Stellen möglichst kooperativ zu gestalten, wie z.B. bei den Fachgesellschaften, bei den Fachinformationsstellen und anderen überregionalen fachbezogenen Informations- und Dokumentationseinrichtungen (neben den traditionellen Bibliotheken). Naheliegend war es, dass in Deutschland die Sondersammelgebietsbibliotheken auch diese Sammelaufgabe für ihren Zuständigkeitsbereich im Rahmen des Fachinformationsauftrages ausführen (SSG-FI).49 Ähnlich hatte sich das BUBL-Netz in Großbritannien50 und das System der themenbezogenen "virtual subject libraries" in Australien entwickelt. Einige dieser Sammelstellen wurden dann in Kooperation mit mehreren Universitäten und Fachinformationsstellen zu fachbezogenen digitalen Bibliotheken. So sind einige der Testbettaufbau-Projekte im DLI-Phase 2 Programm der US-National Science Foundation fachbezogene digitale Bibliotheken. Andere fachbezogene "elektronische Bibliotheken" oder "digitale Bibliotheken", die z.B. in Deutschland in Kooperation zwischen Hochschuleinrichtungen und Fachgesellschaften getragen und aufgebaut werden.51 Parallel hierzu hat das JISC in Großbritannien auch eine Studie veranlasst, um die Effektivität der Subject Gateways zu prüfen.52

Ein internationales Projekt, die die Vereinheitlichung von Metadaten und Interoperabilität unter den fachbezogenen Gateways vorgenommen hat, ist das Imesh Projekt zwischen Großbritannien, den Niederlanden, USA und anderen Ländern. Das IMesh Toolkit wurde auch im Rahmen des bilateralen NSF/ JISC Förderprojekts und wird in mehreren digitalen Bibliotheksprojekten dieser Art (ROADS, SOSIG, OMNI, ISAAC-NET etc.) eingesetzt.53

Diese fachbezogenen digitalen Bibliotheken verzeichnen alle Quellen, die sich auf den Themenbereich beziehen (Vgl. hierzu SOSIG (http://www.sosig.ac.uk) und OMNI (http://www.omni.ac.uk) ). Manche verzeichnen alle oder den frei zugänglichen Teil von elektronischen Zeitschriften. Einige verzeichnen selbst PrePrints in dem Gebiet oder setzen eine Link auf den fachlich relevanten Preprint-Server (s.u.).

5.7 Paradigmenverschiebung bzw. Wechsel

In fast allen Bereichen der Bibliotheksarbeit, in denen die digitalen Ressourcen allmählich einen Platz eingenommen haben, sind Paradigmenverschiebungen und -wechsel zu spüren und zu sehen.

Am Deutlichsten sind die bevorstehenden Stellenwertveränderungen bei den elektronischen Zeitschriften im wissenschaftlichen Bibliotheks- und Verlagswesen: Oft bieten die Verlage lediglich den zeitbegrenzten Zugang und eingeschränkte Nutzung der elektronischen Zeitschriften durch den Lizenzvertrag an und damit kommt es zu einer Paradigmenverschiebung von Besitz ("ownership") durch die Bibliotheken zum bedingten Zugangsrecht ("access") für einen vertraglich bestimmten Nutzerkreis für einen festgelegten Zeitraum und lediglich für erlaubte Nutzung. Durch diese Paradigmenwechsel verliert die Bibliothek in gewisser Weise eine ihre Hauptaufgaben zur Aufbewahrung und Bereitstellung der benötigten Literatur. Die Bereitstellung wird lediglich durch den vom Lizenzvertrag bestimmten Zugang gewährleistet. Auch das System für die Dokumentenlieferung, ein Hilfsinstrument unter den Bibliotheken, um bisher kostensparend, effizient und im Kooperationsverbund zu arbeiten, wird durch die gegenwärtig überwiegende Verlagspolitik mit der Zeit verschwinden. Bibliotheken und Direktkunden (Nutzer) werden Artikel von Zeitschriften, für die kein Abonnement vorliegt, vom Verlag kaufen müssen, vor allem wenn die Parallelprintversion nicht mehr erhältlich ist. Sicherlich haben nicht alle Verlage diese Politik, manche erlauben die Weitergabe von abonnierten elektronischen Zeitschriftenaufsätzen an nicht Beteiligte, die sonst im Rahmen eines Fernleihabkommens an diese Zeitschriftentitel gekommen wären.

Die Lizenzverträge werden am meisten von verschiedenen Stellen in einem Land für verschiedene Partner durchgeführt. Die Transparenz der Angebote und Lizenzbedingungen waren bis jetzt streng geheim zu halten. So entstanden für dieselben Abonnements unterschiedliche Preise und unterschiedliche Nutzungsbedingungen und dadurch ungleiche Bildungs- und Forschungsbedingungen für Studenten, Hochschullehrer und Wissenschaftler in den unterschiedlichen Institutionen. So wird einer der grundlegenden Ansprüche der Bibliotheksarbeit, nämlich möglichst freien Zugang zu Information zu gewährleisten, auf Dauer nicht mehr einzuhalten sein. Auf jeden Fall wird der ungleiche Zugang zu verschiedenen Titeln und unterschiedlichen Nutzungsbedingungen für manche ein Arbeits- und Forschungshindernis, das auf Dauer seine Auswirkungen haben wird. Auch wenn eine Nationallösung wie in Großbritannien in Deutschland noch nicht machbar erscheint, sind damit einige Vorteile verbunden, die sonst nicht bei der gegenwärtigen Entwicklung der Paradigmenverschiebung erreichbar sind.

Der DOI bedeutet auch einen Paradigmenwechsel für die Archivierung und alleinige Haltung der elektronischen Zeitschriften an einem Verlagsserver. Hier geht es wieder um die Ursprungsaufgaben der Bibliothek, nämlich Informationen zu verzeichnen, inhaltlich zu vermitteln und aufzubewahren. Nun behalten die Verlage, die bisher kaum die Titeldaten an die nationalbibliographischen Stellen geliefert haben, diese Tätigkeiten weitgehend für sich und verbinden sie mit den Einzelkostenabrechnungsmodalitäten. Auch die Referenzlinkingdienste zwischen den Titeln der verschiedenen Verlagsserver bzw. in und von einigen bibliographischen Datenbanken bedeuten eine Verschiebung und eine Amalgamierung von Diensten, die bisher von Datenbankanbietern, Bibliotheken und herkömmlichen Bibliographien angeboten wurden.

Auch die Preprint-/Archivserver zeigen eine sehr deutliche Paradigmenverschiebung: Preprints gehörten zu den engeren Kreisen der Wissenschaftlernetze, wurden von den Bibliotheken nicht oder nur selten beachtet, und wurden auch nur in seltenen Fällen zitiert. Mit dem Auftreten der Preprint-Server in den verschiedenen Fachgebieten (s.o.) ist nicht nur die Dauer der Wartezeit durchbrochen, in der ein Aufsatz "in Druck"-Status hat, sondern auch die Netze der wissenschaftlichen Kommunikationen sind dadurch durchbrochen worden.

Durch die Preprint-Server verändert sich auch das Paradigma "Peer-Review". Stevan Harnad plädiert für offene "PUBLICation" (seine Betonung) in den Preprint-Servern, so dass jeder in der Öffentlichkeit kommentieren und begutachten kann.54 Leck drückt den selben Gedanken ähnlich aber im Kontext der gesamten digitalen Bibliotheksidee aus: "community rated information ... The idea here is that you could model the search you wanted to do by looking at what other people have done. This is the logic of ‘anything Joe recommends I will like' done mathematically and with a large set of people. ... This is suggested as a means of defining knowledge representation systems for digital libraries (i.e., based on ... ratings from many people, computing the similarities, then deducing the new recommendations according to the clustering based on the common ratings achieved."55 Lesk bezog sich auf die Evaluierung von Ressourcen durch die allgemeine Bevölkerung (Musik oder Filme), Harnad bezieht sich auf den wissenschaftlichen Bereich, in dem auch ökonomische Faktoren ins Spiel gebracht werden (siehe unten). Dieser Paradigmenwechsel wird ebenfalls von Philipp Graetzel von Graetz in c't (Januar 2000) mit Hinweisen auf den deutschen Raum besprochen.56

Eine letzte Paradigmenverschiebung hat mit der Bedeutung von "Bibliothek" in der Terminologie "digitale Bibliothek", aber auch mit den Aufgaben der Bibliothek zu tun: Das Paradigma "digital library" ist - nach Bruce Schatz und Hsinchun Chen, zwei bedeutenden Spezialisten im Bereich digitaler Bibliotheksforschung in den USA - eigentlich ein falscher Name. Nach Schatz und Chen geht es hier um die Speicherung von Informationen in elektronischen Formaten und wie man große Informationssammlungen (Datensammlungen) verschiedener Art und verschiedener Herkunft, ggf. auch geographisch verteilt, auf verschiedenen Rechnern mit unterschiedlichen Zugangsbedingungen effektiv verwaltet. So - nach Schatz und Chen - geht es hier nicht um "Bibliotheken", sondern um die Recherche und Visualisierung der Retrievalergebnisse in und via ("across") vernetzten Informationssystemen.57 Demnach ist die digitale Bibliothek eigentlich ein verteiltes, vernetztes, zusammengeführtes Informationssystem mit der Aufgabe des Informationsmanagement und präziser Informationsvermittlung. So wachsen die (traditionellen) Bibliotheken mit der neuen Aufgabe und dem Umgang mit den neuen Technologien, Medien, Ressourcenarten und Informationsmanagementformen in neue Kompetenzen und neue Bereiche und beeinflussen auch die Entwicklung der Bibliothekare, die notwendigerweise mitwachsen müssen.

5.8 Elektronische Zeitschriften

Der gesamte Bereich des elektronischen Publizierens gehört zum Thema digitale Bibliothek.58 Allerdings gilt vieles, was die Speicherung, Bekanntmachung, Aufarbeitung, das Versehen mit Metadaten und die Einbindung der Abrechnungsmodalitäten für elektronische Ressourcen jeglicher Art betrifft, insbesondere für elektronische Zeitschriften. Bei elektronischen Zeitschriften spitzt sich die Problematik aller elektronischen Veröffentlichungen jedoch in einem größeren Rahmen zu. Wo sich ein relativ begrenzter Interessentenkreis für eine elektronische Monographie, ein Satellitenbild oder eine Szene aus einem Video interessiert oder als Käufer herausstellt, ist bei elektronischen Zeitschriften sowohl Geld als auch Renommee im Spiel. Auch die Abnehmerzahl einer einzigen namhaften wissenschaftlichen Zeitschrift ist weitaus größer als die, die sich normalerweise für ein einziges Werk interessiert, nicht zuletzt, weil die Zeitschrift durch ihr regelmäßiges Erscheinen etwas wie ein kontinuierliches Interesse voraussetzt. So ist der Wirkungsraum, der mögliche finanzielle Verlust und die Anzahl der Beteiligten größer. In Anbetracht dessen fokussiert sich dieser Abschnitt ausschließlich auf die Bedeutung und Einbindung elektronischer Zeitschriften in ihrer Bedeutung für digitale Bibliotheken. Mit diesen Kenntnissen im Hintergrund treten drei problematische Bereiche als e-journal-spezifizische Probleme hervor, die nicht für die anderen Gattungen in diesem starken Maße zutreffen. Diese sind 1) die Beziehung zwischen Autor (Wissenschaftler), Bibliothek und Verlag; 2) die Auswirkungen der Preprint-Server-Entwicklung auf die wissenschaftliche Information; und 3) das Peer-Review-System. Letzteres gehört zwar zur Paradigmenverschiebung als Auswirkung der digitalen Bibliothekspolitik, wird aber hier nicht ausführlich behandelt, da es sonst den Rahmen dieses Aufsatzes sprengt. Weiterhin werden einige Bemerkungen zum Thema Entwicklung der elektronischen Zeitschriften hinzugefügt.

Verlage - Bibliotheken - Wissenschaftler

Das Verhältnis Autor (Wissenschaftler) - Verlag - Bibliothek steht zunehmend im Spannungsfeld. Das ökonomische Dilemma (s.u. die Ökonomie der digitalen Bibliothek) durchdringt jeden Bibliotheksetat und bedroht möglicherweise die Existenz einiger kleinerer Fachverlage, wo - wie bereits Harnad59 anmerkte - der Verkauf von kombinierten Print- und elektronischen Versionen die Finanzierung der kleineren E-Fachzeitschriften sichert. Universitäten sind nicht bereit, den dreifachen Preis einer Zeitschrift zu zahlen (einmal bei der Forschungsförderung und Ausarbeitung des Inhalts, der zum Artikel wird, zum zweiten Mal beim Einreichen eines Artikels bei einer renommierten Zeitschrift, allerdings gegen einen Druckkostenzuschuß pro Seite (die oft von den Forschungsfördergeldern in den USA bezahlt werden) und zum Dritten beim Kauf des Zeitschriftenabonnements in der jeweiligen Universitätsbibliothek, die dann eine Art Universitätsarchiv der Institutionsveröffentlichungen indirekt betreibt).

Harnad und andere behaupten, die Produktionskosten einer elektronischen Zeitschrift sind weitaus geringer als die Produktions-, Druck- und Verteilungskosten bei einer Printausgabe derselben Zeitschrift. Diese Diskrepanz - vor allem bei dem ständigen hohen Abonnementspreisanstieg über die letzten ca. 10 Jahre - führt zum Mißtrauen und Unmut über die Verlage. Alternativveröffentlichungs- und Wirtschaftlichkeitsmodelle wurden z.B. vom Deutschen Mathematikerverein (DMV) in Zusammenarbeit mit dem Fachbereich Mathematik an der Universität Bielefeld mit der Zeitschrift Dokumenta Mathematica und in den USA durch HighWire Press und durch die SPARC Initiative verwirklicht. Bei der SPARC Initiative sind es mittlerweile fünf neue wissenschaftliche Zeitschriften, die in den letzten drei Jahren als Konkurrenzprodukte zu den teueren Verlagszeitschriften entstanden sind und von den ca. 180 Mitgliedern im SPARC unterstützt worden.

Einige Projekte aus dem in USA geförderten Digitalen Bibliotheksprogramm der NSF entwickelten eigene elektronische Zeitschriften. So ist z.B. der Journal of Electronic Publishing (JEP) (http://www.press.umich.edu/jep/) 1995 als neue, "rein elektronische" Zeitschrift vom Hochschulverlag der University of Michigan zum Diskussionsforum für die Entwicklung des gesamten Bereichs elektronisches Publizieren im Rahmen der Entwicklung der digitalen Bibliothek konzipiert und herausgebracht worden.

D-Lib Magazine hat ein noch breiteres Spektrum im Rahmen der digitalen Bibliotheksentwicklungen - vor allem auch schließt es internationale Entwicklungen ein. Diese elektronische Zeitschrift wurde 1995 mit Unterstützung von der (US) Corporation For National Research Initiatives (CNRI) und der US Defense Advanced Research Projects Agency (DARPA) im Rahmen der Digital Libraries Initiative (DLI Grant No. N66001-98-1-8908) zum Austauschorgan und Veröffentlichungsorgan begonnen, um die Entwicklungen im digitalen Bibliotheksbereich bekanntzumachen und zu fördern.

Ein weiterer Titel, zunächst vom internationalen Verlag aber nun eingebettet im universitären Bereich, ist First Monday (http://www.firstmonday.org/), der nach der Zielsetzung seiner Herausgeber die Grenzen des Publikationswesens im Hochschulbereich erweitern möchte, indem die traditionelle Bedeutung von Peer-Review mit der Veröffentlichung im World Wide Web kombiniert wurde.60 Im Gegensatz zu den beiden anderen elektronischen Zeitschriften deckt First Monday politische, ökonomische, soziale und technische Aspekte der World Web-Entwicklung und ist nicht ausschließlich der digitalen Bibliotheksdiskussion gewidmet. Trotzdem tragen die Standarddiskussionen und der Austausch über Inhalt und Datenpflege im Internet in First Monday zur Diskussion der digitalen Bibliothek bei. Als Zeitschrift selbst, die 1996 zunächst selbsttragend sein sollte, jedoch nun in Zusammenarbeit mit der Universitätsbibliothek der University of Illinois-Chicago erstellt wird, gehört sie in die digitale Bibliothekslandschaft.

Auch als Veröffentlichungs- und Diskussionsorgan für die digitalen Bibliotheksentwicklungen in Großbritannien im eLib Programm dient ARIADNE (http://www.ukoln.ac.uk/ariadne/), die quartalmäßig von UKOLN mit zusätzlicher Unterstützung der University of Bath herausgegeben wird. ARIADNE hat zwei Hauptziele: 1) Webressourcen, die von Interesse für Bibliothekare und Informationsspezialisten sind, zu beschreiben und zu begutachten; und 2) über den Fortschritt in den eLib-Projekten sowie anderen von JISC geförderten Projekten zu berichten, um den in der Praxis stehenden Bibliothekar auf dem neuesten Stand der Entwicklungen in diesem Bereich zu halten.

Verlagsserver und -initiativen

Die Verlage selbst entwickeln ihre eigenen "digitialen Bibliotheken" - allerdings beschränkt auf ihr eigenes Angebot elektronischer Zeitschriften, wie z.B. ScienceDirect von Elsevier, IDEAL von Academic Press und Springer LINK vom Springerverlag. Diese sind lediglich vom Namen bisher "digitale Bibliotheken", werden aber als Teil anderer digitaler Bibliotheken für ihr Klientel angeboten. Breiter angelegte Kooperationen unter 12 internationalen Verlagen mündeten November 1999 in der Bekanntmachung eines ersten Prototyps für einen verlagübergreifenden "Linkingservice" ("Publishers Reference Linking Service") unter den Referenzen in den Artikeln, die an einer zentralen Stelle verwaltet, von einem gewählten Aufsichtsrat kontrolliert und durch die DOI Foundation unterstützt sein sollten.61 Dies kam als Antwort auf die beiden Initiativen aus den US-Behörden PubScience und PubMedCentral, die im Sommer und im Oktober 1999 als frei zugängliche Referenzlinking-Server für Aufsätze in diesen beiden Fachrichtungen bekannt gemacht worden sind.

Preprint Server

Die Entwicklungen im Verlagsbereich sind ebenfalls eine Reaktion auf die Erfolge der fachbezogenen Preprint Server, die seit der Initiative von Paul Ginsparg 1991 mit dem Hochenergiephysik-Preprint Server in Los Alamos National Laboratory (LANL) Physics Archive in anderen Fachrichtungen nachgemacht werden. Das Prinzip der Preprint Server, auch im Schriftum von Stevan Harnad widergespiegelt,62 ist, die Aufsätze im Preprint-Stadium der Öffentlichkeit zur Verfügung zu stellen. So sind die wissenschaftlichen Ergebnisse und Ideen schneller in der wissenschaftlichen Community veröffentlicht worden, "ideenmäßig" geschützt, und jedem zur Kritik und Reaktion gestellt. Das Peer-Review-Verfahren wird in diesem ersten Schritt übergangen, wobei Harnad die Veröffentlichung eines Aufsatzes im Preprint-Server als Eröffnung des Peer-Review-Prozesses ansieht.63

Bis Mitte 1999 hatten sich mindestens acht größere Preprint-Server allein in USA - obwohl international von Bedeutung - organisiert und einen Platz in ihren Fachrichtungen gewonnen. Um die effektive Nutzung dieser Initiative und anderer internationaler Preprint-Server zu ermöglichen, wurden Bemühungen zur Verbesserung der Koordinierung der Dienstleistungen, der Interoperabilität zwischen den "author-self-archiving solutions" und der Entwicklung von Metadatenstandards angestrebt. Zunächst auf der Initiative von Paul Ginsparg (LANL), Richard Luce (LANL Bibliothek) und Herbert Van de Sompel (Universität von Gent, Belgien) wurden ca. 30 Experten im digitalen Bibliotheksbereich für Diskussionen über eine "Universal Preprint Service Initiative" nach Santa Fe, New Mexiko, im Oktober 1999 eingeladen.64

Das Treffen wurde unterstützt von dem Council on Library and Information Resources, der Digital Library Federation, der Scholarly Publishing and Academic Resources Coalition, der Association of Research Libraries und der Forschungsbibliothek des Los Alamos National Laboratory. Die Ergebnisse65 wurden im February 2000 mit dem ersten Ansatz zu gemeinsamen Metadaten für eine gemeinsame Suchmaschine ("experimenteller Endnutzer-Dienst") über die meisten, nun "Archivserver" genannt, veröffentlicht.66

Diese technologische Lösung ermöglicht die Speicherung von Metadaten und SFX-Linking zwischen den eprint-Daten und traditionellen wissenschaftlichen Kommunikationsmechanismen.

So können Cross-System-Recherchen und Linking-Dienste verwirklicht werden, die die Offentheit des Systems gewährleisten. Der Übergang von "Preprint"-Servern zu "Archiv"-Servern beinhaltet keineswegs einen Weggang von Preprint-Prinzipien (wie bei Harnad oder Odlyzko), sondern eine Erweiterung der Konsequenzen aus dem "Lebenszyklus" einer wissenschaftlichen Veröffentlichung, die die Archivierung des Werkes notwendigerweise erforderlich machen (inklusive Hinweisen über verschiedene Versionen und Veröffentlichungen in Peer-Reviewed-Zeitschriften).

Der "Santa Fe Set" bzw. Metadatensatzstandard für die Open Archives Initiative besteht aus minimalen, Dublin Core-angepaßten ("Dublin Core compliant"), Metadatenelementen. Ein Austauschformat nach MARC-Format und ein XML-DTD für den Santa Fe Set wird demnächst entwickelt. Es wird erwartet, dass andere, weltweite Preprint / Archiv-Server mit wissenschaftlichen Arbeiten sich an diese Initiative anschließen werden. Sicherlich feuert diese Initiative noch weiter die Diskussion über Autorenrechte und Distributionsrechte der forschungseldgebenden Institutionen an, die ggf. die Aufsätze in Preprint-Form auf dem Institutionenserver anbieten. Auch diese Diskussion gehört zur Paradigmenverschiebung als Auswirkung der digitalen Bibliothek und wird noch weiterhin in der Diskussion bleiben.

Ebenso werden die Diskussionen über Copyright und Urheberrecht sowie der Streit über das intellektuelle Eigentum als Auswirkungen der digitalen Bibliothek weitergehen. Eine eingehende Diskussion an dieser Stelle würde jedoch den Rahmen dieses Artikels sprengen und der Leser wird auf andere Quellen verwiesen.67

Der Schlussteil 5 folgt in Ausgabe 2/2000


Fußnoten

1. Carl Lagoze und Sandra Payette: An Infrastructure for Open-Architecture Digital Libraries. http://ncstrl.cs.cornell.edu:80/DienstUI/1.0/Display/ncstrl.cornell/TR98-1690

2. David M. Levy: Digital Libraries and the Problem of Purpose. D-Lib Magazine 6 (1) (January 2000) http://www.dlib.org/dlib/januar00/01levy.htm

3. Chris Rusbridge: Towards the Hybrid Library. D-Lib Magazine (July/August 1998) http://www.dlib.org/dlib/july98/rusbridge/07rusbridge.html

4. Herbert Van de Sompel und Patrick Hochstenbach: Delivering extended services in a hybrid library environment using a generic dynamic linking solution. http://lib-www.lanl.gov/~hvds/htmls/sfx.html

5. Peter J. Nürnberg, Richard Furuta, John J. Leggett, Catherine C. Marshall, Frank M. Shipmann III: Digital Libraries: Issues and Architectures. Digital Libraries ‘95. http://csdl.tamu.edu/csdl/DL95/papers/nuernberg/nuernberg.html

6. Siehe hierzu auch Levy (Fußnote 2), sowie Albert Borgmann: Holding On to Reality: The Nature of Information at the Turn of the Millennium. Chicago: University of Chicago Press, 1999.

7. James Eugene Alloway and Peter Weinstein: UMDL Ontology Concept Descriptions. In: Metadata and Interoperability in Digital Library Related Fields, Bonn, 7-8 October 1996. DELOS Working Group Reports. Bonn, [1997], S. 45-54; Siehe auch Olle Olsson: Two Uses of Ontologies in Digital Libraries. In: Ebenda, S. 67-75.

8. Vgl. José-Marie Griffiths und Kimberly K. Kertis: Access to Large Digital Libraries of Scientific Information Across Networks. In: Digital Libraries 1994. http://csdl.tamu.edu/csdl/DL94/paper/tennessee.html

9. Zitiert nach Michael Lesk: Practical Digital Libraries. Book, Bytes, and Bucks. San Francisco, CA: Morgan Kaufmann, 1997, S. 145.

10. Sherry L. Vellucci: Metadata. In: Annual Review of Information Science and Technology (ARIST), vol. 33. Martha E. Williams, ed. Medford, NJ: Information Today for the American Society for Information Science (ASIS), 1998, S. 187-222.

11. Holley R. Lange und B. Jean Winkler: Taming the Internet: Metadata, a Work in Progress. In: Irene Godden (Hrsg.): Advances in Librarianship. Bd. 21. San Diego, CA: Academic Press, 1997, S. 47-72.

12. John T. Phillips: Metadata: Information about Electronic Records. ARMA Records Management Quarterly 29 (4) (October 1995), S. 52-57.

13. Mary Lynette Larsgaard: Cataloging Planetospatial Data in Digital Form: Old Wine, New Bottles- New Wine, Old Bottles. In: Linda C. Smith, Myke Gluck (Hrsg.): Geographic Information Systems and Libraries: Patrons, Maps, and Spatial Information: Papers Presented at the 1995 Clinic on Library Applications of Data Processing, Graduate School of Library and Information Science, University of Illinois at Urbana-Champaign; 1995 April 10-12. Urbana, IL, Champaign, IL: University of Illinois, Graduate School of Library and Information Science, 1996, S. 17-30.

14. Priscilla Caplan: You Call It Corn, We Call It Syntax-Independent Metadata for Document-Like Objects. The Public-Access Computer Systems Review 6 (4) (1995), S. 19-23 (auch http://info.lib.uh.edu/pr/v6/n4/capl6n4.html).

15. Lorcan Dempsey und Rachel Heery: A Review of Metadata: A Survey of Current Resource Description Formats. Work Package 3 of Telematics for Research Project DESIRE (RE 1004). 1997 May 15. http://www.ukoln.ac.uk/metadata/desire/overview/.

16. Die IAFA / WHOIS++ Template basiert ursprünglich auf Zugang zu Daten in FTP-Achiven. Mittels Eingabemasken wurden formale Daten über Texte, Bilder, Datenbanken, Listen, Software etc. in ASCII erfaßt. Die Attribute hatten nur beschränkt Verlinkungscharakter. Mit IAFA Templates konnten jedoch nicht nur elektronische Ressourcen erfaßt werden, sondern auch Informationen über Personen und Institutionen, ähnlich wie eine Art Normdatei. Whois++ ermöglicht die Suche in den Informationen, die in den IAFA Masken erfaßt worden sind. Eine der bekanntesten Anwendungen der IAFA-Whois ++ Templates war im britischen digitalen Bibliotheksprojekt, ROADS (Resource Organisation and Discovery in Subject-based Services) (http://www.ukoln.ac.uk/services/elib/projects/roads/), Teil des eLib-Projektes.

17. C.M. Sperberg-McQueen und Lou Burnard. Guidelines for ElectronicText Encoding and Interchange. Chicago, IL; Oxford, England: Text Encoding Initiative, 1994, auch in elektronischer Form http://etext.uriginia.edu/TEI.html. Siehe auch Lou Burnard und Richard Light: Three SGML Metadata Formats, TEI, EAC, and CIMI: A Study for the BIBLINK Work Package 1.1. 1996 December, http:/hosted.ukoln.ac.uk/biblink/wp1/asml/

18. Siehe Velluccis Diskussion dieser Problematik und der entsprechenden Literatur, Vellucci (Fußnote 10), S. 201-202.

19. Vellucci (Fußnote 10), S. 201.

20. Siehe Daniel V. Pitti: Encoded Archival Description. An Introduction and Overview. D-Lib Magazine 5 (11) (November 1999) http://www.dlib.org/dlib/november99/11pitti.html. Siehe auch Jackie M. Dooley (Hrsg.): Encoded Archival Description. Part 1: Content and Theory. The American Archivist. 60 (3) (Summer 1997), S. 264-366; und Jackie M. Dooley (Hrsg.): Encoded Archival Description. Part 2: Case Studies. The American Archivist. 60 (4) (Fall 1997), S. 367-496.

21. Siehe Dublin Core HomePage http://purl.org/dc/

22. Information from Leif Andresen to DC Standards WG: European Standardization 3 February 2000. http://www.mailbase.ac.uk/lists/dc-standards/2000-02/0000.html

23. The Nordic Metadata Project Final Report. [Juha Hakala et al.]. Helsinki [1998] http://linnea.helsinki.fi/meta/nmfinal.doc (Word 97) oder http://linnea.helsinki.fi/meta/nmfinal.htm (HTML). Siehe auch The Nordic Metadata Projects HomePage http://linnea.helsinki.fi/meta/ für weitere Informationen zur Folgeprojekt "The Nordic Metadata Project II," 1999 ff.

24. Paul Miller und Daniel Greenstein: Discovering Online Resources across the Humanities: A Practical Implementation of the Dublin Core. 1997. Arts and Humanities Data Service (AHDS) and UK Office for Library and Information Networking (UKOLN). Auch online: http://ahds.ac.uk/public/metadata/discovery.html

25. Siehe die Arbeit in den Dublin Core Element "Working Groups" auf der Website des Dublin Core http://purl.org/dc/. Die von der Dublin Core Community akzeptierten Unterelemente ("Qualifiers") werden während der Monate Februar und März 2000 abgestimmt und darauf hin bekannt gegeben. Die zur Diskussion gestellten Qualifiers samt Definition sind jedoch auf den jeweiligen Webpages der einzelnene Working Groups zu sehen.

26. Resource Description Framework, siehe World Wide Web Consortium: Resource Description Framework: http://www.w.3.org/RDF/Overview.html und auch http://scitsd.wlv.ac.uk:8080/metadata.html sowie Charlotte Jenkins, Mike Jackson, Peter Burden, Jon Wallis: Automatic RDF Metadata Generation for Resource Discovery http://www.scit.wlv.ac.uk/~ex1253/ rdf_paper/

27. Richard Furuta: Defining and Using Structure in Digital Documents. Proceedings of the ACM Digital Libraries 1994 "DL’94". http://csdl.tamu.edu/csdl/DL94/paper/furuta.html.

28. Hier kann leider nicht in diesem Aufsatz auf die einzelnen Ausnahmen eingegangen sein. Es sei lediglich das Subito-Programm als Beispiel erwähnt, die Dokumentenlieferdienste der TIB und anderen Bibliotheken etc. Ebenso wird auf die unten in diesem Aufsatz stehenden Bemerkung von Frode Bakken (Abschnitt: Die Ökonomie der digitalen Bibliothek, siehe Fußnote 30) hingewiesen.

29. Siehe Tabelle im Aufsatz von Norman Paskin: DOI: Current Status and Outlook. D-Lib Magazine 5 (5) (May 1999) http://www.dlib.org/dlib/may99/05paskin.html

30. Jane Hunter: MPEG-7. Behind the Scenes. D-Lib Magazine 5 (9) (September 1999) http://www.dlib.org/dlib/september99/hunter/hunter09.html

31. Siehe die Zusammenstellung von Tony Gill, Catherine Grout und Louise Smith: Visual Arts, Museums, & Cultural Heritage Information Standards: A Domain-Specific Review of Relevant Standards for Networked Information Discovery. 1997. http://vads.ahds.ac.uk/standards.html

32. Furuta 1994 (Fußnote 27), S. 21.

33. Furuta (1994), (Fußnote 27).

34. Furuta 1994 (Fußnote 27).

35. Die tägliche Arbeit der Zeitschrifteneingangsstelle der Bibliothek wird sich hierdurch am meisten ändern. Anstatt des Kardexeintrags nach Heftzugangsdatum wird eine Email (ggf. zum Weiterleiten an andere Alerting-Kunden im Haus) mit der Meldung, dass das Heft ab einem bestimmten Datum im Netz über die jeweiligen URL zu finden ist. Bei D-Lib Magazine z.B., einem Organ der Digital Libraries Initiative 2000, ist das Erscheinen des jeweiligen Heftes immer am 15. des jeden Monats dokumentiert.

36. Dublin Core Metadaten sind in erster Linie zur "Resource Discovery" und nur anwendungsbedingt auch im Sinne "Resource Description" konzipiert worden.

37. Siehe auch Diann Rusch-Feja: Aufbau von internationalen Bildungsservern im Internet. Die Rolle von Metadaten für Lehr- und Lernmaterialiensammlungen. GIB-News 1’1998, S. 2-8, auch (http://www.educat.hu-berlin.de/gib/news/1998-1/thema1.htm)

38. Hierzu erscheint ein Statusbericht von der Verfasserin in Zeitschrift für Bibliothekswesen und Bibliographie 47 (1) (2000) (in Druck). Siehe auch die Arbeitsgruppenseiten der DC Educational Metadata weiterhin für Berichte über ihre Sitzungen am 19.-20. Februar 2000 in Australien, die zur Weiterentwicklung der Standards führen sollten. Vgl. hierzu auch http://www.ischool.washington.edu/sasutton/DC-Education.html

39. Jane Hunter und Zhimin Zhan: An Indexing and Querying System for Online Images Based on the PNG Format and Embedded Metadata. http://archive.dstc.edu.au/RDU/staff/jane-hunter/PNG/paper.html

40. Jane Hunter and Jan Newmarch: An Indexing, Browsing, Search and Retrieval System for Audiovisual Libraries. Paper presented at the 3rd European Conference on Digital Libraries, 20-25 September, 1999. Auch verfügbar unter der URL: http://archive.dstc.edu/au/RDU/staff/jane-hunter/ECDL3/paper.html

41. Siehe Lorcan Dempsey und Stuart L.Weibel: The Warwick Metadata Workshop: A Framework for the Deployment of Resource Description. D-Lib Magazine, July/August 1996. http://www.dlib.org/dlib/july96/07weibel.html; Lou Burnard et al.: A Syntax for Dublin Core Metadata: Recommendations from the Second Metadata Workshop. April 1996. http://www.uic.edu/~cmsmcq/tech/metadata.syntax.html, und http://users.ox.ac.uk/~lou/wip/metadata.syntsx.html; Ron Daniel und Carl Lagoze: Extending the Warwick Framework: From Metadata Containers to Active Digital Objects. D-Lib Magazine, November, 1997. <http://www.dlib.org/dlib/november97/daniel/11daniel.html>; Juha Hakala, Ole Husby und Traugott Koch: Warwick Framework and Dublin Core Set Provide a Comprehensive Infrastructure for Network Resource Description. Report from the Metadata Workshop II, Warwick, UK, April 1-3, 1996. <http://www.ub2.lu.se/tk/warwick.html> und http://www.ifla.org/documents/libraries/cataloging/metadata/warwick.htm; Harold Thiele: The Dublin Core and Warwick Framework. D-Lib Magazine, January 1998. http://www.dlib.org/dlib/january98/01thiele.html.

42. Bruce Schatz und Hsinchun Chen: Building Large-Scale Digital Libraries. Computer (May 1996), S. verfügbar über http://www.computer.org/computer/co1996/r5toc.htm

43. Ebenda.

44. Bruce Schatz, William H. Mischo, Timothy W. Cole, Joseph B. Hardin, Ann P. Bishop: Federating Diverse Collections of Scientific Literature. Computer (May 1996), S. 28-36, verfügbar über http://www.computer.org/computer/co1996r5toc.htm

45. Lesk (Fußnote 9), S. 117- 120. Lesk bezieht sich auf die "Vector Models" vom Gerard Saltons "SMART" Projekt, (Salton 1968).

46. In dem DLI-Projekt von Schatz und Chen etc. wurden elektronische Artikel und Metadaten für ca. 66.000 Artikel aus 63 Fachzeitschriften von der IEEE Computer Society, des Institute of Electrical and Electronics Engineers (IEEE), der American Physical Society (APS), des American Institute of Physics (AIP), der American Society of Civil Engineers (ASCE) und des American Institute of Aeronautics and Astronautics (AIAA) in das Testbett mitintegriert. Siehe Bruce Schatz, William Mischo, Timothy Cole, Ann Bishop, Susan Harum, Eric Johnson, Laura Neumann, Hsinchun Chen, Dorbin Ng: Federated Search of Scientific Literature. Computer 32 (February 1999), S. 51-59, hier S. 51, verfügbar über http://www.computer.org/computer/co1999/r2toc.htm

47. Siehe Schatz et al., 1999 (Fußnote 46). Allerdings bezieht es sich hier nicht auf die oben erwähnten DOI.

48. Siehe Diann Rusch-Feja: Clearinghouses als Vermittlungsstellen für Fachinformtion. In: Weiter auf dem Weg zur Virtuellen Bibliothek. I. INETBIB-Tagung, 11.-13. März 1996. 2. Erweiterte Ausgabe, hrsg. v. B. Jedwabski, J. Nowak. Dortmund: Universitätsbibliothek, 1996, S. 63-80; und Diann Rusch-Feja: Ein "Clearinghouse"-Konzept für Fachinformation aus dem Internet oder wie man aus dem Chaos sinnvolle Informationsvermittlung betreibt. ABI-Technik 16 (2) (1996), S. 143-156.

49. Zum Beispiel die Fachinformationsführer des SSG-FI-Programms an der Niedersächsischen Staats- und Universitätsbibliothek wie "Math Guide" (http://www.sub.uni-goettingen.de/ssgfi/math/index.html), "Geo Guide" (http://www.sub.uni-goettingen.de/ssgfi/geo/index.html), "Anglo-American Literature Guide" (http://www.sub.uni-goettingen.de/ssgfi/aac-lit/index.html), und "Anglo-American History Guide" (http://www.sub.uni-goettingen.de/ssgfi/aac-his/index.html).

50. Siehe BUBL Information Center http://bubl.ac.uk/.

51. Zum Beispiel das MathNet (http://www.math-net.de/project/) und das EuroPhysNet (http://www.nikhef.nl/pub/eps/europhysnet.html).

52. David Haynes, David Streatfield, Noeleen Cookman und Helen Wood: Comparative Evaluation of the Subject Based Gateways Approach to Providing Access to Network Resources. http://www.ukoln.ac.uk/services/elib/papers/tavistock/subject-gateway-access/.

53. Siehe Lorcan Dempsey, Tracy Gardner, Michael Day und Titia van der Werf: International Information Gateway Collaboration. Report of the First IMesh Framework Workshop. D-Lib Magazine 4 (12) (December 1999 http://www.dlib.org/dlib/december99/12dempsey.html

54. Robin P. Peek und Jeffrey P. Pomerantz zitieren Harnads "Subversive Porposal to the electronic discussion list VPIELJ-L" in: Electronic Scholarly Journal Publishing. In: Annual Review of Information Science and Technology. Vol. 33, 1998. Hrsg. Martha E. Williams. Medford, NJ: American Society for Information Science, 1999, S. 321-356, hier S. 339. Die eigentliche Referenzstelle ist: Stevan Harnad: Universal FTP Archives for Esoteric Science and Scholarship: A Subversive Porposal. In: Ann Okerson und James O’Donnell (Hrsg.): Scholarly Journals at the Crossroads: A Subversive Proposal for Electronic Publishing. Washington, DC.: Association of Research Libraries, 1995 (http.//cogsci.soton.ac.uk/~harnad/subvert.html).

55. Lesk (Fußnote 9), S. 121-122.

56. Philipp Graetzel von Graetz: Ein Paradigmenwechsel in der Wissenschaftspublizistik. c't 27.01.2000 http://www.heise.de/tp/deutsch/inhalt/co/5726/1.html. Siehe auch die Besprechung von Richard Sietmann: Die Vertreibung aus dem Paradies. c't (12.01.2000) http://www.heise.de/tp/deutsch/inhalt/on/5672/1.html sowie das Interview mit Arnoud deKemp (Springer-Verlag): Richard Sietmann: Eine Zeitschrift auf den Server einer Universität zu legen, ist keine große Leistung. c't (12.01.2000) http://www.heise.de/tp/deutsch/inhalt/on/5673/1.html.

57. Schatz und Chen, 1996, (Fußnote 42).

58. Vgl. Beate Troeger (Hrsg.): Wissenschaft online: Elektronisches Publizieren in Bibliothek und Hochschule. Zeitschrift für Bibliothekswesen und Bibliographie, Sonderheft (in Druck) (2000). Hier sind mehrere Artikel über elektronisches Publizieren und seine Bedeutung im Rahmen der digitalen Bibliothek.

59. Stevan Harnad: The Post-Gutenberg Galaxy: How to Get There from Here. http://www.cogsci.soton.ac.uk/~harnad/THES/thes.html

60. "Introducing First Monday: The Idea" (Übersetzung der Verfasserin) http://www.firstmonday.org/idea.html

61. Siehe Eliot Marshall: Jounals Launch Private Reference Network. Science 286 (19 November 1999), S. 1459; ebenfalls gemeldet am 17. November 1999 im LibLicense-L-Listenarchiv (http://www.library.yale.edu/~llicense/ListArchives/) mit dem Subject: "Publisher Join Linking Effort Announced". Siehe auch hierzu Helen Atkins, Catherine Lyons, Howard Ratner, Carol Risher, Chris Shillum, David Sidman und Andrew Stevens: Reference Linking with DOIs: A Case Study. D-Lib Magazine 6 (2) (February 2000) http://www.dlib.org/dlib/febrary00/02risher.html

62. Zum Beispiel: Stevan Harnad: Scholarly Skywriting and Prepublication Continuum of Scientific Inquiry. Psychological Science 1(6) (1990), S. 342-344 (http://www.cogsci.soton.ac.uk/~harnad/Papers/Harnad/harnad90.skywriting.html) und mit noch neueren Gedanken dazu: Stevan Harnad: The Future of Scholarly Skywriting. In: i in the Sky: Visions of the Information Future. Hrsg. v. A. Scommel. ASLIB November 1999 (http://www.cogsci.soton.ac.uk/~harnad/papers/harnad99.aslib.html.

63. Für Stevan Harnards weitere Überlegungen zum Thema, die nicht alle an dieser Stelle ausgeführt werden können, siehe Stevan Harnad: The Paper House of Cards (and why it’s taking so long to collapse). Ariadne (http://www.ariadne.ac.uk/issue8/harnad.html); Stevan Harnad: Learned Inquiry and the Net: The Role of Peer Review, Peer Commentary and Copyright. In: Beyond Print: Scholarly Publishing and Communication in the Electronic Environment, September 26-27, 1997. Toronto. (http://citd.scar.utoronto.ca/EPub/talks/Harnad_Snider.html); Stevan Harnad: Post-Gutenberg Galaxy: The Fourth Revolution in the Means of Production of Knowledge. Public-Access Computer Systems Review 2 (1) (1991), S. 39-53; Stevan Harnad: The invisible hand of peer review. Nature (1998) (http://helix.nature.com/webmatters/invisible/invisible.html).

64. First meeting of the Open Archives Initiative. Executive Summary (http://vole.lanl.gov/ups/ups1-press.htm).

65. Herbert Van de Sompel und Carl Lagoze: The Santa Fe Convention of the Open Archives Initiative. D-Lib Magazine 6 (2) (February 2000) http://www.dlib.org/dlib/february00/vandesompel-oai/02vandesompel-oai.html. Siehe auch Stevan Harnad: Free at Last: The Future of Peer-Reviewed Journals. D-Lib Magazine 5 (12) (December 1999) http://www.dlib.org/dlib/december99/12harnad.html.

66. Herbert Van de Sompel, Thomas Krichel und Michael L. Nelson: The UPS Prototype: An Experimental End-User Service across E-Print Archives. D-Lib Magazine 6 (2) (February 2000) http://www.dlib.org/dlib/february00/vandesompel-ups/02vandesompel-ups.html.

67. Zum Beispiel The Digital Dilemma. Intellectual Property in the Information Age. Committee on Intellectual Property Rights and the Emerging Information Infrastructure. Computer Science and Telecommunications Board. Commission on the Physical Sciences, Mathematics and Applications. National Research Council [of the United States of America]. Washington, D.C.: National Academy Press, 1999. Siehe http://books.nap.edu/html/digital_dilemma/ für weitere Details inklusive des Inhaltsverzeichnisses. Siehe auch Henry M. Gladney: Digital Dilemma: Intellectual Property. Synopsis and Views on the Study by the National Academies’ Committee on Intellectual Property Rights and the Emerging Information Infrastructure. D-Lib Magazine 5 (12) (December 1999) http://www.dlib.org/dlib/december99/12gladney.html.


[Dr. Rusch-Feja] Zur Autorin

Dr. Diann Rusch-Feja
Library and Research Documentation
Max Planck Institute for Human Development

Lentzeallee 94
D-14195 Berlin
E-Mail: ruschfeja@mpib-berlin.mpg.de