Digitalisieren, Archivieren, Publizieren

Bericht vom 10. Sun Summit in Kassel

Ausstellungsgebäude

von Rüdiger Schneemann

Firmensponsoring ist ja ganz nett, aber gleich eine ganze Tagung? Wenn man das erste Mal einen Sun Summit besucht wie ich, hat man doch eine gewisse Reserviertheit: Wie es denn um die Objektivität der Vorträge steht, ob man seine Beteiligung nicht gleich als Kaufversprechen deuten kann, ab wann einem die Firmenvertreter die Bude einrennen. Obwohl: Eine gewisse Abhärtung hat man ja schon durch Thomsen-Datenbankschulungen, Ovid-Seminare, Elsevier-Foren etc. erhalten und die Erfahrung hilft einem zwischen Marketing und Informationserkenntnis zu unterscheiden – jedenfalls so im Großen und Ganzen.

Also auf nach Kassel (oder besser rüber – von Berlin aus gesehen) und mal gucken, ob Referenten/innen und Themen auch das halten, was sie versprechen. Ergebnis auf der Bit-Skala von ja/nein: ja, auf der alten Schulskala von 1 bis 6: 2+. Denn: Es gab durchweg gute Präsentationen, die Themen passten, die Vortragenden schafften es locker, keine Leidtragenden aus den Zuhörenden zu machen, und die Organisation von Vorträgen, Ausstellung und Abendveranstaltung durch Sun und die UB der Uni Kassel gefielen.

1 Überblick

Eingebettet in Begrüßung und Schlussworte gab es folgende Themenblöcke: Digitalisierung (weltweit, regional, vor Ort), Archivierung (Planung, Praxis, Handwerkszeug), Kundenorientierung (OPAC, Netzwerke, Forschungsdaten), Technik (Speichertechnologien, Verbundlösungen, Sicherheit), Wissenschaftsstrukturen (Datenzugriffe, Standards), Digitalisierungsprojekte (Arbeitsabläufe, OCR, Erschließungen).

Die dafür gewonnenen namhaften Referenten/innen beherrschten ihr Fachgebiet. Man beschränkte sich erfreulicherweise nicht darauf, Bekanntes zu wiederholen oder neu zu verpacken; das Bemühen, die eigenen Arbeiten in den Kontext der Veranstaltung zu stellen und generelle Entwicklungslinien herauszuarbeiten, war zu bemerken.

Zum eigenständigen Lesen: Die Agenda, Abstracts der Vorträge, weiterführende Links und die Folien der Präsentationen befinden sich im Web: de.sun.com/sunnews/events/2009/bibsummit/

2 Eröffnung

Als Vizepräsident der Universität Kassel übernahm Prof. Alexander Roßnagel die Begrüßung. Kassel war 2004 eine der ersten Universitäten Deutschlands, welche die Berliner Erklärung zu Open Access unterschrieb. Aber man redet nicht nur drüber, man (insbesondere die UB) tut auch was dafür, sichtbar z. B. im digitalen Repositorium ORKA-Open Repository Kassel, (auf der Basis von DSpace) oder in Projekten wie PUMA auf der Plattform von BibSonomy. Für die Universität ist der freie Zugang zu wissenschaftlichen Publikationen unabdingbar; sie ist der Auffassung, dass es einen 3. Korb des UrhG geben muss, z. B. im Hinblick auf die Problematik der Semesterapparate.

Für die Universitätsbibliothek Kassel als Mitveranstalter stellte dann der stellv. Bibliotheksdirektor Dr. Helge Steenweg mit seinem Beitrag Digitalisierung im bibliothekarischen Alltag abseits von Förderprojekten Ausstattung und Dienstleistungsangebot der UB vor und präsentierte die Digitalisierungsaktivitäten. Er erläuterte das Konzept Institutional Repository (Kobra) und Open Repository (Orka) und stellte den 3-Stufenplan zum Scannen der wertvollen Bestände vor (inkl. Handschriften, Karten, Fotos), u. a. in Kooperation mit dem Göttinger Digitalisierungszentrum (GDZ). Interessant: Man scannt auch bei Fotografien Vorder- und Rückseite. Im Web werden 2 Scan-Varianten angeboten, und zwar hochauflösend mit und bildschirmoptimiert ohne Wasserzeichen.

In Zukunft möchte man gemeinsam mit dem GDZ den Workflow verbessern und will dazu die plattformunabhängige Software Goobi nutzen; für die Datensicherung setzt man auf ein SAN und die Backup-Dienste des Hochschulrechenzentrums.

Vortragsgebäude

3 Beiträge von Sun

Art Pasquinelli als Education Market Strategist gab mit Worldwide trends in digital libraries – Things learned from the Sun PASIG einen Überblick über die Digital Library Map, also das, was Sun mit Partnern (u. a. OCLC-PICA, ExLibris, DSpace, Fedora) umgesetzt hat bzw. gerade entwickelt. Zusammengefasst wird es als IILS Integrated Library System. Als Ziele werden verfolgt: Scalability, Security, Sustainability, Sharability.

Ausführlich ging er auf die anstehenden Herausforderungen für Bibliotheken, Hard- und Softwareanbieter ein und verdeutlichte die Rolle der Sun Preservation and Archiving Special Interest Group (PASIG). Das Datenmanagement wird unglaubliche Mengen zu behandeln haben (zettabytes); ganz wichtig wird das Disaster Recovery sein und die Verbindung von Dokumenten mit den zu Grunde liegenden Forschungsdaten.

Eine spannende Präsentation gab Thorsten Lange (Consultant und Architekt für Archivierungssysteme) zur Speicher-Hardware. Unter der Überschrift Quo Vadis, Tabularius? ging er auf Speichertechnologien wie Hard Disk, Blue Ray, Tape, Flash, Holografie ein und schätzte deren zukünftige Bedeutung ein. Was sind die Messlatten des Erfolgs? Betriebsaufwand (Energiekosten werden wichtiger als die Beschaffungskosten), Marktakzeptanz und Leistungsmerkmale wie Kapazität nannte er.

Das Tape, im Privatgebrauch schon fast tot, bleibt wichtig: Minimaler Stromverbrauch (Platten drehen ständig, Bänder werden nur bei Bedarf bewegt), unschlagbare Übertragungsgeschwindigkeit (200 MB /sec) und 5-10mal billiger pro GB als die Disk. Während beim Band noch Steigerungen denkbar sind, stößt die Platte an ihre physikalischen Grenzen (schneller als Schallgeschwindigkeit kann sie nicht drehen), es gibt auch ein Dichte-Problem (bit rot = Bitfäule: die gespeicherten Bits drohen bei minimalen Einflüssen ihre Information zu verlieren). Besser – weil ohne bewegliche Teile – sind Flash-Speicher. Bekannt sind MLC (Sticks) und die professionelleren SLC (Singel Level Cell); gerade entwickelt werden PCM (Phase Change Memory), auf der Basis amorph-kristalliner Strukturen. Inwieweit sich optische (Blu Ray) und holografische Speicher durchsetzen werden, hängt weniger von der Technik (die ist ziemlich ausgreift) ab als von der Marktakzeptanz beim breiten Publikum.

Sein Resümee: Tape und Disk werden bleiben, Disk dabei Marktanteile an Flash verlieren.

4 Beiträge über Sun

Mit einem Erfahrungsbericht belegte Dr. Ingo Rohlfs (Universitätsbibliothek Tübingen), dass UBs durch konsequentes Eingehen auf die Bedürfnisse der EDV-Anwender eine „Quelle der Zufriedenheit für Benutzer und Mitarbeiter machen kann – mit entsprechenden Imageeffekten“. Sein Titel Sun Ray als Baustein für Kundenzufriedenheit hebt auf die Hardware ab, der Vortrag zeigte aber, dass es auch auf die Software und die Ergonomie ankommt – und dass das nur funktioniert, wenn man sich merkbar um die Kunden kümmert.

Ziel war es, ein robustes und schnelles System moderner Ultra Thin Clients (Sun Rays) zu installieren, die einfach über einen Server (und einen Reserve-Server) gesteuert werden. Es sollte keine Terminal Server-Farm angelegt werden. Folgende Philosophie verfolgte man: Zuverlässigkeit und Übersichtlichkeit vor Funktionsumfang; einfache Benutzerführung; sehr schneller Anmeldevorgang mit sofortigem Start eines Browsers (den braucht man immer); Bereitstellen der gewünschten Software, aber nur solcher, die auch unterstützt werden kann.

Die Kundenorientierung definierte sich so: Ausgedehnte Testphase (2 Monate), intensive Betreuung der Benutzungsabteilung, anfangs ein Auszubildender vor Ort, Fragebögen, Benutzerbuch für Rückmeldungen der Kunden, Bekanntmachen der Vorteile. Das Ergebnis war überzeugend, die Noten schwankten von 1,65 bis 1,85, waren also exzellent (140 Fragebögen wurden ausgewertet). Und nicht zu unterschätzen: Das Konzept Green-IT, das ebenfalls hinter dem Sun Ray Einsatz stand. Erfolge: 82 % Energieersparnis gegenüber einem PC-System, 58 weniger Festplatten. Auch die Nutzer unterstützten dieses Konzept.

5 Was bieten Bayerns Bibliotheken?

Das ist schon interessant, was sich in Bayern tut, nicht nur durch das Google-Projekt der Bayrischen Staatsbibliothek (BSB). Dr. Christian Strohmaier vom Bibliotheksverbund Bayern (BVB) referierte über Gateway Bayern. Die EDV-Architektur ist auf Geschwindigkeit ausgelegt. Während die Katalogisierung weiterhin in Aleph stattfindet, wurde die Rechercheseite umgebaut; auf der Basis der Suchmaschine Fast wurde ein Cluster mit acht Knotenrechnern (Sun-Hardware und Linux-Betriebsystem) installiert.

Für die Recherche wird TouchPoint genutzt (Weiterentwicklung des InfoGuide von OCLC). Mit Hilfe von SFX als OpenURL-basiertem kontextsensitivem Link-Resolver wurden Fernleihe und Dokumentlieferdienste wie Subito integriert. Das freie Literaturverwaltungssystem Zotero wird dadurch unterstützt, dass die SFX-URL als COinS-URL (Austauschformat) genutzt werden kann.

Wichtig ist auch die Funktion des Gateway als Content-Provider, der schnelle Zugriff auf über 40 Mio. Aufsatzdaten wird dadurch landesweit ermöglicht. Ebenfalls angebunden wird Google-Books, die momentan noch lose Kopplung an den WorldCat und Web 2.0-Dienste wird weiter ausgebaut.

Das Tool Fast-View wird eingesetzt, um unterschiedliche Sichten auf die vorhandene Daten vornehmen zu können (z. B. die Vereinigungsmenge aller Verbunddaten oder regionale Gruppierung von Beständen) und Doppelaufnahmen feststellen zu können (z. B. VD16 und Katalog).

Richtige Schmankerl enthielt der Vortrag OPAC plus Suche 2.0 - Suchmaschinentechnik, erweiterte Erschließung und neue Zugänglichkeit im Bibliothekskatalog von Jörg Luber von der BSB. Die neue Suchoberfläche OPAC plus bietet die Suchbox („Einschlitzsuche“), integriert Synonyme und verwandte Suchanfragen, macht Korrekturvorschläge. Inhaltsverzeichnisse von Publikationen werden im Katalog indexiert, weitere Informationen (Titelblätter, Abstracts etc.) verlinkt. Es wird mit Taxonomiebäumen und Tagclouds gearbeitet, um die Recherchemöglichkeiten zu verbessern. Dahinter steht das Prinzip, Kataloganreicherungen so weit wie möglich zu integrieren (auch in den Index) und Volltextsuchen anzubieten.

Mashups nennt man ergänzende Dienste anderer, die mit dem Katalog verbunden werden; die BSB realisiert das für Google-Buchsuche, Wikipedia, BSB-Digitalisate, BVB-Zeitschrifteninhaltsverzeichnisse, das Empfehlungssystem BibTip. Und natürlich werden Schnittstellen zu Literaturverwaltungssystemen und anderen Web 2.0-Anwendungen (twitter, facebook, Mister Wong, delicious etc.) angeboten. Für Neuerwerbungen etc. können RSS-Feeds eingerichtet werden. Die Sichtbarkeit des BSB soll auch in externen Webseiten verbessert werden: Die Suchbox der BSB ist in Systemen wie MySpace, Lokalisten.de integrierbar.

Das zahlt sich aus, seit der Einführung gab es eine phänomenale Steigerung der Suchen von 17 %. Während beim alten Katalogangebot das Verhältnis von Kategoriensuchen zu freien Suchen 95:5 war, beträgt es heute 50:50. Früher gab es ein geschlossenes System, bestehend aus anfragenden Nutzern, OPAC und BSB-Katalog, heute ist man mit der „Welt“ verbunden (jedenfalls im Web).

Wesentlich für alle diese Entwicklungen ist auch, dass für OPAC plus eine eigene Query Language entwickelt worden ist; diese generiert für jeden Katalogeintrag einen persistenten Identifier (PermaLink) und schafft damit die Basis für die gezielte Anbindung einzelner Katalognachweise an Web 2.0 und weitere Zusatzprogramme.

Was könnte die Zukunft noch bringen? Mit Hilfe von domänen-spezifischen Vokabularien versucht man eine automatische Verschlagwortung hinzuzufügen (um es mal ganz locker zu sagen: Entitätenextraktion mit Hilfe von Taxonomien auf der Basis einer Volltextindexierung ...).

6 Und was machen andere?

Berlin-Brandenburg gehört zwar nicht zu Bayern, aber durch die enge Kooperation von KOBV und BVB werden die Systeme angepasst bzw. aufeinander abgestimmt, insofern wird man dort auch von den Entwicklungen Bayerns profitieren. Stefan Lohrum (Kooperative Bibliotheksverbund Berlin-Brandenburg – KOBV) stellte mit seinem Beitrag Bibliotheken virtualisiert – Container mit Aussicht! die technische Infrastruktur des Konrad-Zuse-Zentrumsfür Informationstechnik Berlin (ZIB) vor, dessen Infrastruktur der KOBV nutzt. Ferner beschrieb er das neu entwickelte Dienstleistungsmodell des KOBV, das man in Form von virtuellen Containern organisiert hat. Pro Anwendung wird ein Container eingerichtet; Vorteile. Einsparung von Lizenzgebühren und bessere Verwaltung der Software.

Der KOBV betreibt momentan vier Anwendungen (Aleph, MetaLib, Fernleihe-Server, Zeitschriften-Server) für die Region. Zusätzlich unterstützt er die Migration der Daten in den BVB und er hostet als Dienstleister für einzelne Bibliotheken weitere Systeme (u. a. SFX, Opus, MetaLib für andere, Verde, Primo, KOBV Easy Discovery=ALBERT).

Es ist natürlich nicht so, dass nur die BSB das Web 2.0 entdeckt hat und versucht, sein Katalogangebot neu zuzuschneiden und an die Wünsche und technische Infrastruktur der Kunden/innen heranzuführen. Speziell auf den Inetbib-Tagungen und mehreren Bibliothekartagen gab es immer wieder schon Referate zu entsprechenden Entwicklungen.

In Kassel imponierte Anne Christensen, SUB Hamburg Carl von Ossietzky, mit beluga: Schaufenster zur Baustelle des Hamburger Katalog 2.0. Das Projekt aller Hamburger Hochschulbibliotheken wird gefördert vom E-Learning Consortium, Hamburg, hat inzwischen den Prototyp 0.7 erreicht und nähert sich der Freigabe (angepeilt 2010). Der Kern ist die partizipative Entwicklung mit den Nutzern. Sehr schön konnte das veranschaulicht werden mit „the ladder of understanding“, die von data über information zu knowledge und schließlich zu wisdom ansteigt.

Jakob Voss von der Verbundzentrale des GBV

beluga kommt zu fast identischen Lösungen wie der BSB: Einschlitzsuche, Titelkurzlisten, Drilldowns für assoziative Suchen, Hinweise auf ähnliche Titel, Relevanzsortierung (also nicht nach formalen Kriterien wie Datum, Autor), Schnittstellen zu Web 2.0, Mashups mit Google Buch etc. Was die Hamburger Entwicklung noch auszeichnet ist das Ziel der Integrierung von beluga in Lernumgebungen, z. B. CommSy von der HAW; es gibt Ex- und Importmöglichkeiten, wählbare Zitierformate etc.

Für die partizipative Entwicklung arbeitet man mit Fokusgruppen von Studierenden zusammen; manche Ergebnisse überraschten: Die Studierenden forderten zusätzlich die erweiterte Suche, nutzten sie aber fast gar nicht; Mashups mit Amazon wurden abgelehnt; Literaturempfehlungen von Profs wurden kontrovers gesehen. Gefragt hingegen waren: Visualisierungen (also mehr als nur Tabellen), „serendipity“ (man stolpert über etwas, das man eigentlich gar nicht gesucht hat und findet das prima), Relevanz-Sortierung mit Popularitätsfaktoren. Man darf gespannt sein auf beluga, der Prototyp ist zu besichtigen unter http://beluga.sub.uni-hamburg.de.

Auch Jakob Voss von der Verbundzentrale des GBV (VZG) hat sich die Kundenorientierung auf die Fahnen geschrieben. Mit Persönliche Kataloge legte er dar, wie im Web bibliographische Daten immer einfacher gemeinsam erfasst und kopiert werden, sodass die Zahl von persönlichen Katalogen und Bibliographien kontinuierlich steigt.

Bibliothekskataloge verlieren tendenziell an Bedeutung, hingegen gewinnen Empfehlungen (weniger von Einzelpersonen, eher von communities) und automatische Erschließungssysteme wie Goggle Buch an Gewicht. Bibliotheken reagieren vermehrt mit Verknüpfungen diverser Angebote zum Katalog. Bedingung ist aber, dass jeder Katalogeintrag einen eindeutigen und persistenten Identifikator braucht, einen PermaLink. Existierende Systeme sind die sog. URI (DOI, URN, hauseigene wie bei der BSB), man kann aber auch an EKI denken: Erstkatalogidentifikatoren.

Das Einbinden von Programmen zur Literaturverwaltung, Anwendungen zum Social Cataloging oder die Integration von bibliographischen Daten in Lehr-, Lern- und Forschungsplattformen hilft die Produkte der Bibliotheksarbeit einer breiten Anwendung zuzuführen.

Volker Conradt vom Bibliotheksservice-Zentrum Baden-Württemberg (BSZ) trug folgendes vor: Aggregation, Archivierung und Aufbereitung elektronischer Ressourcen am Bibliotheksservice-Zentrum Baden-Württemberg. Er verdeutlichte die Aufgabe, welche das BSZ als Dienstleistungsagentur für Bibliotheken, Archive und Museen übernimmt und wie es aggregiert elektronische Ressourcen zur langfristigen Archivierung des Bestandes übernimmt und aufbereitet. Durch die Aggregation können Synergiepotentiale ausgeschöpft werden. Die verschiedenen Verfahren werden über die Besitzgrenzen hinweg technisch zusammengeführt und gebündelt; Berechtigungen, Schutzmechanismen und Freiheitsgrade in der Präsentation bleiben gewährleistet, die Sicherheit der Daten wird durch replikative Speicher erhöht.

Das BSZ archiviert so unterschiedliche Bestände wie Hochschulschriften aller Art, das Deutsche Volksliedarchiv, „Literatur im Netz“ des Deutschen Literaturarchivs Marbach, digitale Bilddateien der Staatsgalerie Stuttgart usw.

7 Langzeitarchivierung

Prof. Manfred Thaller (Universität zu Köln) widmete sich dem Thema Langzeitarchivierung zwischen Planung und technischer Praxis. Er zeigte auf, dass erhebliche Lücken in den Kenntnissen zu den technischen Voraussetzungen digitaler Langzeitarchivierung bestehen. Das EU-Projekt „Planet- Preservation and Long-term access via Networked Services“ versucht nun, Planung und informationstechnische Forschung zusammen zu bringen.

Dazu gehört die Entwicklung einer XML basierten Metasprache zur Beschreibung der Eigenschaften von Langzeitsicherungswerkzeugen, die Untersuchung bestehender Lösungen und ergänzende Neuentwicklungen, Überprüfung verschiedener Langzeitarchivierungsszenarien, Messung der Effektivität von Langzeitsicherungsplänen.

Prämisse: Langzeitarchivierung ist nur möglich, wenn es gelingt, den Inhalt zweier digitaler Objekte ohne menschliche Intervention so zu vergleichen, dass eine numerische Bewertung ihrer Ähnlichkeit resultiert. Das heißt, es muss automatisiert werden. Mit drei kritischen Thesen setzt er sich auch mit der „bibliothekarisch / archivischen Langzeitspeicherungsdiskussion“ auseinander, die ihm zu wenig die technologischen Entwicklungen berücksichtigt.

Andere Schwerpunkte hatte Christa Schöning-Walter von der Deutschen Nationalbibliothek: Identifier-Dienste der Deutschen Nationalbibliothek: Strategie und Anwendungen. Zunächst stellte sie die Bedeutung der Persistent Identifier als eindeutige Bezeichner für digitale Objekte dar. Sie bleiben über den gesamten Lebenszyklus hinweg mit den Objekten verbunden.

Die DNB verwendet Uniform Resource Name (URN); diesen benötigen alle Netzpublikationen, die bei der DNB gesammelt, erschlossen und archiviert werden, zwingend. Daneben hat die DNB im letzten Jahr damit begonnen, auch die Datensätze in der Nationalbibliografie und in den Normdateien mit Persistent Identifiern (PI) auszustatten, sodass es möglich ist, sie in semantisch vernetzte bibliografische Dienste oder Web 2.0-Anwendungen einzubinden. Andere PI (ARK Archival Resource Key, DOI Digital Object Identifier, Handle, InfoURI, PURL Persistent URL) werden in der Nationalbibliografie mit verzeichnet.

Zu betonen ist, dass PI nicht das Gesamtproblem lösen, sie sind nur eine der Voraussetzungen. Weitere sind unabdingbar: eine Policy (Regeln und Konventionen für die kooperative Nutzung), ein Resolvingdienst (eine verlässliche Service-Infrastruktur zur Verwaltung und Auflösung der Identifier), Langzeitarchivierung (die langfristige Verfügbarkeit der Ressourcen an sich).

URN können sogar für einzelne Seiten vergeben werden; Beispiel Sammlung Ponickau der UB Halle (Saale) mit 600.000 Einzelseiten alter Drucke. Für Katalogdaten und Normdaten sind http-basierte Uniform Resource Identifier ebenfalls zwingend erforderlich.

8 Sonderprojekte

Spannend waren auch die Präsentationen, die sich mit Spezialangeboten befassten. Prof. Detlev Doherr (Hochschule Offenburg) trug vor: Alexander von Humboldt im Netz: Die digitale Bibliothek als Wissenschaftlernetzwerk. Die digitale Bibliothek über die Werke von Alexander von Humboldt ist als eigenständiges System unter dem Namen „Humboldt Digital Library“ (HDL) im Web publiziert (http://www.avhumboldt.net). Es unterscheidet sich von herkömmlichen digitalen Bibliotheken vor allem durch den hohen Vernetzungsgrad der gespeicherten multimedialen Informationen und der Such- und Präsentationsstrategie.

Eine Suchmaschine für einfache Schlagwort-Suchen bis hin zu mehrteiligen und komplexen Suchläufen (nach Themen, Synonymen, Zeit- oder Ortsbestimmungen) öffnet den Zugang zu den digitalen Datenbeständen. Mit der Anbindung von Google Earth-Funktionen zur Navigation und Suche von Ortsnamen können sogar die betreffenden Textbausteine mit den Beschreibungen zu Orten, Naturbeobachtungen und weiteren Beschreibungen Humboldts in der HDL aufgefunden werden.

Gemeinsam mit der University of Kansas wurde und wird dieses Projekt entwickelt. Basis sind die Digitalisierung der engl. Texte (27 Bände) der Werke Humboldts, eine automatische Texterkennung, dann die Digitalisierung aller Illustrationen, Tabellen, Karten (ca. 3000). Mehrere Herausforderungen sind zu überwinden: verschiedensprachige Texte, multivariate Daten, Textparallelisierungen, Verknüpfung historischer Karten mit aktuellen.

Ein ganz anderes Problem behandelte Dr. Hans Pfeiffenberger (Alfred-Wegener-Institut für Polar- und Meeresforschung): Umgang mit Forschungsdaten: Von guter wissenschaftlicher Praxis bis zur Publikation von Daten. Die Allianz der deutschen Wissenschaftsorganisationen stellte 2008 in ihrem Strategiepapier „Digitale Information“ fest, dass dringender Handlungsbedarf hinsichtlich der systematischen Sicherung, Archivierung und Bereitstellung der Forschungsdaten für die Nachvollziehbarkeit und besonders für die Nachnutzung durch Dritte besteht.

Seit 2008 beschäftigt sich die Allianz-Arbeitsgruppe mit den organisatorischen, technischen und rechtlichen Rahmenbedingungen sowie Anreizsystemen für das Management von Forschungsdaten. Die Arbeitsgruppe hält es für dringend erforderlich, Strukturen organisatorischer und technischer Art und zeitgemäße Regeln für den Umgang mit Forschungsdaten zu schaffen. Wichtig sind dabei Grundlagen wie die Regeln guter wissenschaftlicher Praxis der DFG, Empfehlung 7 von 1998.

Um Daten nachnutzen zu können, ist es erforderlich, die Datenbereitstellung und -beschreibung durch die Forscher zu gewährleisten und einen dauerhaften und freien Zugang einzurichten; Anreizsysteme können das durchaus unterstützen.

9 Was gab es noch?

Manche Beiträge kann man als Berichterstatter einfach nicht richtig würdigen: man ist erschöpft, man versteht nichts mehr, man muss zum Zug, man überzieht eine Pause, alles eigentlich unentschuldbar, aber „so isses nu mal“. Die folgenden Referate können deshalb nur erwähnt werden. Die Kurzfassungen aus den Tagungsunterlagen sind aber im Web zu finden: Philipp Hess (Ex Libris): Digital Preservation: Securing the Future of Information and Libraries; Gerald Steilen, Till Kinstler (Verbundzentrale des GBV): Finden mit Open Source Software; Sabine Thänert (Deutsches Archäologisches Institut): Archivierung, Verknüpfung und Präsentation komplexer Forschungsmaterialien: Bibliotheken und Archive am Deutschen Archäologischen Institut; Dr. Wolfram Horstmann (Universitätsbibliothek Bielefeld): Digitale Repositorien als Rückgrat von Informationsinfrastrukturen; Dr. Greg Zick (OCLC): OCLC's Digital Repository Strategy Direction; Anette Seiler (hbz-Hochschulbibliothekszentrum NRW): ScanToWeb hosted by hbz – Digitalisierung leicht gemacht; Nicolai Sternitzke (Image Ware): Template-basierte OCR-Verfahren zur Zeitschriftenerschließung.


Autor

Rüdiger Schneemann

TU Berlin –Universitätsbibliothek
Abt. Digitale Dienstleistungen
schneemann@ub.tu-berlin.de