nestor - Kompetenznetzwerk Langzeitarchivierung auf 75. Deutschen Archivtag

Wenn Archivare tagen, geht es keineswegs um Karteireiter, Aktendeckel und Bücherwürmer. Auf dem "75. Deutschen Archivtag", der Ende September in Stuttgart stattgefunden hat, war vielmehr die Frage nach der Haltbarkeit der Bits und Bytes in den Archiven eines der vieldiskutierten Themen. Die Vorschläge, wie digitale Objekte zu archivieren seien, sind dabei so vielfältig wie die verwendeten Speicherformate. Und genau hier liegt der Kern einer Problematik, auf die das "nestor" - Kompetenznetzwerk Langzeitarchivierung im Rahmen der Tagung aufmerksam machen wollte.

"nestor" steht für "Network of Expertise in Long-Term Storage of Digital Resources" und das Ziel dieses Netzwerks ist, die verschiedenen Kompetenzen, Interessen und Anforderungen in der digitalen Langzeitarchivierung zusammenzuführen und eine Organisationsform zu finden, die den Erhalt des digitalen kulturellen Erbes für zukünftige Generationen sichert. Während des Archivtags ist einmal mehr deutlich geworden, dass die Entwicklung von einem "Königsweg" für ein optimales Speicherformat noch weit entfernt ist. Und das hat seinen Grund, wie Dr. Christian Keitel vom Landesarchiv Baden-Württemberg erläutert: "Digitale Unterlagen in Behörden, Gerichten, Unternehmen oder ganz allgemein an Stellen, die ihre Altunterlagen Archiven anbieten oder auch anbieten müssen, liegen praktisch in allen Ausgangsformaten vor, die wir zur Zeit kennen. Und wir wissen so gut wie nichts über die Technologie der Zukunft, mit der die Daten noch in Hunderten von Jahren lesbar sein sollen."

Im Mittelpunkt der Aufmerksamkeit stehen Daten, die schon digital entstehen - "born digital" - und die auf Papier oder einem anderen "herkömmlichen" Medium auch gar nicht darstellbar sind. Um solche Unterlagen dauerhaft zu erhalten und zugänglich zu machen, setzen die Archive auf die Migration der Daten in einige wenige standardisierte Formate. "Das ist nur eine Strategie von mehreren, und es ist uns wichtig, diese Möglichkeiten nicht nur in der Theorie zu erforschen, sondern vor allem auch in der Praxis zu erproben", beschreibt Keitel die Aufgabe, vor der die Archive heute stehen.

Eine Alternative zur Datenmigration ist die sogenannte "Emulationsstrategie", ein bisher noch eher theoretisches Modell, das vor allem für Bibliotheken interessant ist. Obwohl es - technologisch gesehen - vielversprechend ist, die "veraltete" Umgebung einer Datei in neuer Hardware nachzubilden, sieht Keitel die Entwicklungsmöglichkeiten für die Umsetzung in Archiven kritisch: "Bei der Vielfalt der archivierten Dateiformate ist die Emulation extrem aufwändig und außerdem mit dem Risiko behaftet, dass die Objekte zukünftig zwar visuell dargestellt, aber nicht mehr bearbeitet werden können." Denn das ist nur möglich, wenn man die Dateien - mitsamt ihrer ursprünglichen Funktionalität - auch in die dann gängigen Formate exportieren kann.

Als eine weitere Strategie wird die Konversion der Daten diskutiert. Die digitalen Daten sollen auf Mikrofilm ausbelichtet und im Falle der Benutzung erneut eingescannt werden, sodass sie später mit elektronischen Texterkennungssystemen lesbar gemacht werden können. "Wir müssen uns dabei aber klar machen, dass bei zeichenbasierten Dateien eine Erkennungsquote von 99,8 Prozent beim Einlesen von Daten absolut unzureichend ist, wenn wir beispielsweise an eine Datenerhebung denken, bei der knapp zehn Millionen Datensätze mit jeweils rund hundert Zeichen erfasst werden, von denen zwei Promille einfach falsch wiedergegeben werden."

So gesehen bietet die "Migrationsstrategie" eine relative Sicherheit für den Erhalt der Inhalte aus den gespeicherten Dateien. Aber schon angesichts der Unmenge an Darstellungsmöglichkeiten auf graphischen Oberflächen, die außerhalb des Computers gar nicht zu visualisieren sind, muss die Entwicklung weitergehen, wie Keitel fordert. In einem amerikanischen Großprojekt erforscht beispielsweise die "National Archives and Records Administration" (NARA) derzeit einen "Mittelweg" zwischen Migration und Emulation. Der Grundgedanke ist dort, dass man die ursprünglichen Eigenschaften eines Objekts unabhängig von der Originalsoftware beschreiben kann. In welchen Formaten solche Metadaten ("Daten über Daten") zu formulieren sind, ist allerdings von vielen Faktoren abhängig und eine alleingültige Lösung für alle Datentypen ist kaum zu erwarten. Für Keitel ein Grund mehr, nicht "eingleisig" zu forschen, sondern gerade das Potenzial der verschiedenen Ansätze auszuschöpfen. Denn der Austausch praktischer Erfahrungen aus einzelnen Projekten, die sich mit digitaler Langzeitarchivierung befassen, ist unverzichtbar, wenn es um die Entwicklung (buchstäblich) zukunftstauglicher Strategien geht: "Die Theorie kann die Entwicklung der kommenden Jahrhunderte nicht vorweg nehmen und unser wichtigstes Ziel muss das Sammeln von Erfahrungen in allen Bereichen der digitalen Langzeitarchivierung sein." Nur auf der Basis von Technologien, die in der Praxis erprobt sind, könne man Standards entwickeln, die den langfristigen Erhalt archivierter Daten befördern - und nicht die Entwicklung wichtiger Alternativen blockieren.

An dieser Stelle soll nestor als Kompetenznetzwerk seinen Beitrag leisten, indem einerseits eine breite Öffentlichkeit auf die Fragestellungen aufmerksam gemacht wird, und andererseits vorhandenen Kompetenzen ein Forum gegeben wird.

Informationen über die Aktivitäten von nestor stehen online auf http://www.langzeitarchivierung.de, Ansprechpartner für allgemeine Fragen ist der Projektleiter bei Die Deutsche Bibliothek, Hans Liegmann, Tel. 069 / 1525-1141, E-Mail liegmann@dbf.ddb.de. Das Projekt nestor - Kompetenznetzwerk Langzeitarchivierung wird gefördert vom BMBF.