20. April 2024

b.i.t.online   2 / 2019
Fachbeiträge

Distant Viewing-Forschung mit digitalisierten Kinderbüchern:
Voraussetzungen, Herausforderungen und Ansätze

Wiebke Helm, Thomas Mandl, Sigrun Putjenter, Sebastian Schmideler und David Zellhöfer
Bibliotheken und Archive haben in den vergangenen Jahren umfangreiche Digitalisierungen ihrer Altbestände durchgeführt und auf diese Weise einen Beitrag zur Sicherung des kulturellen Erbes geleistet. Neben der Bestandserhaltung aus konservatorischen Gesichtspunkten sollte es im Interesse der Beteiligten sein, die digitalisierten Kulturgüter einer breiten Nutzung zuzuführen. Ein Umstand, den auch das neue europäische Urheberrecht für die Anwendbarkeit von Text- und Data-Mining (TDM) insbesondere für Forschungseinrichtungen betont und damit wissenschaftliche
Bibliotheken mit Anforderungen konfrontiert, die über das bisher übliche Maß hinausgehen. Denn neben der Online-Bereitstellung der Bestände sollte das Datenmaterial einen Mehrwert für künftige Forschungen bereithalten und die sich wandelnden Forschungsgewohnheiten der Benutzer*innen einbeziehen, da der Stellenwert der Digital Humanities (DH)-Forschung weiter zunehmen wird. Gemeinsam müssen Möglichkeiten erarbeitet werden, digitalisierte Daten für TDM-Verfahren aufzubereiten und niedrigschwellig zur Verfügung zu stellen.

Speichervolumen- und Kostenabschätzung für die Archivierung von Forschungsdaten

Auswertung einer Bedarfsumfrage an der Universität Osnabrück

Marco Gronwald
Seit dem Jahr 2005 hat sich das weltweite Datenvolumen alle zwei Jahre verdoppelt. Während die Menge an digitalen Daten im Jahr 2016 noch 16.1 Zettabyte (ZB) betrug, wird ein Anstieg auf 163 ZB bis 180 ZB im Jahr 2025 prognostiziert. Welchen Anteil daran Forschungsdaten haben, ist derzeit noch ungeklärt.
      Die von diversen Institutionen geforderte Transparenz des Forschungsprozesses stellt zugleich die Gewährleistung der Nachvollziehbarkeit von Forschung dar und ist grundlegend für die Qualitätssicherung der Wissenschaftskommunikation. Allerdings ist dies auf der Basis des konventionellen Publikationsverhaltens
in der Wissenschaft nur in den seltensten Fällen möglich. Die Sicherung der Qualität, vor allem die weitere (Nach)-Nutzung von Forschungsdaten, wird dadurch erschwert. Erst wenn die Forschungsdaten zugänglich bzw. publiziert sind, wird die Möglichkeit geschaffen, die wahre, empirisch fundierte „Aussagekraft der auf dieser Grundlage ermittelten Erkenntnisse parallel zur methodischen Korrektheit und Logik in der Schlussfolgerung zu prüfen”. Darüber hinaus erhöht die langfristige Bereitstellung von Forschungsdaten auch die Reichweite bzw. den Impact von Forschungsergebnissen oder gar die Zitationen der Wissenschaftler signifikant.

Erfolgsfaktoren für konsortiale drittmittelfinanzierte Open Source Projekte –
am Beispiel von Kitodo 3.0

Matthias Finck
Schon seit fast 15 Jahren wird für Bibliotheken bei der Entwicklung von IT-Systemen die „(Wieder-)Verwendung von Komponenten, die von verschiedenen Entwicklern erstellt worden sind und beliebig miteinander kombiniert werden können” gefordert. Open Source Software ist dabei ein wichtiger Baustein, der hilft, dass Softwareentwicklung als gemeinsamer Entwicklungsprozess verstanden und gelebt werden kann. So haben sich mittlerweile mit Systemen wie Kitodo, OPUS, FOLIO u.v.a.m. bibliotheksspezifische Open Source Systeme am Markt etabliert, die vielfach genutzt und von zahlreichen Partnern weiterentwickelt werden.
Nicht nur Bibliotheken sehen die Notwendigkeit gemeinsamer Entwicklungsprozesse. Der Ausschuss für Wissenschaftliche Bibliotheken und Informationssysteme der Deutschen Forschungsgemeinschaft hat 2018 in einem Positionspapier zum Thema „Stärkung des Systems wissenschaftlicher Bibliotheken in Deutschland” ebenfalls die Bedeutung solch kooperativen Zusammenwirkens bei der Entwicklung von IT-Lösungen betont und explizit bibliothekseigene Entwicklungen in Form von Open Source Systemen neben kommerzielle Angebote gestellt.