"42!" oder: Was nutzen die besten Antworten,
wenn die Fragen nicht dazu passen?

Internet-Inhaltserschließung auf neuen Wegen1

von Beate Tröger


Abstract

Das Problem mit der "42!"
Inhaltserschließung: Die Gegenwart

Wer macht was: Künftige Aufgabenverteilungen auf dem Informationsmarkt

Die Krux mit der Quantität

Automatisierte Erschließung

Audio, Video und Co.: Multimedia-Erschließung

Die große Ordnung

Auch jenseits der "42": Der Einsatz der Künstlichen Intelligenz


Das Problem mit der "42!"

Das Problem ist bekannt und, will man dem Romanautoren Douglas Adams2 glauben, keineswegs auf unsere Galaxie beschränkt: "Oh Computer Deep Thought", lässt er einen Informationssuchenden aus einem fernen Sternensystem den Supercomputer bitten, "Oh Computer Deep Thought, wir möchten, dass du uns die Antwort sagst - die Antwort auf alles!" Deep Thought dachte eine Weile schweigend nach. "Knifflig", sagte er schließlich. "Es wird ein bisschen dauern, ehe ich mit dem Programm durch bin." (Performance-Probleme gibt es also nicht nur bei uns.) Siebeneinhalb Millionen Jahre später ist es endlich soweit. Deep Thought hat es geschafft, die Lösung ist gefunden: Seine Antwort auf die Große Frage lautet - Zweiundvierzig! Nun hat man es also endlich, das heiß ersehnte Ergebnis - und muss den nächsten noch viel größeren Supercomputer bauen, um die zu ihm passende Frage zu finden.

Wünsche der Informationsbedürftigen und Lösungen der Computer, das ist also nicht immer problemlos kompatibel. Doch die nach Antworten Dürstenden geben nicht auf - in fremden Galaxien nicht, aber auch nicht auf der Erde des 21. Jahrhunderts. Man kennt die Grundhoffnung im Internet - ausgehend von der Prämisse "Alle Informationen sind online verfügbar" lautet sie: "Alle Informationen im Web kann man finden". Noch sieht die Realität anders aus: 400 bis 500 mal soviel, wie Suchmaschinen aufspüren können, halten Experten für eigentlich online verfügbar - und 95% davon wären eigentlich auch öffentlich zugänglich. Aber fehlende Metadaten, technische Strukturen wie zum Beispiel CGI-Scripts und die Heterogenität der Netz-Ressourcen - man hat es mit Literatur- neben Fakteninformationen zu tun, mit Texten neben Videodateien, mit Tabellen neben 3D-Animationen - wirken sich gemeinsam mit der oft vorhandenen Trennung in kommerzielle und nichtkommerzielle Ressourcen äußerst restriktiv auf den Informationsfluss aus. Was also ist zu tun?

Im folgenden werden einige der anstehenden Aufgaben näher betrachtet - zunächst auf der Ebene der einzelnen Dokumente. Die dabei erwähnten Projekte und Aktivitäten sind, ebenso wie diejenigen bei den anschließend besprochenen Anforderungen an komplexe Datensysteme, lediglich als Beispiele möglicher Lösungsansätze zu verstehen - es gibt weitere Beispiele, die hier nicht alle genannt werden können.

Inhaltserschließung: Die Gegenwart

Der Bereich der Informationssammlung und -bereitstellung ist ebenso wie der der Metainformationsproduktion traditionell aufgebaut als ein zweigeteiltes System, bestehend aus einerseits den Bibliotheken und andererseits den Dokumentationseinrichtungen. Beider Aufgaben waren bislang relativ klar definiert und zumeist sauber voneinander abgegrenzt: Bibliotheken leisteten in der Regel eine für den Nutzer kostenfreie Erschließungsarbeit auf der Titelebene, Dokumentationsstellen eine zum Teil kostenpflichtige auf der Aufsatzebene. Beide Verfahren liefen als intellektuelle Verfahren und sie liefen sehr häufig auf Einzel-Institutionsebene. Dieses Erschließungsprinzip wurde auf die neuen Medien und das neue Verbreitungssystem übertragen, das heißt, auch die Online-Ressourcen wurden intellektuell und zumeist auf Einzeleinrichtungsbasis erschlossen. - Hier aber stellen sich nun drei Probleme.

Wer macht was: Künftige Aufgabenverteilungen auf dem Informationsmarkt

Das erste entsteht angesichts künftiger Aufgabenverteilungen und Segmentbesetzungen auf dem Informationsmarkt. Die bisherige Trennung der Arbeits- und damit Selbstlegitimationsbereiche gerät ins Wanken: Bei Online-Ressourcen handelt es sich um Dokumente, die sehr oft der klassischen Aufsatzebene entsprechen, das heißt, man gelangt mit diesen Ressourcen in Kontexte, die im Rahmen des konventionellen Spartendenkens klassische Aufgaben einer Dokumentationseinrichtung waren, deren sich nun aber verstärkt die Bibliotheken annehmen etwa bei der Entwicklung sogenannter Clearinghouses. Das tradierte Spartendenken trägt hier also nicht mehr, die Arbeitsbereiche von Bibliotheken und Dokumentationseinrichtungen fließen ineinander, es kommt zu Konvergenzen. Interessant ist, dass diese Konvergenzen für die Bibliotheken nun gerade auch eine Öffnung in den kommerziellen Kontext mit sich bringen könnten: Dokumentationseinrichtungen arbeiten vielfach ganz oder zumindest teilweise einnahmenorientiert3 . Neben dieser Aufgabenüberlappung zwischen Bibliotheken und Dokumentationseinrichtungen findet man, etwa im Umfeld der sogenannten Dot-com-Unternehmen, zugleich aber auch völlig neue Datenanbieter, die sich deutlich im Informationsmarkt positionieren - und last not least haben die Bibliotheken alte Partner im Informationsgeschäft, die neue Marktsegmente übernehmen: etwa die Verlage, die zu ihren elektronischen Zeitschriften gleich auch Metadaten mit anbieten. Für Andrew Odlyzko führt unter anderem dies zu der These, dass Verlage künftig die Funktionen von Bibliotheken übernehmen können - das ist die Gegenbewegung, so scheint es, zu der Platzierung der Bibliotheken im Distributionsmarkt elektronischer Ressourcen.

Wo also liegt die genaue Positionierung der einzelnen Akteure im Erschließungsgeschäft - das muss neu und zukünftig viel stärker produkt- und einzeldienstleistungsorientiert denn monolithisch-institutionell ausgerichtet werden.

Die Krux mit der Quantität

Neben dieser wachsenden Positionierungsanforderung gibt es eine weitere Sollbruchstelle bei der intellektuellen und institutionell gebundenen Erschließung der Online-Materialien, die durch die Natur des Mediums und seiner Informationsquantität selbst bedingt ist. Gerade die exponentiell wachsende Informationsmenge im Internet macht eine qualitativ geprüfte Erschließung unabdingbar, das ist eine Binsenweisheit - klar ist aber auch, dass diese Qualitätserschließung angesichts der Quantitäten im Netz erhebliche Arbeitskapazitäten voraussetzt.

Entscheidend wichtig, so scheint es, wird hier die Kooperation, wird das Bündeln der einzelnen Kräfte, wie es etwa Projekte wie RENARDUS4 realisieren. Mit zwölf Partnern aus sieben Ländern soll dort über eine gemeinsame Schnittstelle der Zugriff auf verteilte Sammlungen von Subject Gateways, auf intellektuell ausgewählte und beschriebene sogenannte High Quality Internet Ressourcen in Europa ermöglicht werden: ein zentraler Zugang für Informationsnutzer, verteilte Töpfe der Informationsanbieter darunter.

Einen etwas anderen Weg geht OAI, die OPEN ARCHIVES INITIATIVE5 , als ein Zusammenschluss internationaler wissenschaftlicher digitaler Datensammlungen etwa an Universitäten. Ziel der Initiative ist der freie, das heißt auch der kostenfreie Zugang zu wissenschaftlichen Informationen - und zwar, das ist der Clou, auf der Basis eines absolut dezentralen, aber standardisierten Systems der technischen Schnittstellen und der Metadaten. Über diese Standardisierungen erhofft man sich, dass entsprechende Suchmaschinen aus aller Welt alle wissenschaftlich relevanten Ressourcen für alle Welt finden können.

OAI macht dabei keinerlei Aussagen über das Zustandekommen der Metadaten; andere Produkte wie etwa RENARDUS stützen sich hier ganz explizit auf eine intellektuelle Erschließung. Dabei bleibt letztlich aber die Frage offen, ob solche qualitativ ausgerichteten Kooperationen die Quantitäten des Netzes erfassen können - oder auch erfassen wollen: Viele Projekte erheben gar nicht den Anspruch auf quantitative Vollständigkeit. Will man dies aber, will man Nutzern auch sehr große Quantitäten bieten, dann scheint die Zuhilfenahme automatisierter Verfahren unabdingbar.

Solche Automatisierungen brachten lange nicht die gewünschten Ergebnisse: Nutzer bekamen entweder keine oder - das war meist der Fall - Unmengen von Informationen, die sie dann mühsam unter dem Relevanz-Aspekt ausfiltern mussten. An dieser Stelle sind die Entwicklungen jedoch vorangeschritten, wie etwa die Suchmaschine Google6 zeigt. Google sagte sich los vom Arbeitsprinzip der bisherigen Suchmaschinen, nach Schlüsselbegriffen, nach Key Words zu suchen, und funktioniert statt dessen wie eine wissenschaftliche Community: Seiten, die von anderen Seiten verlinkt werden, haben einen hohen Impact-Faktor und sprechen so für eine hohe Relevanz ebenso wie viele Links, die von dieser Seite auf andere relevante Seiten verweisen. Dieses Zitier- und Verweis-Prinzip findet zunehmend auch im wissenschaftlichen Kontext automatisierter Verfahren seine Entsprechung.

Automatisierte Erschließung

Automatisiertes Suchen bilden aber nur den kleineren Teil notwendiger Erschließungsbemühungen, den größeren stellt die eigentliche automatisierte Erschließung selbst dar, also die Zuordnung zu einer Klassifikation und / oder die Zuweisung von Schlagworten.

Im Kontext der Klassifizierungsbemühungen wurde das Projekt GERHARD7 bekannt. Dieses Projekt erfährt ab 2001 eine Fortsetzung mit dem Ziel, durch eine erhebliche Erweiterung des im Index laufenden Wortmaterials die Klassifikationsleistung zu verbessern. Gleichzeitig soll das System den Dokumententyp der jeweiligen Ressource im Blick auf seine Relevanz erkennen und unterscheiden lernen zwischen einem wissenschaftlichen Aufsatz, einer Literaturliste und einem Mensaplan - einem Mensaplan, der dann entsprechend nicht klassifiziert wird. Solche Dokumententyp-Erkennung soll über eine Reflexion der Wortumgebung, etwa der Dokumentenlänge oder des prozentualen Verhältnisses von Text zu Bild, erfolgen.

Auch kommerzielle Anbieter haben diesen Bereich automatisierter Klassifizierung für sich entdeckt. SCIRUS8 etwa, das mit dem griechischen Seher namensgleiche jüngste Kind von Elsevier, erschließt maschinell Web-Sites und - hier findet sich die vorhin genannte Mischung der Ressourcen - auch kommerzielle Online-Dokumente über eine Klassifikation. Das Prognose von Odlyzko gewinnt an dieser Stelle Gestalt: Verlage übernehmen die Rolle der Bibliotheken und Dokumentationseinrichtungen.

Neben solchen automatisierten Klassifikations-Zuordnungen stehen die Bemühungen um automatisierte Verbal-Erschließungen. In welche Richtung die Überlegungen EDV-gesteuerter Schlagwortvergabe laufen können, zeigen etwa die Arbeiten innerhalb des Projektes KASKADE9 .

Mit KASKADE werden Dokumente maschinell indexiert, wobei man weggeht von der bloßen morphologischen Arbeit - also weg von der reinen Wortanalyse - und sich hinwendet zu semantischen Verfahren: Es wird jetzt wichtig, in welchem Umfeld ein Wort steht.

Ähnliche Bemühungen unternehmen auch andere Projekte - nicht zuletzt Projekte im kommerziellen Bereich. So entstand etwa schon Mitte der 90ger Jahre der IBM "INTELLIGENT MINER FOR TEXT"10 . Dieses Produkt bündelt darüber hinaus Versuche der Automatisierung im Klassifizierungsbereich mit denen der systemgesteuerten Schlagwortvergabe: IBM gibt an, der TEXTMINER könne spezifische Informationsbausteine aus Texten extrahieren und sogar Zusammenfassungen von Texten produzieren, aber zugleich eben auch Klassifikationszuordnungen vornehmen und Dokumente nach dem Ähnlichkeitsprinzip clustern. Derartige Mischverfahren existieren auch im Wissenschaftskontext - etwa im Rahmen des DESIRE-Projektes11 der EU.

Sie sollen als Kombinationen zwischen einem klassifizierenden und einem verschlagwortenden Bearbeiten eine Erschließungs-Signifikanz von rund 90% - gemessen an der intellektuellen Erschließung - erzielen können. Werden diese Zahlen tatsächlich erreicht, scheint ein duales Vorgehen also ein durchaus interessanter Automatisierungweg zu sein, schafft die Verfahrenskombination es doch dann, die Schwäche des einen Systems mit der Stärke des anderen zu kompensieren.

Auf der Nutzerseite bedeutet das ein Hand-in-Hand-Gehen von Browsing und Searching - idealerweise in einer Verbindung aus intellektuell erzeugten High Quality Treffern und automatisiert erzeugten Quantitäten, deren Signifikanz in einer Großzahl der Fälle durchaus auch gegeben ist. Automatisierung ist hier also in der Lage, erstens Funktionen zu übernehmen in den Bereichen, die unkritisch in der Erschließung sind, und zweitens diejenigen Nutzer zu bedienen, deren Qualitätsanforderungen im jeweiligen Fall nicht bei 100% liegen.

Perspektivisch kann man genau an dieser Stelle über eine Differenzierung der Angebotsstruktur auch in monetärer Hinsicht nachdenken: Das elaborierte Erschließungsprodukt ist ein Mehrwert, den der Anbieter gegebenenfalls verkaufen kann.

Audio, Video und Co.: Multimedia-Erschließung

Es war eingangs von drei Problemen der Internet-Erschließung die Rede. Das erste war die Positionierung der einzelnen Dienstleister im Informationsmarkt, die Konvergenz der verschiedenen Akteure; das zweite also ist die schlichte Menge an Material im Netz, die es zu bearbeiten gilt. Aber es gibt noch ein drittes Problem - und dieses Problem ist, wie bei den ersten beiden auch schon, gleichzeitig ein großes Plus des Internets: seine Multimedialität. Was macht man mit all' den Videoclips, den Tondokumenten, den 3D-Animationen, den Simulationen, mit all' den Graphiken, Fotos, den Datentabellen und chemischen Spektren im Netz?

Wie suchen und vor allem: Wie finden Nutzer zum Beispiel Audio-Ressourcen - etwa ein Musikstück? Diese Frage wird besonders interessant, wenn die Nutzer weder den Titel noch den Komponisten oder Interpreten der gewünschten Musik kennen. In der Realität eines CD-Geschäftes mag es erfolgreich sein, dem Verkäufer den gesuchten Part vorzusingen: Der Verkäufer erkennt, wovon der Kunde singt und gibt ihm die CD. Funktioniert so etwas auch im Internet?

Tatsächlich ist das dort eigentlich sogar leichter - vorausgesetzt, man trifft als Vorsummer die Töne halbwegs richtig. Was der CD-Verkäufer nämlich tut, kann auch ein Suchsystem: Töne analysieren und mit dem vorhandenen Tonmaterial abgleichen. Das automatisierte System ist hier sogar unschlagbar viel schneller und hat ein wesentlich größeres Gedächtnis. Die Leistung des Menschen als Berater und Verkäufer aber besteht in zwei entscheidenden Vorteilen der Maschine gegenüber: Der Mensch kann erstens nachfragen, um sich besser zu orientieren. Solche Interaktivität bieten gegenwärtig automatische Verfahren nicht vergleichbar, bewegen sie sich doch letztlich immer in vorgegebenen Rastern. Der Mensch kann kreativ und phantasievoll genau dieses Raster verlassen. Zweitens ist die Fehlertoleranz des Menschen unter Umständen höher: Er kann auch falsch gesummte Töne in richtige übersetzen, wie sehr es seinen Ohren auch immer weh tun mag. Hier müssen die Maschinen also lernen: Nutzer müssen künftig dem Suchsystem ihre musikalische Suchanfrage auch vorsingen können. Dieses Prinzip ist - im Sinne einer Spracheingabe - natürlich ausweitbar auf den nicht-musikalischen Bereich. Rechnersysteme müssen also lernen, die akustische Formulierung einer Suchanfrage (Musikbeginn, Refrain, Thema etc., aber eben auch Spracheingabe) gleichzusetzen mit der in eine Suchzeile eingetippten Zeichenfolge. Für die Suche nach Audiofiles bedeutet das, dass das System neben der intellektuellen Wort-Beschreibung eines Musikstückes auch die Noten, die Tonfolge als suchbar bereitstellt quasi als akustisch gewendete Volltextsuche. Diese Zielsetzung ist nicht mehr reine Vision: Eine akustische Volltextsuche, die nach Angaben der Entwickler des Systems auch fehlertolerant ist, wird bereits etwa von den Informatikern der Universität Bonn12 entwickelt. Die tägliche Recherche-Praxis in vielen digitalen Musikarchiven und -bibliotheken ist von einer solchen akustischen Suche allerdings gegenwärtig noch ein ganzes Stück entfernt.

Wie sieht die Entwicklung im optischen Bereich des Multimedialen aus? Auch hier werden gegenwärtig Bilder in der Regel noch über sprachliche Beschreibungen erfasst und recherchierbar gemacht, aber auch hier gibt es interessantes Neues. Man bemüht sich in den Entwicklungslabors, eine Bild-zu-Bild-Suche zu realisieren: Nutzer klicken auf ein Bild und das System ermittelt daraufhin ein weiteres, das dem angeklickten ähnlich ist - ähnlich in der Motivik (Haus findet Haus), ähnlich in der Farbgestaltung oder ähnlich in Flächigkeit. So sucht zum Beispiel das Projekt HERON13 Wappen im Netz auf der Basis von angeklickten Vorgaben.

Dass solche Suchkomponenten mittlerweile durchaus schon die Kinderschuhe verlassen haben, zeigt COBION, ein System, das beispielsweise europaweit von Elternverbänden eingesetzt werden soll, um Kinderphotos zu erkennen und mit Abbildungen im Internet - etwa auf pornographischen Seiten - zu vergleichen14 ; das ganze dient also dem Aufspüren vermisster Kinder. Informationstechnisch besonders interessant ist dabei, dass die Software nicht nur das Gesicht in einer Kopfhaltung und in einem Ist-Zustand - Haare kurz oder Haare lang - erkennen kann, sondern auch veränderte Kopfhaltungen und sogar Haar- oder auch Gesichtsveränderungen durch das Älterwerden der Kinder - natürlich hier auf der Basis von Wahrscheinlichkeitsdaten.

Das alles also ist im Blick auf statische Bilder gegenwärtig bereits funktionsfähig - noch nicht so weit fortgeschritten ist die Entwicklung bei den Bewegt-Bildern, bei Videos. Bereits in Bibliotheken realisiert aber wird eine Teil-Automatisierung - etwa bei MILESS15 :

Filme werden maschinell in kleine Elemente unterteilt, die kleinen Szenen werden intellektuell erschlossen und auf der Basis dieser intellektuell erzeugten Beschreibung schließlich produziert das System - jetzt wieder automatisch - einen Index, von dem aus ebenfalls automatisiert online die zugehörige Videosequenz herausgesucht werden kann. Der Wert des Verfahrens liegt in den Anwendungsmöglichkeiten zum Beispiel innerhalb der Hochschullehre. Ein Dozent kann auf dieser Basis etwa eine komplette Abspielliste punktgenau definierter Videoelemente für seine nächste Vorlesung zusammenstellen: Er definiert aus einer Menge von 50 Sequenzen, dass er genau die Teile 3-5, 27 und 38 zeigen will, die er vorab gesucht hat unter dem Motto: ,Ich brauche alle Sequenzen, in denen XY gezeigt wird'. Von der erstellten Trefferliste aus kann er die Videoszenen dann direkt ablaufen lassen.

Dies also ist der aktuelle Leistungsstand solcher Systeme, die Zukunft aber sieht noch weit mehr vor. Sie beginnt ebenfalls mit der Zerlegung des Videos - und zwar diesmal in Einzelbilder. Auf ihnen aufsetzend sollen dann automatisiert Schlüssel-Szenen erkannt werden. Diese Schlüssel-Szenen werden in einzelne Objekte - Baum, Haus usw. - differenziert und zu diesen einzelnen Objekten werden schließlich Begriffe zugeordnet, die dann suchbar sind. Bereits 1998 wurde zum Beispiel DIVA16 vorgestellt, ein an der Universität Bremen entwickeltes Modul, das ein solches Verfahren anstrebt. Von der tatsächlich außerhalb des Labors einsetzbaren Suchmöglichkeit ist man gegenwärtig noch entfernt - Entwicklungen laufen aber auch in anderen Projekten schon intensiv, vor allem in den Bereichen der Erkennung und der Zerlegung von Schlüsselszenen über die Erkennung von Umrissen, Farbe etc.17

Die große Ordnung

Dies alles sind Bemühungen, Beschreibungsdaten für das je einzelne Dokument, die je einzelne Ressource zu erhalten. Eine solche dokumentenspezifische Sicht ist jedoch nur die eine Seite der Erschließungsmedaille. Die zweite Seite liegt dort, wo diese einzelnen Metadaten in größeren Systemen auffindbar werden sollen. Wie sieht es aus mit der großen Ordnung?

Komplexe Systeme, komplexe Datenbanken benötigen Strukturen, mit denen sie Nutzer bei ihrer Suche nach Einzelinformationen unterstützen. Wünschenswert sind hier Verfahren, die unter anderem dreierlei erfüllen: Sie sollten den Sprachgewohnheiten der Nutzer entsprechen, sie sollten interaktiv sein und sie sollten eine zielgruppenspezifische Clusterung ermöglichen.

Dem Bemühen um den ersten Schwerpunkt hat sich das Projekt OSIRIS / ELIB18 verpflichtet. OSIRIS / ELIB setzt sich das Ziel, über semantische Verfahren eine Kontextualisierung der Recherchen herzustellen, um eine natürlichsprachliche Suchbeschreibung der Nutzer verarbeiten zu können. Nutzer müssen nicht mehr auf Syntax, auf Nominalphrase oder Trunkierungen achten, sondern dem System nur noch mitteilen, zu welchem Thema sie Ressourcen benötigen - und zwar genau so, wie sie es in einem Satz einem nicht-virtuellen Gegenüber formulieren würde: "Ich suche Literatur zum Thema Geschichte der niederländischen Landschaftsmalerei". Das System soll unterscheiden, ob Nutzer nach "Geschichte der Malerei" oder "Geschichte in der Malerei" recherchieren. Wenn dies gelingt, sind Suchsysteme einen deutlichen Schritt weitergekommen - weg von der relativ gesehen starren Logik Boole'scher Operatoren. Die Treffer werden sich dann auch von den Ergebnissen einer Boole'schen Suche unterscheiden: Gefunden wird quantitativ jetzt nur noch ein Teil - aber genau derjenige qualitative Teil, den die Nutzer auch wirklich wollen.

Unterstützung für dieses wie die meisten vergleichbaren Verfahren bietet die Zuhilfenahme probabalistischer Mittel, das heißt, man geht von Wahrscheinlichkeitsstrukturen aus. Solche Wahrscheinlichkeitsstrukturen kommen zum Beispiel zum Tragen, wenn bei Begriffskomposita, einem schwierigen Feld automatisierter Verfahren, der inhaltliche Schwerpunkt rechts im Wort angenommen wird: Landschaftsmalerei ist auf jeden Fall Malerei, dort kann man weitersuchen, ein Küchenschrank ist auf jeden Fall ein Schrank usw. Das Verfahren greift natürlich nicht immer: Der Begriff Geldanlange ist ein typisches Beispiel für das Versagen dieser "rechts ist der Schwerpunkt"-Theorie. Aber solche Negativbeispiele werden in Kauf genommen - Nutzer bekommen wahrscheinliche Treffer, weiche Treffer, wenn entweder die harten Treffer bei Null lägen oder aber, wenn den Nutzern weitere mögliche Treffer angeboten werden sollen. Wenn also die "Geschichte der niederländischen Landschaftsmalerei" trefferbezogen abgearbeitet ist, werden den Nutzern Treffer zu "Geschichte der Malerei allgemein" angeboten.

Auch jenseits der "42": Der Einsatz der Künstlichen Intelligenz

Im Hintergrund solcher Verfahren laufen dabei oft Methoden der KI, der Künstlichen Intelligenz. Das System lernt aus dem Feedback, das der Mensch an die Informationstechnologie zurückgibt. Auf diesem Prinzip beruht zum Beispiel das Projekt, das an der Universität Hildesheim unter dem Namen MIMOR19 entwickelt wird. MIMOR lebt von einem Relevanz-Feedback: Der Nutzer gibt an, dass Treffer A relevant, Treffer B aber irrelevant ist für die zugrundeliegende Fragestellung. Diese Rückmeldung verarbeitet das System individualisiert, das heißt bezogen auf jeden einzelnen Nutzer: Es merkt sich die Werturteile des jeweiligen Nutzers und sucht beim nächsten Mal anhand dieser Werturteile weitere Treffer, es lernt also.

Aber was sich so leicht anhört, hat einen großen Pferdefuß in einem Bereich, den die Auguren der Automatisierung nicht erwartet hatten. Das Relevanz-Feedback nämlich ist bei Nutzern unbeliebt: Sie geben schlicht nicht gerne umständlich Rückmeldung. Erschwerend kommt hinzu, dass MIMOR relativ lange braucht, um effektive Lernerfolge zu erringen, um also Irrelevanzen der Treffer tatsächlich deutlich herunter zu fahren - das heißt, der Nutzer muss besonders häufig gerade das tun, wozu er eigentlich gar keine Lust hat, nämlich das System schulen. Ein den Nutzer nicht mit schwerfälliger Rückmeldung belastendes automatisches Erstellen von Nutzerprofilen jedoch ist zwar technisch machbar, aus datenschutzrechtlichen Gründen heraus aber problematisch und umstritten. MIMOR hat deshalb, wie es sich für ein ordentlich lernendes System gehört, auch an dieser Stelle gelernt und arbeitet nun mit einem Kombinationsverfahren aus einem ungeschulten öffentlichen und dem lernenden individualisierten Modul. In der zeitlich ersten Phase der Nutzung agiert das öffentliche Modul, um dem Nutzer von Anfang an halbwegs stimmige Treffer zu liefern, wird dann aber nach und nach durch das individualisierte System abgelöst, falls der Nutzer bereit ist, das Modul zu schulen. Hat er diese Bereitschaft nicht, arbeitet er einfach mit dem öffentlichen weiter.

Trotz solcher weichen Lösungen aber müssen die KI-Systeme letztlich so verbessert werden, dass die Feedback-gesteuerten Lernprozesse der Maschine nicht mehr zu Lasten der Geduld des Nutzers gehen. Wird das erreicht, sind vielfältige sinnvolle Mehrwerte realisierbar - zum Beispiel tatsächlich individualisierte und nicht nur grobklassifizierende Push- und Alertingdienste. Auf der gleichen Basis können auch persönlich zugeschnittene Filtersysteme gegen unerwünschte Informationen aufgebaut werden oder hochindividualisierte Cross-Referenzen im Sinne der Verlinkung von einer als nutzerrelevant erkannten Information zur nächsten.

All' dies sind Möglichkeiten, die inhaltliche Erschließung im Zeitalter des Internets auf neue Wege zu bringen. Man erhält damit wohl nicht die Lösung der Frage nach "Allem", die Deep Thought gestellt wurde, aber man muss eben auch keine siebeneinhalb Millionen Jahre auf ein Ergebnis warten und rätselt lediglich literarisch über die Antwort auf die Frage aller Fragen - über "Zweiundvierzig".


Fußnoten

1. Schriftliche Fassung eines Vortrags, gehalten bei den "BiblioVisionen" im Rahmen des Bibliothekartags Bielefeld 2001

2. Douglas Adams: The more than complete Hitchhiker's Guide to the Galaxy: 5 Stories. New York 1986. Teil 1: The Hitchhiker's Guide to the Galaxy. Hier Kapitel 25, S. 113 ff und 27, S. 119ff

3. Das FIZ Karlsruhe beispielsweise hatte im Jahr 2000 bereits eine Refinanzierungsquote von 68% erreicht, das FIZ Chemie sogar schon über 70% und die Zielmarke der Geldgeber der öffentlichen Hand ist eindeutig: Sie liegt bei 100%, 2003 soll das FIZ Karlsruhe bereits 80% davon realisiert haben.

4. http://www.renardus.org

5. http://www.openarchives.org

6. http://www.google.de

7. German Harvest Automated Retrieval and Directory: http//www.gerhard.de

8. http://www.scirus.com

9. Katalogerweiterung durch Scanning und automatische Dokumenterschließung: http://www.uni-duesseldorf.de/WWW/ulb/kas_home.htm

10. http://www-4.ibm.com/software/data/iminer/fortext/

11. http://www.lub.lu.se/desire/DESIRE36a-overview.html

12. Vgl. Vortrag Bibliothekartag Bielefeld 2001 "Wer beklaute Beethoven? Neue Suchtechniken für digitale Musikbibliotheken" von Michael Clausen, Institut für Informatik, Universität Bonn http://www.bibliothekartag.de/Kurzreferate/Donnerstag/ThemenkreisXII/Clausen.htm

13. Heraldry Online: http://heron.informatik.uni-augsburg.de

14. http://www.cobion.de

15. Multimedialer Lehr- und Lernserver Essen: http://miless.uni-essen.de

16. Digitale Intelligente Video-Analyse: http://www.informatik.uni-bremen.de/grp/diva/

17. Vgl. hier auch Michael Mönnich und Regine Tobias: Videos im Internet: Grundlagen, Formate und Erschließung. In: B.I.T.online 3 (2000) Nr. 1, S. 75-82

18. http://elib.ub.uni-osnabrueck.de/elib/user/elib.html

19. Vgl. http://www.uni-hildesheim.de/~mandl/aiw_ab_007_2000_benutzermodellierung.pdf


Zur Autorin

Dr. Beate Tröger ist Leiterin der Arbeitseinheit Bildungsinformation des Deutschen Instituts für Internationale Pädagogische Forschung in Frankfurt am Main. Zur Bildungsinformation gehören das Fachinformationssystem Bildung, der Deutsche Bildungsserver, die Abteilung Information und Dokumentation und die Frankfurter Forschungsbibliothek als pädagogische Spezialbibliothek.

Deutsches Institut für Internationale Pädagogische Forschung
Schloß-Str. 29
D-60486 Frankfurt am Main
E-Mail: troeger@dipf.de
URL: http://www.dipf.de