Videos im Internet:
Grundlagen, Formate und Erschließung

von Michael Mönnich und Regine Tobias


I. Einleitung
II. Video im Internet - Technische Grundlagen

III. Multimedia-Technologien im Internet

IV. Erschließung von Videos

V. Suchdienste

VI. Schluß

 

I. Einleitung

Bereits seit längerem bestimmen multimediale Inhalte die Webseiten im Internet. Vergrößerte Bandbreiten, die eine schnellere Übertragungszeit ermöglichen, haben auch kontinuierliche Medien wie Audio- und Videodateien ins Netz gebracht. Deren Angebot und Nutzung in Verbindung mit Internet-Technologien stellen einen der am stärksten expandierenden Bereiche der Informationsverarbeitung im Web dar.

Dieser Artikel setzt sich zum Ziel, einen ersten Überblick über die im Web kursierenden Internet-Video-Formate zu geben und einige grundlegende Techniken der Übertragung im Netz näher zu beleuchten. Im Anschluss wird die Problematik der Erschließung von Multimediadateien im Internet dargestellt.

II: Video im Internet - Technische Grundlagen

1. Größe der Dateien

Wer digitale Videos erwähnt, spricht immer auch von großen Datenmengen. Bereits eine Sekunde unkomprimiertes Video in voller Fernsehauflösung benötigt mehr als 21 Megabyte an Plattenspeicher. Eine Stunde von diesem Video würde mehr als 75 Gigabyte Speicherkapazität verschlingen. Ein Benutzer, der mit seinem 28.8 Kilobit/s- Modem an das Internet angeschlossen ist und dieses Video betrachten möchte, verfügt über weniger als 1/6000 der Datenrate, die für das Abspielen benötigt werden würde. Beim Herunterladen müsste er für jede Sekunde Spieldauer annähernd zwei Stunden Wartezeit einrechnen.

Die Leitung zum Rechner, auf dem das Video abgespielt werden soll, ist das Nadelöhr, durch das die Videodatei muss. Es besteht ein großer Unterschied, ob ein Video durch den engen Schlauch eines Modems oder eines ISDN-Anschlusses empfangen, oder ob das angeforderte Video innerhalb eines Campusnetzes über eine schnelle Netzwerkverbindung übertragen wird.

2. Kompression

Die großen Videodateien müssen also verkleinert werden, um sie an die bestehenden Bandbreitenbeschränkungen im Internet anzupassen. Aber auch aus technischen Gründen ist diese Kompression der Videodateien unerläßlich. Derzeit eingesetzte CD-Rom-Laufwerke und Festplatten sind nicht in der Lage, unkomprimierte Videos mit ihren hohen Datenraten abzuspielen.

Der Kompressionsvorgang macht aus großen Dateien kleinere durch Weglassen von redundanten Informationen. Hier spricht man von verlustloser Kompression, da kein Qualitätsverlust auftritt. Ist eine stärkere Kompression beabsichtigt, wird von verlustbehafteter Kompression gesprochen. Hier werden als weniger wichtig erachtete Informationen unterschlagen, was unter Umständen zu einer erheblichen Verschlechterung der Bild- und Klangqualität führen kann.

Die digitale Videoproduktion ist auf die zuletzt genannte verlustbehaftete Kompression angewiesen und erreicht Kompressionsfaktoren von 1:100 und mehr. Die einzelnen Kompressionsverfahren arbeiten mit verschiedenen Techniken. Eine davon ist die Methode der "räumlichen" Kompression: Jedes Bild einer Bildsequenz wird auf redundante Daten innerhalb des einzelnen Bildes hin untersucht, die dann eliminiert werden. Dabei bedienen sich diese Verfahren einiger Tricks, um die Qualitätsverluste zu minimieren: Beispielsweise werden bei der Kompression die Eigenschaften menschlicher Sinnesorgane berücksichtigt und Informationen, die das menschliche Auge nicht mehr erkennen kann, einfach unterschlagen.

Eine andere Technik ist die "zeitliche" Kompression: Hier werden die aufeinander folgenden Bilder eines Videosignals auf Änderungen hin untersucht. Die Unterschiede zwischen den einzelnen Bildern werden ermittelt und auch nur diese abgespeichert. Als Referenzbild für die Änderungen dient ein "Keyframe", das die vollständige Bildinformation enthält. Die auf den Unterschieden zu den Keyframes basierenden "Deltaframes" benötigen deutlich weniger Speicherkapazität. Durch diese Methode kann eine erhebliche Reduzierung der Datenmenge erreicht werden.

Beispielsweise kann ein Video, in dem ein Nachrichtensprecher vor einem festen Hintergrund spricht, durch die hohe zeitliche Redundanz stärker komprimiert werden als ein Video mit vielen Szenenänderungen. Für rasche Wechsel müssten viele speicherintensivere Keyframes verwendet werden.

Wichtigstes Ziel der Videokompression ist also die Reduzierung der Dateigröße, wobei die Verluste der Bildqualität möglichst gering gehalten werden sollen. Dabei muss immer ein Kompromiss zwischen Dateigröße und Bildqualität gefunden werden. Bei digitalen Videos hängen die einzelnen Parameter Bildgröße, Datenrate, Häufigkeit der Keyframes und Anzahl des Bilder pro Sekunde stark voneinander ab. Soll z.B. ein Film mit der gleichen Qualität in höherer Auflösung wiedergegeben werden, dann ist auch mehr Datenrate dafür notwendig. Im Internet sieht man deshalb oft nur kleine und kleinste Videos.

3. Codec

Für die Videodigitalisierung erfüllt den Vorgang der Kompression ein Codec. Der Begriff Codec ist ein Kunstwort und setzt sich aus den zwei Teilen des Kompressionsvorgangs EnCOden und DECoden zusammen. Dies erfolgt über einen Algorithmus, der jedes Bild in der Bilderabfolge analysiert und die Kompression berechnet. Beim Encoden wird die Ausgangsbildsequenz komprimiert und beim Abspielen durch den Decodierprozess wieder rekonstruiert.

Bei herkömmlichen Datenkompressionsverfahren, die verlustfrei arbeiten (Winzip, StuffIt) müssen die Dateien für die Benutzung wieder dekomprimiert und in die ursprüngliche Datei zurückverwandelt werden. Das Kompressionsformat ist lediglich ein intermediäres Format und dient ausschließlich der Verringerung der Datenmenge und/oder der Versendung der Datei.

Im Unterschied dazu sind bei digitalen Videos die durch Codecs mit hohen Verlusten komprimierten Dateien auch diejenigen, die letztendlich betrachtet werden. Die Dekompression erfolgt in Echtzeit durch den Codec auf dem Rechner des Betrachters.

Für die Kompression werden Codecs auf Hardware- und Softwarebasis eingesetzt, die sich in Bildqualität und in der Be rechnungszeit unterscheiden. In der Regel erfolgt die Echtzeit-Encodierung mit Hilfe von einem Hardware-Encoder, der über einen entsprechenden Chip verfügt. Software-Encoder sind bei der Analyse des Bildes langsamer, können dafür in vielen Fällen aber genauer arbeiten.

Im Bereich der Internet-Videos existieren verschiedene Codecs für unterschiedliche Verwendungsarten, die alle auf Softwarebasis arbeiten und durch ihre sehr hohen Kompressionsraten für die Distribution über Netzwerke geeignet sind. Allen gemeinsam ist die Eigen schaft des extrem asymmetrischen Encodierprozesses, d.h. das Encoden benötigt aufgrund des erhöhten Rechenaufwandes mehr Zeit als der Decodierprozess.

Symmetrische Codecs werden für Livebroadcast und Videotelekonferenzen verwendet. Die Encodier- und Decodierprozesse benötigen jeweils den selben Rechenaufwand, jedoch fehlt hier die Zeit für die Optimierung der Bildanalyse.

4. Streaming

Die Übertragung von Daten im Internet geschieht herkömmlicherweise via Download auf den Rechner des Benutzers. Dieser Vorgang verursacht durch die Größe der Videodateien jedoch lange Verzögerungen und außerdem muss die Datei vollständig auf den Clientrechner gespeichert werden. Auch nach der Verwendung von Codecs zur Komprimierung der Videodatei ist v.a. für längere Clips das Herunterladen aufgrund der im Internet bestehenden Bandbreitenbeschränkungen immer noch eine Geduldsprobe. Abhilfe schafft eine Technologie, mit deren Hilfe die Daten kontinuierlich übers Netz "strömen": das Streaming. Der Trick dabei ist, dass Audio- und Videodateien wiedergegeben werden, sobald sie auf dem Client ankommen und noch bevor das Video vollständig heruntergeladen wurde. Während der Übertragung der Videodatei sieht der Betrachter nur das, was gerade gesendet und geladen wird.

Die größten Probleme der Videoübertragung im Internet liegen bei den häufig auftretenden Schwankungen der verfügbaren Bandbreite. Für einen Ausgleich sorgen Puffer auf der Sendeseite (Server) und auf der Empfangsseite (Client): Diese Puffer werden zu Beginn des Sendevorgangs gefüllt. Sobald der Puffer auf dem Clientrechner gefüllt ist, beginnt er mit dem Abspielen des Videos.

Entspricht die Übertragungsrate der Internet-Verbindung kurzfristig nicht der Datenrate der Videodatei, mit der sie encodiert wurde, so wird das Video zunächst aus dem Video-Puffer des Clientrechners weiter abgespielt. Falls sich die Internet-Verbindung nicht wieder stabilisiert und somit keine weiteren Datenpakete mehr beim Client ankommen, bleibt das Video stehen.

5. Abruf eines Videos

Für die Client-/Server-Kommunikation im Internet werden spezielle Protokolle benötigt. Für die Videoübertragung wird nicht auf das sonst für die meisten Datenübertragungen gebräuchliche TCP (Transport Control Protocol) zurückgegriffen, sondern UDP (User Datagram Protocol) verwendet. Im Gegensatz zu TCP arbeitet UDP verbindungslos. Falls ein Datenpaket nicht ankommt, wird die Verbindung nicht unterbrochen, sodass UDP zwar unzuverlässiger, dafür aber um einiges schneller als TCP arbeitet. Daher eignet es sich als Protokoll für die Übertragung von Audio- und Videodateien, bei denen die kontinuierliche Anlieferung der Daten im Vordergrund steht. Fehlende Datenpakete, die bei der Übertragung verloren gehen, machen sich in Form von Bildstörungen bemerkbar, was jedoch in Kauf genommen wird.

Abrufvorgang:
1. Über eine Web-Applikation fordert ein Benutzer z.B. über einen entsprechenden Link ein Video an
2. Der Webserver schickt je nach eingesetzter Technologie die Web-Seite an den Browser, auf der die URL zum Start des Videos eingebettet ist
3. Durch den Aufruf wird das Video-Plug-in oder eine externe Helper-Applikation gestartet. Die jeweilige Software des Clients baut die Verbindung zum Server auf und fordert das Video an
4. Der Videoserver liest die Datei von den Platten aus und überträgt sie über das Netzwerk an den Client, wo der Datenstrom dem entsprechenden Decoder zugeführt wird.


Beim Aufruf eines Web-Videos spielen also mehrere Komponenten zusammen: Der Videoserver nimmt die Anfragen der Clients entgegen und sorgt für ein verzögerungsfreies Auslesen der Audio- und Videodateien. Auf dem Client entscheidet der Browser anhand des ankommenden Medientyps, ob er ein Plug-in laden oder ein externes Programm für das Abspielen des Videos starten muss. Falls die ankommenden Datenpakete über ein Plug-in gesteuert werden, spielt dieses das Video im Fenster des Browsers ab. Muss für die Videodateien ein externes Programm gestartet werden, wird das Video in dessen Fenster abgepielt.

Das Plug-in und die Hilfsprogramme verfügen über eine spezielle Video-Client-Software, die die Anfrage übers Netz an den Videoserver stellt, die Verbindung aufbaut und den ankommenden Datenstrom dem Decodierprozess zuführt, der entweder auf Hardware- oder Softwarebasis erfolgt.

III: Multimedia-Technologien im Internet

Für die Videodigitalisierung existieren unterschiedliche Codecs und Multimedia-Technologien, die für unterschiedliche Anwendungen eingesetzt werden können.

1. MPEG

Das Standardisierungsgremium MPEG (Motion Pictures Experts Group) der International Standard Organization (ISO) verabschiedete 1992 den Videostandard MPEG 1. Da bei der Konzeption vor allem auf die Speicherung von digitalisierten Videos auf die damals aktuellen single-speed-CD-ROM-Laufwerke abgehoben wurde, legt der Standard die Digitalisierung von Video- und Audiodaten bei einer Bandbreite von ca. 1,5 Megabit/s fest. So wird in etwa eine mit VHS vergleichbare Qualität erreicht. Heute werden MPEG 1-Videos häufig zum Download angeboten, in schnellen Netzwerken werden sie auch gestreamt. Eine MPEG 1-Datei endet mit ".mpg".

Inzwischen ist seit 1994 der auf MPEG 1 aufbauende Standard MPEG 2 verabschiedet, der festlegt, wie Videos zu voller Fernseh- und darüber hinausgehender Auflösung digitalisiert werden. MPEG 2 ist der Standard für DVD-Produktionen und digitales Fernsehen. Aufgrund der hohen Datenraten stellt MPEG 2 an die heutigen üblichen Rechnersysteme hohe technische Anforderungen. Der Decodierprozess muss durch eine spezielle Decoderkarte unterstützt werden. MPEG 2 wird momentan nur über Hochleistungsnetzwerke mit speziell dafür konfigurierten Videoservern gestreamt (z.B. Videocharger von IBM). Beim digitalen Fernsehen werden für das Streaming von MPEG 2 andere Übertragungsprotokolle als im Internet verwendet. Für nähere Informationen siehe z.B. die Homepage der MPEG- Gruppe: http://drogo.cselt.stet.it/mpeg/ und http://www.mpeg.org.

2. Video-Streaming-Formate

2.1. Produkte

Momentan konkurrieren drei Produkte von verschiedenen Herstellern um die Vorherrschaft im Internet-Video-Geschäft. Das sind zum einen Quicktime 4.0 von Apple, RealSystem G2 der Firma RealNetworks und das Produkt Media Technologies 4.0 von Microsoft.

Alle drei haben unterschiedliche Multimedia-Technologien mit entsprechenden Player-Anwendungen aufgebaut, die genau festlegen, wie Audio- und Videodateien erstellt, gespeichert, übertragen, synchronisiert und abgespielt werden. Diese Technologien definieren als übergeordnete Struktur auch die Formate, in denen die Mediendaten gespeichert werden. Eine Quicktime Datei hat z.B. die Endung ".mov", eine Streamingdatei von Microsoft endet mit ".asf", ein Video von RealNetworks hat die Endung ".rm".

Die Internet-Video-Formate werden durch unterschiedliche Codecs erstellt, die innerhalb der Multimedia-Technologie die Funktion der extremen Datenkomprimierung und der Wiedergabe übernehmen. Einen guten Überblick über die unterschiedlichen Codecs und Multimedia-Technologien gibt http://www.CodecCentral.com

RealNetworks hat seinen eigenen Codec für die Videokomprimierung entwickelt. Ein RealVideo ist folglich immer mit diesem Codec komprimiert worden. (http://www.real.com)

Quicktime unterstützt verschiedene Codecs, einige davon sind für das Editieren und die Speicherung von Quicktime-Dateien geeignet, andere wurden speziell für die CD-Romund Internetproduktion konzipiert. Für Video-Streaming empfiehlt Apple den speziell für niedere Datenraten entwickelten Sorenson-Codec. (http://www.apple.com/quicktime)

Die Media Technologies sind Microsofts Nachfolgeprodukt von "Video for Windows" (AVI), das von ihnen nicht weiter unterstützt wird. Das neue Active Streaming Format (ASF) umgibt wie ein Mantelformat verschiedene Codecs. Die besten Video-Streaming-Eigenschaften innerhalb der Media Technologies werden mit dem MPEG 4- Codec erreicht, der eine gute Bildqualität auch bei niederen Datenraten ermöglicht. (http://www.microsoft.com/windows/windowsmedia)

2.2. Vergleich der Streaming-Technologien

Apple, RealNetworks und Microsoft haben bei der Übertragung von digitalen Video- und Audiodateien übers Netz einige Gemeinsamkeiten und unterscheiden sich auch in einigen Punkten.

HTTP-Streaming

Oft wird diese Streaming-Variante auch "progressives Downloaden" genannt, da der Benutzer das Video bereits während des Ladevorgangs sukzessive auf seinem Rechner betrachten kann. Jedoch kann er immer nur den Teil der Datei betrachten, der bereits auf dem eigenen Rechner angekommen ist, ein Navigieren ist nur in dem bereits heruntergeladenen Bereich der Videodatei möglich. Der Player überwacht den Ladevorgang und startet das Video, sobald eine ausreichend lange Sequenz vorhanden ist, obwohl der Downloadprozess noch nicht vollständig abgeschlossen ist. HTTP-Streaming wird es deshalb genannt, denn Standard HTTP-Server können Videound Audiodateien auf diese Art senden, ohne dafür spezielle Protokolle zu benötigen. Alle drei beschriebenen Multimedia-Technologien unterstützen diese Variante. Quicktime bot bis zur Version 3.0 nur diese Möglichkeit.

True-Streaming

Mit True-Streaming (von Microsoft auch "intelligentes"-Streaming genannt) wird eine Technologie bezeichnet, die einen speziellen Medienserver und speziell dafür entwickelte Streaming-Protokolle erfordert wie z.B. rtp (real transport protocol) und rtsp (real transport streaming protocol). Bei dieser Streaming-Art wird die Bandbreite des Datenstroms zur Benutzeranbindung aufrecht erhalten, um das Video in Echtzeit betrachten zu können. Server und Client kommunizieren miteinander und im Falle einer Verschlechterung der Verbindung werden einzelne Bilder weggelassen. Dabei gilt als Prämisse, dass eher die Bildqualität degradiert, als dass das Abspielen unterbrochen wird. In manchen Fällen erreicht den Benutzer nur noch die Audiospur, die gesamte Bildinformation fällt weg.

In der Regel besteht neben der UDP-Verbindung für die Übertragung der Bildund Audiodaten eine zweite Verbindung, die als Steuerungskanal zwischen Server und Player fungiert. Über sie meldet der Player Interaktionen des Benutzers an den Server, wodurch das Navigieren in den Videos erst möglich wird. Das Video kann jederzeit gestoppt oder an späteren oder früheren Stellen neu gestartet werden.

Für Anwender, die sich in einem firewall-geschützen Netzwerk befinden, kann diese Übertragungsart problematisch sein. Alle drei vorgestellten Internet-Videotechnologien unterstützen True-Streaming mit entsprechenden Streamingservern und Protokollen.

Skalierbarkeit

Die Verfügbarkeit der Bandbreite ist für das Abspielen von digitalen Videos entscheidend. Jedoch kann im Internet keine Garantie dafür gegeben werden, mit welcher Datenrate der Betrachter im Moment des Streamings rechnen kann. Die Hersteller der Streaming-Technologien haben sich noch mehr einfallen lassen, um das kontinuierliche Abspielen der Videos zu gewährleisten.

Quicktime hatte bereits in seiner Vorgängerversion in Form von "Alternates" eine Skalierbarkeit eingeführt. Beliebig viele Versionen eines Videos können für unterschiedliche Bandbreiten encodiert und abgespeichert werden. Beim Anfordern des Videos wird beim Aufbau der Netzwerkverbindung automatisch die Version angewählt, die den Voreinstellungen des Benutzers im Quicktime- Kontrollfeld entspricht. Quicktime´s Streaming-Technologie ermöglicht so kein gleitendes Umschalten bei sich ändernder Netzwerkverbindung während der Übertragung. Natürlich können, wie beim True-Streaming beschrieben, kurzfristigen Netzwerkbeschränkungen durch das Weglassen einzelner Bilder Rechnung getragen werden.

Windows Media Technologies passt sich durch eine limitierte Skalierbarkeit an verschiedene Netzwerkbedingungen an. ASF-Dateien verfügen über zwei Videospuren, die zu unterschiedlichen Bandbreiten encodiert wurden. Zu Beginn des Abspielens kommunizieren Server und Player und wählen den Videotrack, der am besten für die jeweils bestehende Verbindung zum Clientrechner geeignet ist.

Die derzeit an die Bedingungen im Internet am besten angepasste Streaming- Technologie hat RealNetworks konzipiert. Mit dem "SureStream"-Feature können bis zu sechs Versionen eines Audio- oder Videotracks für verschiedene Bandbreiten encodiert werden. Bei der Übertragung wird dynamisch zwischen den sechs Versionen geschaltet, wobei immer die bestmögliche Qualität für die gegebene Bandbreite gesendet wird.

Welche Streaming-Methode letztendlich gewählt wird, hängt von den jeweiligen Zielsetzungen ab. Progressives Downloaden garantiert zwar durch die verwendeten Übertragungsprotokolle die Qualität des Videos, jedoch kann es zu längeren Wartezeiten kommen, bis das ganze Video angekommen ist. Deshalb werden mit dieser Streaming-Methode v.a. kürzere Filme wie Trailer und Werbevideos übertragen.

Bei längeren Videos und bei gewünschtem wahlweisen Zugriff auch auf spätere Teile im Video ist die Übertragung in Echtzeit durch "richtiges" Streaming sinnvoll.

IV. Erschließung von Videos

1. Methoden

Mit dem wachsenden Angebot von Multimedia im Internet steigt auch die Nachfrage nach geeigneten Erschließungs- und Suchmechanismen. Bereitet die Erschließung von textbasierten Web-Informationen mittels Suchmaschinen schon erhebliche Probleme, so gestaltet sich die Situation bei multimedialen Inhalten noch wesentlich schwieriger. Eine amerikanische Kollegin drückt dies mit den Worten aus: It is clearly much more fun to develop multimedia content than to index it."

Die Probleme liegen nicht wie bei textbasierten Web-Informationen in der riesigen Menge an Material, sondern an den prinzipiellen Schwierigkeiten des maschinellen Indexierens von Multimedia. Die maschinelle Erschließung von Bild- und Tondateien ist zwar derzeit Gegenstand intensiver Forschung, die Entwicklung praxistauglicher Systeme steckt indes noch in den Kinderschuhen.

Ein maschinelles System zur maschinellen Indexierung von Videos muss Folgendes leisten:
1. Zerlegen des Videostreams in Einzelbilder
2. Erkennung von Schlüsselszenen
3. Zerlegen der Schlüsselszenen in einzelne Objekte
4. Zuordnung der Objekte zu Begriffen.

Die Forschung befasst sich heute vor allem mit den Teilbereichen 2 und 3, hier sind prototypische Systeme vorhanden. Für Teil 4 ­ die Umsetzung von Formen in Begriffe ­ sind indes noch keine Lösungen in Sicht. Erfolg versprechender sind Versuche, Objekte durch Charakteristika wie Umriss, Farbe oder Textur zu beschreiben und dadurch auffindbar zu machen. Weitere Informationen hierzu findet man zum Beispiel bei http://www.dlib.org/dlib/november99/wang/11wang.html.

2. Metadaten für Multimedia: MPEG 7

Wie bereits erwähnt wurde, existieren mehrere MPEG-Standards, die technische Spezifikationen für digitale Audiound Videodateien vorgeben. Erste Teile des Standards MPEG 4 wurden 1998 mit dem Ziel verabschiedet, möglichst viele Anwendungsbereiche aus den bis dahin verabschiedeten MPEG-Standards zusammenzufassen. Der Standard wird derzeit weiterentwickelt. Wesentliche Funktionalitäten von MPEG 4 sind dabei neben verbesserten Kompressionsverfahren und Skalierbarkeit auch die Aufnahme inhaltsbezogener Interaktivität. Damit ist es möglich, Manipulationen an einzelnen Sequenzen der Videodateien vorzunehmen und Multimediadaten durch Indexierung erschließbar zu machen.

Beschreiben die MPEG-Standards 1, 2 und 4 vornehmlich technische Verfahren, so befasst sich der derzeit jüngste MPEG-Standard 7 mit der Erschließung von Inhalten. Er beschreibt Formate, die Audio- und Videosequenzen, Bilder und Grafiken in einer zweckmäßigen und effizienten Darstellung repräsentieren, um damit eine Informationssuche möglich zu machen.

Im Oktober 1998 erfolgte der Call for Proposals'' für MPEG 7, der internationale Standard wird für September 2001 erwartet. Im Wesentlichen definiert MPEG 7 einen Satz von Deskriptoren und deren Beziehungen zueinander. Die Deskriptoren beschreiben Eigenschaften der Videosequenz in abstrakter Form, wie zum Beispiel Farben, Texturen, Objekte oder Bewegungsvektoren, aber auch Informationen über Autoren, Urheberrechtsinhaber, Datenträger und Dauer. Für die Kodierung dieser Metainformationen nutzt MPEG ein eigenes Verfahren, das sich an XML anlehnen soll.

3. Derzeitiger Stand der Erschließung

Die Entwicklung der Technik bei der Erschließung von Video hat bis heute Systeme an den Markt gebracht, die ein Video in einzelne Sequenzen zerlegen (shot detection) und diesen einen manuell erstellten Text zuordnen können. Die Suche im System ermöglicht dann den direkten Sprung auf die entsprechende Videosequenz. Auf dieser Technik basiert beispielsweise die von der Firma Virage besorgte Aufbereitung des inzwischen berühmten Clinton-Videos (http://www.courttv.com/video/ccvideotape_index.html). Da diese Art des Vorgehens manuelle Eingaben erfordert, wird es vor allem bei geschlossenen Sammlungen angewendet. Für die Erschließung von Videodateien im Web ist es jedoch kaum brauchbar.

V. Suchdienste

1. Universalsuchdienste

Mehrere Suchmaschinen bieten eine spezialisierte Internetsuche nach Multimediadateien an. Dabei wird nicht die Multimediadatei selbst, sondern der Inhalt der mit den Multimediadateien verknüpften Texte indexiert. Im WWW sind dies in der Regel HTML-Dateien, die einen Link auf eine Multimediadatei enthalten. Indexiert werden meist auch die URLs der Multimediadateien. Dass diese Art der Erschließung fehlerbehaftet ist, zeigt sich an den Trefferlisten, die häufig nicht das gewünschte enthalten. Auf dieser Basis bieten die meisten großen Suchmaschinen ­ zum Teil schon seit längerem ­ die Möglichkeit, die Suche im Internet auf bestimmte Multimediadateien zu beschränken. Am häufigsten sind die Suchoptionen nach Bilddateien und MP3-Audiodateien, z.B. bei Alta Vista, Hotbot, Fast oder Metacrawler, eine Suche nach Video wird seltener angeboten.

Generell ist anzumerken, dass natürlich bei allen Suchmaschinen eine Suche auf Videos eingegrenzt werden kann, indem die Suchanfrage entsprechend formuliert wird, zum Beispiel "+kohl +mov". Eine besonders große Anzahl von Suchmaschinen bietet eine Suche nach MP3- Audio-Files, neben MP3.COM (http://www.mp3.com/), Audiofind (http://www.audiofind.com/) und Lycos MP3 Search (http://mp3.lycos.com/), um nur einige zu nennen. Auf MIDI beschränkt ist der MIDI Explorer (http://www.musicrobot.com/), ein auf Bilder spezialisierter Suchdienst ist Ditto (http://www.ditto.com/).

Einen Eindruck über die Größenordnung des verfügbaren Videomaterials im Web mögen die Zahlen aus Tabelle 1 geben, wobei es sich nicht um exakte Ergebnisse handelt: Beispielsweise erfasst die Suche nach "mov" auch MPEG-Videos, die im Dateinamen "mov" tragen.

Tabelle 1: Anzahl Treffer bei Suche nach

1.1 Alta Vista

Als einer der ersten großen Suchdienste bietet Alta Vista eine auf Multimedia begrenzte Suche an. Sowohl die deutsche als auch die US-Seite bieten eine Einschränkung der Suche auf Musik, Bilder oder Video.

Die Syntax bei der Suche ist dieselbe wie bei der normalen Suche, die Aufbereitung der Treffer bietet einige Spezialitäten: Die Ergebnisseite enthält den Dateinamen, einen Thumbnail des ersten Videostandbildes, die Spieldauer, die Dateigröße und einen Link zu "weiteren Informationen". Man kann durch Anklicken von "Detaillierte Ansicht" die Ergebnisseite in einer ausführlichen Version ansehen, die zusätzlich Informationen über das Dateiformat (z.B. mov, rm, avi), den Titel der Seite, den Namen der Datei, in der näheren Umgebung stehende Texte, den Titel des Clips und den Autor sowie über das Copyright enthält. Darüber hinaus finden sich Angaben zur Spieldauer, Dateigröße und ein Link "Mehr Info" mit weiteren Informationen über Dateiformat und -größe, die Breite und Höhe sowie die Tiefe und Anzahl der Rahmen.

Klickt man "Mehr Musik, Video und Bilder von dieser Seite" an, liefert Alta Vista eine Zusammenfassung der übrigen Dateien, die sich auf derselben Seite befinden wie das gesuchte Objekt. Mittels einer Checkbox kann Clustering aktiviert werden, d.h. die Resultate werden auf eine URL begrenzt. Der größte Anteil der Seiten liegt in den USA, wie man mit einer Suche nach "Berlin" oder "Kohl" leicht feststellen kann. Die Qualität der Ergebnisse ist mäßig, da insbesondere das Ranking der Treffer wenig durchdacht scheint.

1.2 HotBot

Die Suchmaschine HotBot (http://hotbot.lycos.com) erlaubt über die Eingrenzung der Suche auf bestimmte Dateitypen eine Recherche nach Videos. Die Trefferliste unterscheidet sich nicht von der Standardergebnisliste und enthält keine zusätzlichen videospezifischen Informationen.

1.3 Excite

Über die Homepage von Excite gelangt man über den Link "Advanced Search" zu einer Suchmöglichkeit nach Videos. Die Videosuche kann auf bestimmte Formate eingeschränkt werden, die Ergebnisliste enthält wie bei HotBot keine über die normale Trefferliste hinausgehenden Informationen.

1.4 Lycos

Bei Lycos kann unter http://www.richmedia.lycos.com nach Multimediadateien gesucht werden. Videos findet man unter "movies" und "streams", wobei zwischen Audio- und Videostreams nicht unterschieden wird.

1.5 Scour.Net

Als ein auf Multimedia spezialisierter Suchdienst präsentiert sich Scour.Net (http://scour.net/). Wenn die Videosuche keine Treffer ergibt, werden automatisch Bilder als Ergebnisse angezeigt. Anscheinend enthalten die Trefferlisten zahlreiche Dubletten. "More info" öffnet ein neues Browserfenster mit zusätzlichen Informationen wie Dateiname, Format, Größe und Keywords. Über die Funktion "find similar files" wird nach ähnlichen Dateien gesucht, wobei im Dunkeln bleibt, nach welchen Kriterien dies geschieht.

2. Sammlungen und Verzeichnisse

Neben Suchmaschinen gibt es auch zahlreiche Verzeichnisse und Sammlungen von frei zugänglichen Videos im Netz. Generell gilt dabei, dass thematisch stark eingegrenzte Verzeichnisse über bessere Inhalte verfügen als solche, die einen umfassenden Charakter aufweisen.

Allgemeine Sammlungen

Fernsehbeiträge

Spezielle Sammlungen

Kunstvideos

VI. Schluss

Wie gezeigt wurde, stehen sowohl Angebot als auch Erschließung von Internet- Videos noch am Anfang. Man gewinnt den Eindruck, dass sich die neue Technologie momentan noch im Experimentierstadium befindet und eher durch spielerisches Ausprobieren als durch ernst zu nehmende Inhalte geprägt wird. Dennoch zeichnet sich bereits heute ab, dass es für Streaming-Video ein breites Anwendungsgebiet geben wird, vor allem im Bereich der Aus- und Weiterbildung. Unklar ist derzeit noch, welche Streaming-Technologie sich langfristig behaupten und am Markt durchsetzen kann.

Die Erschließung von Multimedia-Dateien leidet unter denselben Defiziten wie die Erschließung textbasierter Internet-Informationen. Erst mit der Verabschiedung von MPEG 7 wird der Weg bereitet werden, diese Multimediainhalte künftig sinnvoll zu beschreiben und erschließen.


[Michael Mönnich] Zu den Autoren

Dr. Michael Mönnich ist Fachreferent für Informatik an der Universitätsbibliothek Karlsruhe und leitet die Abteilung für das Bibliothekssystem.

[Regine Tobias]

Dipl.-Volkw. Regine Tobias ist wissenschaftliche Mitarbeiterin an der Universitätsbibliothek Karlsruhe und betreut im Rahmen der Multimedia AG der Zukunftsoffensive "Junge Generation" des Landes Baden- Württemberg das Projekt "Verbesserung der Nutzung von audiovisuellen Beständen durch Digitalisierung".