Synopse einer Informations- und Wissensgesellschaft
Teil 2: Ein IT-geprägtes "Paradigma"1

von Wolfgang Ratzek


Abstracts

1. Vorbemerkung
2. Basismedien: Fernsehen, Telefon (Handy), PC

3. Vernetzungsphilosophie

4. Programmier-/Auszeichnungs-/Skriptsprachen

5. Speichersysteme

6. Information Retrieval

7. Content-Providing

8. Medienkompetenz

9. Net-Security

10. E-Payment/Smart Card

11. Informations- und Wissensmanagement (Knowledge-Management)

12. Schlussbemerkungen


1. Vorbemerkung

Es kann und darf schon überraschen, dass unsere Vorfahren bis etwa zur Mitte des 20. Jahrhunderts Information offenbar keine so große Bedeutung beigemessen haben wie wir das seit den späten 1950er Jahren tun. Auch in früheren Zeiten waren Wissenschaftler, Börsianer, Politiker, Unternehmer und andere im Wettbewerb stehende Menschen auf Statistiken, Forschungsberichte, Börsencharts, Marktanalysen angewiesen. Der wohl entscheidende Unterschied zur heutigen Zeit liegt darin, dass Information früher wohl eher als eine Ressource von geringer strategischer Bedeutung betrachtet wurde. In der Gegenwart dagegen herrscht die Vorstellung vor, dass gerade ein Vorsprung an Information einen potenziellen Wettbewerbsvorsprung ermöglicht.

1.1 Trendsetter und Events

Die folgenden Trendsetter und Events waren und sind richtungweisend für die Entwicklung einer Informations- und Wissensgesellschaft:2

1948: Claude E. Shannon (und Warren Warren) betrachteten Information als eine ingenieurswissenschaftliche Problemstellung und entwickelten eine mathematische Theorie der Kommunikation3, die dann euphorisch als "Informationstheorie" in die Wissenschaftsgeschichte einging. Nur wenige sind sich bewusst darüber, dass "Informationstheorie" eine mathematische Basis besitzt; dennoch hielt das diffuse Etwas, was dann verkürzt "Information" hieß und heißt, Einzug in viele Wissenschaftsdisziplinen. Zu nennen wäre hier beispielsweise Biologie, Informatik, Bibliotheks- und Dokumentationswissenschaft, Wirtschaftswissenschaften, Psychologie oder Soziologie.

1957: Der Sputnick-Schock. Am 4. Oktober 1957 startet der sowjetische Sputnik I ins All und löste im geopolitischen Westen einen Schock aus. Insbesondere in den USA erlitt der Glaube an die Technologieführerschaft einen erheblichen Rückschlag, zumal die entsprechenden Daten verfügbar waren.4

1962: Der kanadische Medienwissenschaftler Herbert Marshall McLuhan veröffentlicht "The Gutenberg Galaxy" (London 1962) und avanciert zum Wegbereiter der zeitgenössischen Medienwissenschaft. McLuhan stellt darin die Medientechnologien in den Mittelpunkt seiner Überlegungen, was in dem inzwischen als Bonmot kursierenden "The medium is the message" mündet.

1973: In Daniel Bells Werk "The Coming of the Post-Industrial Society" (New York 1973; dt. Die nachindustrielle Gesellschaft, 1975) beschreibt er den Rückgang der produzierenden Wirtschaft und die zunehmende Bedeutung einer auf Wissen basierenden Dienstleistungsgesellschaft, die dann keine warenproduzierende Gesellschaft wäre, sondern eine Informationsgesellschaft.

1974: IuD-Programm: Nach dem Sputnick-Schock reifte in der Bundesregierung die Erkenntnis, dass Informationspolitik eine Aufgabe staatlichen Handelns sein müsse. In den Lechmann-Thesen wurden die Grundzüge einer nationalen IuD-Politik formuliert, die zum ersten IuD-Förderprogramm (1974-1977) führte (genauer: Das Programm der Bundesregierung zur Förderung der Information und Dokumentation, IuD-Programm). Im Mittelpunkt steht eine flächendeckende nationale IuD-Infrastruktur zur Erschließung und Verbreitung der weltweit verfügbaren Information zur Verbesserung der Informationsbasis in Wirtschaft, Wissenschaft, Technik, Politik. Bis 2003 wurden eine Reihe von Nachfolgerprogrammen aufgelegt, wie zum Beispiel Fachinformationsprogramm (FI-Programm) 1985-1988, FI-Programm 1990-1994, Getinfo -2003. 5

1974: Vint Cerf (und Bob Kahn) entwickeln das TCP (Transmission Control Protocol) für das ARPANET, dem Vorläufer des Internets. Mitte der 1980er entwickelte Vint Cerf das TCP/IP (TCP/Internet Protocol) und begründete damit den "Start" des Internets als öffentlich zugängliches globales Massenmedium.

1990er Jahre: Tim Berners-Lee entwickelt am CERN-Forschungslabor in Genf das World Wide Web (das WWW wird gemeinhin als Internet bezeichnet).

1977: Alain Minc und Simon Nora dürften die eigentlichen Namensgeber eines unbestimmten Zeitabschnittes sein, der allgemein als "Informationsgesellschaft" (L'informatisation de la société) bezeichnet wird. Im Auftrage des damaligen französischen Staatspräsidenten Valery Giscard D´Estaing erarbeiteten Simon Nora und Alain Minc eine Studie über die Gestaltung der Zukunft mit dem Titel "L'informatisation de la société"6. Der so genannte Nora-Minc-Report interessierte in erster Linie nur Fachkreise und blieb damit weitgehend unbekannt.

1995: G7-Treffen der Staats- und Regierungschefs. Die rasante Entwicklung der Informationstechnik bestimmte das Treffen der G7-Staaten in Brüssel. Federführend war die US-Regierung unter Bill Clinton, die den Begriff des Information Superhighway7 in das Regierungsprogramm aufnahm. Spätestens jetzt waren die wirtschaftlich führenden Regierungen aufgerufen, ihren eigenen Weg in die Informationsgesellschaft zu entwickeln. Es gibt somit keinen einheitlichen Weg in die Informationsgesellschaft sondern viele, wenn auch ähnliche, Programme.

Ende 1999 lancierte die Europäische Kommission "eEurope - Eine Informationsgesellschaft für alle". "eEurope" soll alle Vorteile der Informationsgesellschaft für alle Menschen in Europa nutzbar machen, damit der Weg Europas in die Informationsgesellschaft beschleunigt werde.8

1.2 "Information" als staatliche Aufgabe

Insbesondere durch den Sputnick-Schock gewinnt das Thema "Information", genauer Information und Dokumentation (IuD), als staatliche Aufgabe und Motor für Leistungen in Wirtschaft, Technik und Wissenschaft an Bedeutung. Deutsche Hochschulen richten entsprechende Studiengänge ein, so wurde beispielsweise der erste Hauptstudiengang für Informations- und Dokumentationswissenschaft 1979 an der FU Berlin eingerichtet und im Jahr 2000 als eigenständiger Studiengang eingestellt. Die Weiterentwicklung der IuD-Wissenschaft führte zu deren Umbenennung in Informationswissenschaft und zu den mehr betriebswirtschaftlichen und/oder informatikorientierten Ausprägungen in Form der Informationswirtschaft oder der Wirtschaftsinformatik. Hier können beispielsweise die FH Potsdam, FH Köln, FH Darmstadt oder die FH Stuttgart - Hochschule der Medien genannt werden.

1.3 Information als wirtschaftlicher Faktor

Spätestens seit dem G7-Treffen von 1995 wird Information zu einer staatlichen Aufgabe. Eine Informations- und Wissensgesellschaft, in der jeder von den Informationsquellen profitiert, unabhängig von Geld, Rang und Herkunft, ist und bleibt eine Vision. Die Realität: Inzwischen steht hinter der Bezeichnung "Informations- und Wissensgesellschaft" eine gigantische IT-Industrie, die an der Entwicklung der Global Information Infrastructure (GII) oder am Information Superhighway mit Hochdruck arbeitet. (Wirtschafts-)Informatiker, Informationswirte, Web-Designer entwickeln "Container" für das, was dann später "Content" heißen soll. Ein online gestützter Informationsmarkt entsteht. Statt von einer Informationsgesellschaft wäre es angebrachter von einer Informationswirtschaft zu reden. Die rasante Entwicklung führt inzwischen zu einem "Information overload", einem "Information overkill", oder schlicht und einfach zu "Informationsmüll" (Schober/Wersig), "Spam" oder einer "Quatschexplosion" (Weizenbaum); Probleme, von denen die IT-Wirtschaft behauptet, sie zu lösen. Hier müssten die BID-Professionen stärker ihre Fähigkeiten und Kompetenzen einbringen.9


Die folgenden Komponenten (s. Abb.) ergeben in der Gesamtschau das, was m.E. eine Informations- und Wissensgesellschaft in ihren Grundzügen ausmacht10, unabhängig davon, ob wir bereits in einer Informations- und Wissensgesellschaft leben und worin der Unterschied zwischen den beiden Gesellschaftsentwürfen besteht.

2. Basismedien: Fernsehen, Telefon (Handy), PC

Ursprünglich wollten die Hauptakteure - Staat und Wirtschaft - einer deutschen Informationsgesellschaft das analoge Fernsehen und das (analoge) Telefon über einen (Btx-)Decoder als Basismedium etablieren. Mit der Aufnahme des Regelbetriebs des Bildschirmtext-Dienstes11 (Btx) der Deutschen Bundespost (1984) schien das Ziel erreicht. Es zeigte sich jedoch im Laufe der Zeit, dass die euphorischen Prognosen bei weitem nicht erreicht wurden. Der Computer wurde nunmehr zum Basismedium bestimmt. Anfang der 1990er Jahre erfolgt mit dem PC-orientierten Datex-J (J = Jedermann) eine Neuausrichtung des Btx-Dienstes. Mit T-Online schaffte die jetzige Telekom AG (als Rechtsnachfolgerin der Deutschen Bundespost) ein Portal zum "Btx-Dienst" und zum Internet.

Fernsehgerät, Btx-Dienst und Decoder sollten vor allem den privaten Haushalten den Blick in die große weite Datenwelt eröffnen, oder andersherum: der werbungstreibenden Wirtschaft den Weg bis in die letzten Winkel der privaten Haushalte ebnen. Während die Akzeptanz von Btx eher enttäuschend verlief, rückte der Computer als Basismedium immer stärker in den Mittelpunkt.

In Zukunft wird der Unterschied zwischen Fernsehen und Computer verwischen. Mit der Settop Box scheint das Fernsehgerät wieder hohe Priorität zu besitzen. Die Settop-Box verwandelt die zuschauerseitigen analogen Fernsehsignale in digitale Signale und dient somit als Basis für ein interaktives Fernsehen, das neben Zusatzinformationen zu TV-Sendungen auch den Zugang zum Internet ermöglicht. Der Unterschied zwischen Fernsehgerät und PC verschwindet immer mehr zugunsten eines multifunktionalen Fernsehgeräts, wie das bei den neuen Flat-Screen-TV-Geräten (LCD TV) zu erkennen ist.

Seit Februar 2003 ist Berlin-Brandenburg Versuchsregion für DVB-TV.12 Kernstück ist ein ca. 200 Euro teurer DVB-T-Decoder, der notwendig ist, um die digitalen Programme der öffentlich-rechtlichen und privaten Sender zu empfangen. Auf diese Weise wird eine Technologie - Digitalfernsehen -, die in der Bevölkerung auf wenig Interesse gestoßen war, durch die Hintertür eingeführt.

Fernsehen, PC und Telefon (Festnetz) als ortsgebundene Massenmedien werden zunehmend mobil. Im Sommer 1992 beginnt mit der Einführung des D-Netzes (D1 und D2) der rasante Aufstieg der Handys. Internet-Boom, ortsunabhängiges Telefonieren und Notebooks eröffnen neue Perspektiven der (multimedialen) Information und Kommunikation: Das Handy avanciert zum multimedialen Endgerät (Stichwort: WAP, UMTS) und realisiert das Al Goresche "Anywhere and Anytime".

3. Vernetzungsphilosophie

Fernsehen und PC, aber auch andere Medien wie Fax, Kopierer usw. sind zuerst einmal monofunktionale Insellösungen. Es liegt auf der Hand die bestehenden Inseln zu vernetzen und auszubauen, um so die überall verteilten Computerkapazitäten und Informationssysteme zu vernetzen als wären sie vor Ort real präsent. Die Umsetzung dieser Philosophie erfolgt über Protokolle, das sind Regelsysteme zur Steuerung der Datenübertragung. Für das Internet existieren verschiedene Typen wie z.B. FTP (File Transfer Protocol) oder TCP/IP13. Im Bibliotheksbereich ist das Z39.50-Protokoll besonders zu erwähnen, ein standardisiertes Kommunikationsprotokoll zur Vernetzung bibliothekarischer Datenbanken und deren Zugriffssoftware via WWW. Im Bereich der Wirtschaft wäre hier EDI (Electronic Data Interchange) zu nennen. EDI14 oder WEB-EDI definiert den elektronischen Datenaustausch zwischen Unternehmen. Das Telekommunikationsnetz ISDN - Integrated Services Digital Network steht dagegen für eine allgemeine Lösung. Das ISDN vereinigt digitale Vermittlungs- und Übertragungstechnik (64 KBit/s); es stellt Leitungen für Telefon, Telefax und Online-Dienste zur Verfügung. Seit 2000/01 gibt es in Deutschland mit ADSL (Asymmetric Digital Subscriber Line) eine Übertragungstechnologie für große Datenmengen. Die ADSL-Variante der Telekom (T-DSL) bietet eine Übertragungsrate von 768 kBit/s.

Damit haben wir aber nur die eine Seite einer Vernetzungsphilosophie angedeutet. Die andere Seite betrifft die Freiheitsgrade in Bezug auf Nutzung und Kosten.

So macht es Sinn, eine Gruppe von Computern und Peripheriegeräten, z.B. die PC, Drucker, Kopierer einer Abteilung zu einem Lokalen Netzwerk (LAN) zusammenzuführen. Für den Betrieb eines LAN auf dem eigenen Grundstück und/oder in den eigenen Räumen liegt die alleinige Zuständigkeit beim Betreiber. LANs sind also Inhouse-Systeme. Die Vernetzung mehrerer LANs lässt sich über Netzkoppelungen realisieren.

Und es macht Sinn, die Computer auf einem Uni-Campus oder die elektronischen Informationssysteme einer Region zu einem Metropolitan Network (MAN) zu koppeln. Ein MAN ist im Prinzip eine Weiterentwicklung von lokalen Netzen und unterstützt Kommunikationsprozesse innerhalb eines Ballungszentrums.15 Beispiele für MANs sind Infocity NRW (http://nrw.infocity.de/infocitynrw.html), MANDA (Metropolitan Area Network Darmstadt; www.tu-darmstadt.de/manda)16.

Ein WAN (Wide Area Network, dt. Weitverkehrsnetz) verbindet Städte, ländliche Regionen, ganze Länder oder globalisierte Unternehmen. Die Netze der NASA, IBM oder Microsoft sind hier Beispiele. Die Netzbetreiber sind in der Regel private oder öffentliche Telekommunikationsgesellschaften. Beim Überschreiten von Ländergrenzen kommen Satelliten als Übertragungssystem in Frage, wie das Satellite Business System (SBS). Im letzteren Fall ist dann von GANs (Global Area Networks) die Rede.

Die Weiterentwicklung des kabelgebundenen Telefons zum Mobilfunk verlangt nach Multifunktionalität. Hier kommt, wie bereits oben erwähnt, das WAP (Wireless Application Protocol) ins Spiel. WAP ermöglicht den Zugriff17 auf WWW-Inhalte mittels Handy. Damit wird auch das WWW "mobil". Wegen des in Deutschland Aufsehen erregenden Bieterverfahrens darf das multimediafähige und internetfähige UMTS (Universal Mobile Telecommunications Systems) nicht vergessen werden. Mit UMTS können beispielsweise Filmtrailer abgerufen werden, der darüber entscheidet, ob ich ins Kino gehe oder etwas anderes unternehme, aber auch Fernsehempfang wird mit UMTS übers Handy möglich sein. Die Mobilitätsstrategie für den PC lautet: PDA (Personal Digital Assistent, z.B. PalmPilot) und WLAN (Wireless LAN).

4. Programmier-/Auszeichnungs-/Skriptsprachen

Nachdem die Hardware in Form von vernetzten Computern und Peripheriegeräten zur Verfügung steht, müssen die Computer eine Leistung erbringen. Wir müssen die Computer instruieren, etwas zu tun. Damit wären wir beim Thema Programmiersprachen, mit deren Hilfe Programmierer Software entwickeln, um mit Computern Texte zu bearbeiten oder Tabellenkalkulation zu betreiben oder 3D-Simulation durchzuführen. Programmiersprachen sind Anweisungen in Form eines Algorithmus´ (eine Verfahrensvorschrift). Im Laufe der Zeit hat sich eine schier unübersehbare Fülle von Programmiersprachen entwickelt, z.B. BASIC, C++, COBOL, FORTRAN, PASCAL. Eine Einteilung in Generationen schafft eine gewisse Orientierung.

  1. Generation: Binäre Maschinensprachen (interner Code)
  2. Generation: Maschinennahe Sprachen wie ASSEMBLER
  3. Generation: Prozedurale Sprachen wie FORTRAN, COBOL, PASCAL, C.
  4. Generation: Deskriptive Sprachen wie SQL, Informix/4GL
  5. Generation: KI-orientiert wie LISP oder PROLOG, natürlich-sprachlicher Ansatz wie NATURAL oder objektorientierte Sprachen wie Smalltalk oder C++.18

Für die Nutzung des Internets kommen auch mediumspezifische Sprachen ins Spiel wie die Auszeichnungssprachen HTML und XML oder die Skriptsprachen PERL (Practical Extraction and Reporting Language), PHP (PHP Hypertext Preprocessor), JavaScript. Bei näherer Beschäftigung mit den "Internetsprachen" fällt auf, dass Informatiker von den Leistungen der IuD-Fachleute profitieren. Neben den Erkenntnissen über Klassifikationssysteme ist hier die SGML (Standard Generalized Markup Language) zu nennen, deren Verwendung zur Definition der Auszeichnungssprache HTML (Hyper Text Markup Language) führte. Bekanntlich entwickelte sich HTML zum weltweit akzeptierten Dateiformat und begründet damit den, wie es neudeutsch heißt, Internet-Hype.19 Ein besonderes Merkmal des WWW ist dessen nicht-lineare Organisation, die durch Hyperlinks erreicht wird. Hyperlinks verknüpfen Kontexte, sodass per Mouseclick eine Alternative zum "Blättern" entsteht.

5. Speichersysteme

Viele Dokumente liegen bereits in digitaler Form vor, zum Beispiel durch den Einsatz von Textverarbeitung, elektronischen Satz für den Druck von Tageszeitungen, Tabellenkalkulation oder Konstruktionsprogrammen (CAD). Analoge Dokumente können durch entsprechende Verfahren, zum Beispiel durch Scannen, EDV-gestützte Mikroverfilmung (CIM: Computer Input on Microfilm und COM: Computer Output on Microfilm), OCR, digitalisiert werden. Es liegt nun auf der Hand, die verfügbaren Daten, Informationen und das verfügbare Wissen nicht nur in Echtzeit, sondern auch zeitversetzt, im Idealfall für Generationen verfügbar zu halten.20 (Auf eine urheberrechtliche Wertung z.B. §§ 49 [Pressespiegel-Paragraph] und 52a [Regelung für den öffentlichen Zugang von Werken über Netze im Rahmen der Lehre und wissenschaftlichen Forschung] soll hier nicht eingegangen werden.)

Dafür geeignete Speichersysteme sind Archive, Bibliotheken, Museen und Datenbanken aller Art. Letzteres soll uns hier beschäftigen. Im weitesten Sinne können auch Zettelkästen oder Aktenschränke als Datenbanken (DB) bezeichnet werden. In einem engeren Sinne sind Datenbanken elektronisch gesteuerte Offline- oder Online-Speichersysteme wie WORM, CD-ROM, DVD. Hier kommt wieder die Variation des klassischen BID-Prinzips zum Tragen: beschaffen, erschließen, speichern, verwalten, präsentieren. Für die Verbreitung kann zwischen offline oder online entschieden werden. Bei letzterem kommen die Ausführungen über die Vernetzungsphilosophie zum Tragen.21 Mit Hilfe von Programmiersprachen, Auszeichnungs- und Skriptsprachen sind wir nun in der Lage, digitale Datenbanken mit Inhalten zu füllen. Bevor wir auf das Content-Providing, also die Verfügbarkeit von Inhalten für Nutzer eingehen, müssen wir noch den Zugriff (Retrieval) vorstellen.

6. Information Retrieval

Nun ist alles abgelegt. Doch das Hauptproblem - wir haben da alle so unsere Erfahrungen - liegt im Wiederauffinden (Retrieval)22 der Dokumente. Wilhelm Gaus bringt das so auf den Punkt: "Bei uns herrscht Ordnung. Ein Griff - und schon geht die Suche los."23 Besonders erschwerend kommt hinzu, wenn DB-Produzent und DB-Nutzer nicht identisch sind und/oder die Daten, Bilder, Sounds in verschiedenen DB verteilt sind (Verbundsysteme). Vielleicht verwenden die Anbieter für ihre DB auch noch verschiedene Suchsprachen. Für das effektive und effiziente Schnittstellenmanagement (Programmierer - Datenbank - Nutzer) ist eine leitungsfähige Kommunikationssoftware erforderlich, die die Information Retrieval-Prozesse unterstützt, z.B. Übertragungsparameter oder Download. Beispiele sind INFOLOG 200i, OVID 3.0 Client/Server, Sherlock 2, SISIS Sunrise, STN Express. Für den Recherchekomfort sorgen beispielsweise Klassifikationssysteme, Thesauri und spezielle Abfrage-/Suchsprachen wie SQL (Structured Query Language, CCL (Common Command Language), TRIP. Auch auf diesem transdisziplinären Gebiet (Computerlinguistik, Informatik, Psychologie usw.) haben BID-Fachleute mitgewirkt, um den Komfort von Suchsprachen zu verbessern, z.B. Trunkierung, Kompositazerlegung, Indexierung, Antwortqualität (Precision, Recall), Retrievalmethoden (exact match, partial match).24

Zusammenfassend halten wir fest: Information Retrieval steht für den organisierten Datentransfer mittels einer speziellen Abfragesprache (konkreter: Suchsprache) zwischen einem Datenanbieter und einem Daten nachfragenden Nutzer, wie das beispielsweise beim OPAC oder bei Nutzung von Online-/Web-Datenbanken wie GBI (AOS), GENIOS (TRIP), STN (Messenger), DIMDI (GRIPS/CCL) der Fall ist. Ziel ist es, in großen Dokumentenbeständen für einen Nutzer (vorselektierte), potenzielle Information für die Suche nach dieser zur Verfügung zu stellen. Das können Fachzeitschriften, Forschungsberichte, Öffentliche Ausschreibungen sein, aber auch statistische Daten, Normen oder Marktanalysen. In diesem Zusammenhang spielen auch Qualitätskriterien wie Precision und Recall eine wichtige Rolle, Aber auch die Erschließungsarbeit, die sowohl manuell als auch automatisch erfolgen kann, bestimmt das Qualitätsniveau.25 Das IVW-Verfahren zur Leistungsmessung von werbeführenden Elementen im World Wide Web bietet seit 1997 die "Informationsgemeinschaft zur Feststellung der Verbreitung von Werbeträgern" (IVW). Im Mittelpunkt des Verfahrens stehen PageImpressions und Visits als Basisgrößen zur Ermittlung der Effizienz von Online-Werbung.

6.1 Suchmaschinen

Durch das Internet bedingt, gehört zum Thema Information Retrieval eine kurze Betrachtung von Suchmaschinen. Mit einer Navigations- und Darstellungssoftware (Browser, z.B. Netscape, Internet Explorer) greifen wir im WWW direkt auf eine URL (Uniform Resource Locator), dem Speicherort eines Web-Dokumentes, zu oder wählen eine Suchmaschine.

Im ersten Fall muss der Speicherort (URL) bekannt sein. Im zweiten Fall durchforsten wir durch Eingabe eines oder mehrerer kontextgebundener Suchbegriffe die Datenbestände im WWW.26.Das Ergebnis ist dann häufig eine nach Relevanz sortierte Trefferliste. Dazu werden so genannte Crawler, Robots oder Spider (Skripte oder Programme) auf die Reise geschickt, die die Quelltexte (Metatags)27 von WWW-Seiten einlesen, indexieren und in eine Datenbank ablegen. Die Auswertung der abgelegten Daten erfolgt dann mit Hilfe eines anderen Programms. Die Ergebnisse können im Bereich von wenigen Seiten, aber auch in den Bereich fünf- bis sechsstelliger Ergebnisse führen. Hier kommt das Ranking ins Spiel. In der Regel werden vom Nutzer nur die ersten Seiten angesehen. Die 35., 60. oder gar 25.529 Seite bleibt häufig unberücksichtig. Zurzeit ist wohl Google die bekannteste Suchmaschine. Inzwischen ist auch schon von einem "Googling" die Rede. Besonders fatal ist es, wenn selbst BID-Studierende und Informationsprofis, und dafür gibt es Anhaltspunkte, auf "Google" setzen - nach dem Motto "Google hat nichts gefunden, also gibt es auch nichts zum Thema".

Neben den "reinen" Suchmaschinen gibt es noch Web-Kataloge und Meta-Suchmaschinen, die wir hier kurz erwähnen wollen.

Web-Kataloge wie Yahoo, AltaVista ermöglichen die Suche mittels eines thematischen Katalogs mit Haupt- und Unterkategorien. Im Prinzip handelt es sich um manuell und bewertete, sachlich gegliederte Verzeichnisse. Das erfordert eine redaktionelle Bearbeitung und ist damit eine sehr personalintensive Angelegenheit, da nur WWW-Seiten erscheinen, die zuvor von der Redaktion auf Relevanz geprüft wurden. Die Grenzen zwischen "reinen" Suchmaschinen und Web-Katalogen verwischen zunehmend.

Meta-Suchmaschinen wie "Meta-Crawler" oder "MetaGer" sind Systeme, in denen Suchbegriffe parallel in verschiedenen Suchmaschinen abgefragt, die Dubletten ausgeblendet und die Ergebnisse übersichtlich präsentiert werden."

7. Content-Providing

Suchen allein kann nicht das Ziel einer Recherche sein, sondern das Finden muss in den Mittelpunkt gerückt werden. Aber, so müssen wir uns fragen, was wollen wir eigentlich Finden? Antworten auf Suchfragen! Ist das alles? Trendforscher Matthias Horx meint dazu: "Wie kann ich die Information, die ich über das Medium xyz erhalte, einordnen und mit anderen Informationen so korrelieren, dass ein realistisches, nachprüfbares Bild daraus entsteht?28 Und hier hat die Informationswirtschaft mit "Content" wieder einmal einen genialen Schachzug ausgeführt. Auf die Frage "Was denn Content sei?" erhalten wir regelmäßig die Antwort "Inhalt von Webseiten". Fragen wir weiter nach, geht es um genau das, was ein Anbieter (Provider) gegenwärtig vorhält, aber häufig auch nicht so genau weiß, was das im Detail ist.29 Wir wollen Content für alle Informationsmedien und nicht nur auf Web-Inhalte verstanden wissen.

In Anlehnung an Peter Thomas30 macht es Sinn (s. Abb.), das Medienvermögen (Assets) eines Senders oder eines Verlages in "Content" und "Rechte" (Stichwort: Urheberrecht) zu unterteilen. "Content" setzt sich dann, und das ist für die BID-Professionen von Bedeutung, zusammen aus "Essence" (Bewegtbild, Ton usw.) und "Meta-Daten" (Titel, Dauer usw.). Hier wird deutlich, dass nicht nur die Quantität ("Wir haben 300 Datenbanken."), sondern auch die Qualität ("Wir kennen alle und helfen Ihnen bei der Bewältigung Ihres Informationsproblems.") zählt. Ein IT-gestütztes Content-Management-System (CMS) kann hier nur Hilfsmittel sein.

7.1 Content-Syndication

In Analogie zur Berichterstattung im Fernsehen und in Tageszeitungen, wo neben eigenen Berichten auch Meldungen der News-Ticker einfließen, nutzen Anbieter das Content-Syndication. Dahinter steht ein Konzept der Mehrfachverwertung, d.h. entweder werden Inhalte getauscht (Content Sharing) oder von einem Content-Provider (gegen Entgelt) übernommen.

8. Medienkompetenz

Bisher haben Nutzer in dieser Arbeit eher eine Nebenrolle gespielt. Wenn wir nun die Nutzung zulassen wollen, und das ist der Sinn und Zweck von Informations- und Kommunikationssystemen, dann müssen wir uns fragen, welche Kenntnisse und Fähigkeiten Nutzer besitzen sollten, um sinnvoll mit Bibliotheken, Datenbanken, PCs, mit dem Internet zu arbeiten. Die Frage ist leichter gestellt als beantwortet. Bibliothekare, Pädagogen oder Informatiker kultivieren jeweils andere Sichtweisen. Sicher dagegen ist, dass zur Medienkompetenz z.B. gehören:

-Kenntnisse des verfügbaren Medienspektrums

-Auswählen und Nutzen von Medienangeboten

-Grundkenntnisse über Gestaltung, Herstellung, Distribution von Medienangeboten

-Grundkenntnis über die Manipulationsmöglichkeiten der Medienindustrie

-Kenntnisse über die legale und sozial gewünschte Mediennutzung (das geht dann in den Bereich der Medienethik, auf die wir nicht eingehen wollen).

9. Net-Security

Die kommerzielle Nutzung des Internets verlangt neben einer jederzeit gewährleisteten technischen Verfügbarkeit (Ausfallsicherheit) auch eine sichere Datenübertragung. Wir wollen sicher gehen, dass

-die übertragenen Daten so ankommen, wie wir sie abgesetzt haben,

-kein Unbefugter die Daten einsehen kann und

-die Sende- und Empfangsprozesse bestätigt werden und somit als Beleg gelten können.

Im Internet laufen viele Transaktionen unverschlüsselt ab, d.h. die Daten vom Webserver zum Browser werden im Klartext übermittelt. Gerade durch spektakuläre Hacker-Aktionen ist und bleibt auf absehbare Zeit der Sicherheitsaspekt im Internet ein Problem. Vor dem unerlaubten Zugriff auf ein privates Datennetz (Intranet) schützen sich Unternehmen und Organisation mit einer Firewall. Vereinfacht dargestellt ist eine Firewall ein Rechner, der zwischen Internet und dem eigenen Netzwerk die Zugriffe "erlaubt" oder "verweigert".

10. E-Payment/Smart Card

Zur Abwicklung kostenpflichtiger Web-Angebote gehört auch ein sicherer elektronischer Zahlungsverkehr, zumal auch Spontankäufe getätigt werden. Vom Online-Banking her kennen wir das Verfahren mit einer PIN als Zugangskennung und einer TAN (Transaktionsnummer) zum Ausführen eines Auftrages. Eine andere Vorgehensweise praktizieren beispielsweise Lufthansa oder Deutsche Bahn, wo für den Online-Kauf eines Tickets eine vorherige Anmeldung mit einer Reihe von persönlichen Daten, insbesondere Kreditkarteninformationen, hinterlegt werden müssen.

Diese Verfahren sind umständlich und häufig auch für den Verkäufer mit zusätzlichen Kosten (z.B. wenn mit VISA gezahlt wird) und für den Käufer mit einem Zeitaufwand verbunden. Meines Wissens existiert noch kein Standard für die elektronische Zahlungsabwicklung. Electronic Cash bezeichnet dabei alle elektronischen Zahlungssysteme im Internet und im Online-Dienst. Prepaid-Karten (Debit-Karten)31, wie sie für Handys benutzt werden, befinden sich bereits im Einsatz, was jedoch ein Kartenlesegerät zur Voraussetzung hat. Inzwischen gibt es auch für den privaten Bereich kostengünstige Kartenlesegeräte, sodass bei Online-Transaktionen der Zahlungsbetrag direkt von der Karte heruntergeladen werden kann. Problematisch scheint noch die Abwicklung von Mini-Beträgen (Micropayment) zu sein, da nicht alle Zahlungssysteme Kleinstsummen verrechnen können.

Die Zukunft gehört der Smart Card, insbesondere dann, wenn die "intelligenten" Karten auch gleichzeitig als Personalausweis dienen. Smart Cards sind leistungsfähiger als die konventionellen Magnetsreifen- und Speicherchipkarten. Sie verfügen über einen Prozessorchip ("Mini-Computer")32 zur direkten Datenverarbeitung auf der Karte.

Einsatzgebiete für Smart Cards gibt es bereits, z.B. im Gesundheitswesen und in der Telekommunikation. Für den Einsatz im Internet bedarf sie jedoch eines einheitlichen Standards für die verwendeten Prozessorchip-Systeme. Die 1996 vorgestellte Java Card33 von Sun Microsystems könnte hier richtungweisend sein, da bereits eine Reihe von führenden Unternehmen aus der Chip- und Softwarebranche für die Java Card optieren.

10.1 E-Payment/Kryptografie

Ein anderes Sicherheitsrisiko stellt das E-Payment dar. Es muss dabei nicht nur sichergestellt werden, dass die Zahlungen ordnungsgemäß abgewickelt werden, es muss auch sichergestellt sein, dass die Transaktion für Außenstehende nicht einsehbar ist. Hier kommen die verschiedenen Verschlüsselungssysteme (Kryptografie)34 ins Spiel. Wir wollen hier kurz auf einige wenige Beispiele eingehen.35

Das Public Key Verfahren (PKI) basiert auf zwei verschiedenen Codes. Einen individuellen und nur einmalig zugeteilten "Schlüssel" (Code) für den Benutzer und einen öffentlichen Code. Zum Entschlüsseln von Daten werden beide Schlüssel benötigt.

Das SET (Secure Electronic Transaction) ist ein beliebtes Verfahren für die Zahlungsabwicklung mittels Kreditkarten übers WWW. Entwickelt wurde dieser Quai-Standard von einem Konsortium von Kreditkartengesellschaften unter der Führung von VISA und MasterCard.

Beim SSL-Verfahren (Secure Socket Layer) handelt es sich um ein allgemeines Sicherheitsprotokoll von Netscape und RSA Data Security. Das SSL-Verfahren erkennt den Nutzer am angehängten "s" am Hypertext Transfer Protocol, also z.B. https://... Vereinfacht dargestellt verläuft der Zertifizierungsprozess wie folgt: das "s" veranlasst den Server, ein Zertifikat und seinen Public Key zusammen mit einer Prüfsumme und einer ID zum Browser zu senden. Aufgrund der vom Server gesendeten Daten prüft der Browser, ob URL und Server übereinstimmen, um dann dem Anwender eine entsprechende Information zu senden. Der Browser stellt das in der Status- und/oder Symbolleiste durch einen Schlüssel (Netscape) oder ein Schlosssymbol (Internet Explorer) dar.

10.2 Treuhandkonto

Elektronische Auktionen (ebay) erfreuen sich großer Beliebtheit. Problematisch beim Bieten um erst einmal virtuelle Produkte ist die Zahlungsabwicklung. Soll der Kunden zuerst zahlen und dann hoffen, dass geliefert wird (oder umgekehrt)? Eine andere Möglichkeit bieten Treuhandkonten. Der Kunde "parkt" die Kaufsumme auf diesem Konto und der Verkäufer liefert erst, wenn die Kaufsumme auf dem Treuhandkonto verbucht wurde.

10.3 Trust Center

Die wirtschaftlich orientierten Akteure im WWW verfolgen das Ziel, rechtsverbindliche Geschäfte abzuwickeln. Hier kommen Signaturgesetz (s.u.) und Trust Center ins Spiel. Trust Center, z.B., Telesec (Deutsche Telekom), stellen Zertifikate aus, nachdem die Identität des Antragstellers geprüft worden ist. Die Regulierungsbehörde für Telekommunikation und Post (Reg TP) überwacht die Arbeit der Trust Center.

10.4 Signatur und Digitale Signatur

Effektive und effiziente Verschlüsselungsverfahren (Kryptografie) bilden die Vertrauensbasis für das E-Commerce. Dabei ist zu beachten, dass Signatur nicht gleich digitale Signatur ist. Erstere besteht aus einer Textinformation (z.B. Name und Adresse) am Ende einer E-Mail. Signatur in diesem Sinne bietet also keine Gewissheit darüber, ob der Verfasser einer Botschaft auch tatsächlich der ist, für den er sich ausgibt. Die digitale Signatur dagegen ist ein kryptisches Verfahren zur Authentifizierung eines Nachrichtensenders. Mit anderen Worten eine Methode zur Vermeidung von Datenmanipulation durch Unbefugte.

In Deutschland von besonderer Bedeutung ist das Signaturgesetz als Bestandteil des Gesetzes zur Regelung der Rahmenbedingungen für Informations- und Kommunikationsdienste36, insbesondere Artikel 3 Gesetz zur digitalen Signatur (Signaturgesetz - SigG):

"§ 1 Zweck und Anwendungsbereich (1) Zweck des Gesetzes ist es, Rahmenbedingungen für digitale Signaturen zu schaffen, unter denen diese als sicher gelten und Fälschungen digitaler Signaturen oder Verfälschungen von signierten Daten zuverlässig festgestellt werden können. (2) Die Anwendung anderer Verfahren für digitale Signaturen ist freigestellt, soweit nicht digitale Signaturen nach diesem Gesetz durch Rechtsvorschrift vorgeschrieben sind." [http://www.iid.de/rahmen/iukdgbt.html, Zugriff am 10.07.2003]

11. Informations- und Wissensmanagement (Knowledge-Management)

Die Literatur zum Thema Informations- und Wissensmanagement füllt inzwischen viele Regalmeter. Google beispielsweise findet "aus Deutschland" ca. 66.660 Dokumente "Informationsmanagement", ca. 130.000 Dokumente "Wissensmanagement" und ca. 596.000 Dokumente "Knowledge Management". Hier soll nun eine eher unkonventionelle Sicht präsentiert werden.

Information, ob nun "Reduzierung von Ungewissheit" (Wersig) oder "Wissen in Aktion" (Kuhlen), bedarf einer Organisation, um diese Ziele zu erreichen. Vor dem Hintergrund der Russellschen logischen Antinomie37 benötigen wir deshalb eine übergeordnete Instanz, die sozusagen Information in einen Sach- und Sinnzusammenhang einbettet und somit "Information" einen Stellenwert zuweist.

Vor diesem Hintergrund kann Informationsmanagement nur ein IT-orientiertes Ressourcen-Management sein, das eine Vorauswahl trifft, in das System einpflegt und über ein spezielles Zugangsverfahren zur Verfügung stellt. Mit anderen Worten: Die Fertigstellung und Verfügbarkeit einer Datenbank ist Anlass zum Feiern, aber die damit verbundenen Dienstleistungen oder der Content treten in den Hintergrund, so wird immer wieder betont, dass wir "jetzt auch Online sind!", oder "ein Data-Warehousing implementiert haben!". Aber wozu? Hat sich die Investition gelohnt? Wie ist es mit der Evaluation? Ist der Content relevant?

Für eine erste Orientierung zeigt die Northsche Wissenstreppe (s. Abb.) die Zusammenhänge zwischen einem strategischen und operativen Wissensmagement38. Außerdem zeigt die Wissenstreppe Teilziele auf, zu deren Realisierung sowohl technische, wirtschaftliche, ethische u.a. Problemstellungen zu bewältigen sind , z.B. "Können + Wollen" (Barrieren), "Handeln + richtig Handeln" (Ethik).

Wenn wir die o.g. Definitionen von Information in Richtung eines Zieles erweitern, dann könnten wir Wissen definieren als "auf den neuesten Kenntnisstand abgesicherte Handlungsinformation". Hielten sich alle daran, die Wissensmanagement betreiben, würde das zu einer bedeutenden Imageverbesserung der BID-Professionen führen und einen Boom im Informationsmarkt auslösen. Von dieser Entwicklung sind wir jedoch noch weit entfernt.

12. Schlussbemerkungen

Unsere Informationsaufnahme-, Speicher- und Verarbeitungskapazität ist beschränkt. Leider neigen wir auch dazu, gelegentlich etwas zu vergessen. Deshalb macht es Sinn, Informations- und Kommunikationsmedien zu entwickeln, die uns helfen, diese "Defizite" zu kompensieren. Damit noch nicht genug. Wir haben im Lauf der Zeit gelernt, diese Medien auch zur Unterhaltung, zur Erhöhung der Wettbewerbsfähigkeit, zur Zeit- und Kosteneinsparung und last but not least zur Überbrückung von Distanzen einzusetzen. Die Entwicklungsdynamik gipfelt in einer Informations- und Wissensgesellschaft, wobei es unterschiedliche Auffassungen darüber gibt, ob wir bereits in einer solchen leben oder uns noch auf dem Weg dahin befinden.

In der Gesamtschau erscheinen Informations- und Wissensgesellschaft als ein Sammelsurium von Beliebigkeiten. Jeder darf "mitspielen", ob Informatiker, Kulturkritiker, Soziologe, Psychologe, Bibliothekar, um nur einige Player zu nennen.

In der Retrospektive waren es wohl eher Ingenieure und Wirtschaftswissenschaftler, die einer Informationsgesellschaft - vielleicht sollten wir besser von einer Mediengesellschaft reden - ein "Gesicht" gegeben haben. Deshalb wäre es treffender, von einer Informations- und Wissenswirtschaft zu sprechen. Der gesellschaftliche Kontext kommt häufig erst dann ins Blickfeld, wenn Entwicklungen anders verlaufen als geplant.


Zum Autor

Prof. Dr. Wolfgang Ratzek, M.A.

FH Stuttgart - Hochschule der Medien
FB Information und Kommunikation
Wolframstraße 32
D-70191 Stuttgart
URL: www.iuk.hdm-stuttgart.de
E-Mail: ratzek@iuk.hdm-stuttgart.de


Anmerkungen

1. Wolfgang Ratzek wird in unserer Buchreihe B.I.T.online Innovativ diese Thematik weiterführen. Der entsprechende Band wird voraussichtlich im Frühjahr 2004 erscheinen.

2. Wir wollen uns hier nur auf einige wenige Entwicklungen der letzten Jahrzehnte konzentrieren.

3. Shannon, C.E.; Weaver, W.: The Mathematical Theory of Communication, Urbana, Illinois 1949.

4. s.a. Seeger, Th.: Der Weinberg-Bericht von 1963. Ein deutscher Rückblick nach 40 Jahren. In: Information - Wissenschaft und Praxis 2/2003, S. 95-98.

5. s.a. Seeger a.a.O.

6. Nora, S.; Minc, A.: Die Informatisierung der Gesellschaft. Frankfurt, New York 1979.

7. Dahinter stand der Vize-Präsident und IT-Befürworter Al Gore.

8. Ockenfeld, M.: Von INFO 2000 zu eEurope - Eine Informationsgesellschaft für alle. In: Information - Wissenschaft und Praxis 3-4/2000, S. 4; ausführlicher unter www.europa.eu.int./informationsociety

9. s. Ratzek, W.: Public Awareness. Wider den Informatik-Mimikry. In: Information - Wissenschaft und Praxis. 1/2000.

10. Dabei bin mir bewusst, dass noch weitere Komponenten fehlen. Diese Darstellung wird in der o.g. Publikation in der Reihe B.I.T.online innovativ vertieft.

11. Die interaktive Weiterentwicklung des Videotextes mit Recherchefunktion, Bestell- und Buchungsmöglichkeiten. Kurz: Btx war ein interaktiver Informationsdienst.

12. (http://www.golem.de/0209/21749.html; Zugriff am 07.06.2003; http://www.ard-text.de/videotext/?tafel=479, Zugriff am 16.07.2003)

13. TCP/IP = Transmission Control Protocol / Internet Protocol. Das Verbindungsprotokoll für den Datenaustausch zwischen Internet-Rechnern. Es unterstützt Hardware und viele Betriebssysteme.

14. Das branchenspezifische EDIFACT steht für Electronic Data Interchange for Administration, Commerce and Transport.

15. Es können auch mehrere LANs zu einem MAN gekoppelt werden.

16. MANDA ist das regionale Hochgeschwindigkeitsnetzwerk der Wissenschaftseinrichtungen im Raum Darmstadt.

17. In Analogie zur HTML erfolgt der Zugriff mittels WML (Wireless Markup Language).

18. http://www.techfak.uni-bielefeld.de/ags/wbski/lehre/digiSA/Gedankengeschichte/Vortrag18052001/generationen.html; http://www.bw.fh-deggendorf.de/kurse/wi_itk/skripten/skript2.doc; Zugriff am 16.07.2003.

19. Allerdings ist der Pionier des WWW Tim Berners-Lee kein Bibliothekar sondern Physiker.

20. Astrid Erll informiert in ihrem Beitrag "Kollektives Gedächtnis und Erinnerungskulturen" über den aktuellen Stand der Forschung. In: Nünning, Ansgar; Nünning Vera (Hrsg.): Konzepte der Kulturwissenschaften. Stuttgart 2003. S.156-185.

21. In der Praxis werden Datenbanken häufig nach deren Technologie oder der Art der Datenstrukturierung betrachtet, z.B. SQL-Datenbank, XML-Datenbank oder Objekt-Datenbank.

22. Aus einer bibliothekarischen Sicht können hier Formal- und Sacherschließung als Grundlage für Information Retrieval-Systeme betrachtet werden.

23. Als "Motto" in: Gaus, W.: Dokumentations- und Ordnungslehre. 3. Aufl. Berlin [u.a.] 2000.

24. s. Nohr, H.: Grundlagen der automatischen Indexierung. Berlin 2003.

25. s. Nohr, H. a.a.O.

26. Auf die gegenwärtige Diskussion über das "visible Web" und das "invisible" oder "deep Web", also Oberfläche und Tiefenstruktur des Web, kann hier nicht eingegangen werden. Eine Einführung gibt Stock, W.: Weltregionen des Internet: Digitale Informationen im WWW via WWW. In: PASSWORD 2/2003, S. 26-28.

27. Metatags sind Angaben im Kopf einer HTML-Seiten, die nicht auf dem Monitor erscheinen und den Suchmaschinen u.a. mitteilen, welcher Inhalt angeboten, welche Sprache verwendet wird und wer sie erstellt hat.

28. Horx, M.: Die acht Sphären der Zukunft. Wien 2000, S. 167.

29. "Content" bedeutet sowohl "Inhalt" als auch "Zufriedenheit".

30. Thomas, P.: Einfluss eines integrierten Content Management Systems auf Arbeitsabläufe in der Rundfunkanstalt. In: Information - Wissenschaft und Praxis 5/2001, S. 283-291

31. Das sind so genannte Speicherchipkarten.

32. Die Smart Card wäre dann ein Beispiel für eine Maschine-Maschine-Schnittstelle.

33. http://de.sun.com/SunPR/Pressemitteilungen/2003/PM03_56.html; Zugriff am 17.07.2003

34. Unter Verschlüsselung verstehen Fachleute eine gezielte Veränderung von Zeichen in eine für Fremde unverständliche Zeichenfolge.

35. Caroll, J.; Broadhead, R.: Selling Online. Bonn 2001.

36. Informations- und Kommunikationsdienste-Gesetz - IuKDG, in der Fassung des Beschlusses des Deutschen Bundestages vom 13. Juni 1997 (www.iid.de/rahmen/iukdgbt.html, Zugriff am 10.07.2003). In Kraft seit dem 01.08.2001.

37. Bertrand Rusells (logische) Antimonie: "Sie geht in der mengentheoretischen Formulierung davon aus, dass eine Menge dadurch bestimmt ist, dass ihre Elemente eine bestimmte Bedingung erfüllen. Gewisse Mengen scheinen zudem Elemente von sich selbst sein zu können, so die Menge der Mengen. (…) Diese Antinomie besitzt eine logische Variante, in der die Eigenschaft nicht Eigenschaft seiner selbst sein oder die Eigenschaft, imprädikabel zu sein, betrachtet wird." (http://www.phillex.de/russell.htm; Zugriff am 15.07.2003)

38. Einmal abgesehen davon, dass die Interpretation von Daten (Bedeutung) und Information (Vernetzung) von mir nicht geteilt wird, beeindruckt die Treppe dennoch, da sie sowohl von unten nach oben (induktiv) als auch von oben nach unten (deduktiv) begangen werden kann.