Benchmarking als Ansatz für
kundenorientierte Verbesserungsprozesse

von Sebastian Mundt und Stefan Guschker


1. Einleitung
2. Begriff des Benchmarking

3. Vergleichbarkeit

4. Vergleich als Teil des Benchmarking-Prozesses

5. Bestandsaufnahme

6. Fazit

1. Einleitung

Allen Bemühungen um Kundenzufriedenheit liegt die Erkenntnis zugrunde, dass für die Akzeptanz von Produkten oder Dienstleistungen nicht deren objektive Güte, sondern vor allem die Wahrnehmung der "Fitness For Use", d.h. der subjektiven Zwecktauglichkeit in den Augen des Kunden entscheidend ist. Nach der am weitesten verbreiteten Konzeptualisierung, dem sog. Confirmation/Disconfirmation Paradigm, resultiert Kundenzufriedenheit aus Unterschieden zwischen dem tatsächlich erfahrenen Niveau einer Leistung und bestimmten Vergleichsstandards des Kunden (vgl. Homburg/Rudolph 1998, S. 38 ff.). Diese Vergleichsstandards können z.B. früheren eigenen Erfahrungen entstammen oder auch Erwartungen wiederspiegeln, die durch eigene Wertvorstellungen oder Berichte dritter Personen erzeugt wurden.

Befragungen zur Kundenzufriedenheit haben allgemein ihre Eignung nachgewiesen, diese subjektiven Urteile einzufangen und zu einem Gesamtprofil zu verdichten, das der Identifizierung von Stärken und Schwächen des Leistungsangebotes dient. Darüber hinaus ist es jedoch oft schwierig, aus Ergebnissen lokaler Kundenbefragungen konkrete Anregungen zu gewinnen, wie das Dienstleistungsangebot im Sinn der Kunden verbessert werden kann. Vergleichende Befragungen mehrerer Institutionen können als Ausgangspunkt und "Ideengeber" für eigene Verbesserungsprozesse dienen, wenn es mit ihrer Hilfe gelingt, Fälle von beispielhafter Kundenzufriedenheit zu identifizieren. Mit dieser Zielsetzung befragten die 15 nordrhein-westfälischen Universitätsbibliotheken zwischen Juni und August 2001 gemeinsam Besucher an 33 Bibliotheksstandorten zu ihrer Zufriedenheit mit den Dienstleistungsangeboten ihrer Bibliothek. Das Hochschulbibliothekszentrum Nordrhein-Westfalen ermöglichte dieses Vorhaben durch dessen Finanzierung und Organisation. Die Verantwortung für die methodische Koordination und statistische Auswertung lagen beim infas - Institut für angewandte Sozialwissenschaft GmbH, das einen Kompetenzschwerpunkt "Bibliotheken" eingerichtet hat. Das methodische Vorgehen und wichtige übergreifende Ergebnisse wurden bereits dargestellt (vgl. Follmer/Guschker/Mundt 2002, 2002a).

2. Begriff des Benchmarking

Betriebswirtschaftlich orientierte Ansätze zum Vergleich von Institutionen sind nicht neu. Im allgemeinen Sprachgebrauch haben sich mit den Bezeichnungen "Benchmarking", "Ranking" und "Betriebsvergleich" mehrere Begriffe zur Beschreibung von Vergleichsmethoden eingebürgert, die unterschiedliche Ansätze verfolgen, häufig jedoch synonym verwandt werden. Die folgende Abgrenzung dient dazu, den Vergleich der Kundenzufriedenheit mit der oben beschriebenen Zielsetzung begrifflich zutreffend einzuordnen.

Der klassische Betriebsvergleich stützt sich im wesentlichen auf funktionale Leistungsdaten z.B. personalwirtschaftlicher, produktivitäts-, rentabilitäts- oder wachstumsorientierter Art. Qualitative (z.B. kundenorientierte) Wertmaßstäbe werden im Betriebsvergleich zur Bestimmung "besserer" Leistung üblicherweise nicht herangezogen. Diesen Kennzahlenvergleichen liegt eine dem quantitativen Managementverständnis entstammende, an Strukturen orientierte Sichtweise von Unternehmen bzw. Institutionen zugrunde (Komus 2001, S.45f.).

Im Unterschied dazu dienen meist von unabhängigen Institutionen erhobene und veröffentlichte Rankings (z.B. Hochschulrankings, Kundenbarometer) primär dazu, aus wenigen stark aggregierten Kennzahlen Globalwerte zu ermitteln und diese in eine Rangreihe zu überführen. Gerade in nicht marktwirtschaftlich gesteuerten Bereichen - z.B. im Hochschulwesen - können Rankings Wettbewerbssituationen schaffen, auf deren Boden Veränderungsprozesse entstehen oder beschleunigt werden können, die ihrerseits zur Leistungssteigerung führen (vgl. Hornbostel 1999). Aus Platzierungen oder stark verdichteten Globalwerten lassen sich jedoch im Regelfall nur mühsam konkrete Empfehlungen zur Verbesserung einzelner Dienstleistungen ableiten. Dokter und Heidecke (1997) verdeutlichten dies aus der Sicht einer Universitätsbibliothek am konkreten Fall des FOCUS-Uni-Tests.

Benchmarking basiert im Kern auf den oben beschriebenen Verfahren. Das Wort hat seine etymologischen Wurzeln nach allgemeiner Ansicht im Handwerk und in der Landvermessung, wo der Begriff "benchmark" ursprünglich Referenzmarken ("Markierung in der Werkbank") bezeichnete (vgl. Böhnert 1999 S. 5 ff.). Auch wenn es sich bereits vor etwa 15 Jahren als Vergleichsverfahren etablierte, sucht man eine einheitliche Definition des Benchmarkings in der Managementliteratur bis heute vergeblich. Die Autoren dieses Beitrags folgen der Definition von Zink (1995), der Benchmarking definiert als "Suche nach den besten Prozessen, Vorgehensweisen oder Ergebnissen, die für die jeweilige Aufgabe im eigenen Unternehmen relevant sind. Ziel ist es dabei, von diesen Prozessen, Vorgehensweisen und Ergebnissen zu lernen und sie zur Verbesserung der eigenen Leistung einzusetzen". Town (2000, Kap. 3.2.2) bezeichnet sogar die gezielte Bitte um Lösungen für eine eigene Fragestellung in einer geeigneten Mailingliste bereits als eine "unstrukturierte" Art von Benchmarking.

Das Prinzip des Benchmarking stellt Unterschiede zwischen den Vergleichspartnern bewusst zurück und lässt mit seinem offenen, auf Lernen ausgerichteten Ansatz Arbeitsabläufe ebenso wie z.B. Dienstleistungen, Organisationsstrukturen oder Strategien als Gegenstand von Vergleichsbetrachtungen zu. Im Kontext einer "vom Kunden lernenden" Organisation tritt an die Stelle fehlender theoretischer Zielvorgaben, konstruierter Normen oder objektiver Maßstäbe die Suche nach bester existierender Praxis ("Best Practice") in der Ausprägung besonderer Kundenzufriedenheit (vgl. Leibfried/McNair 1992, S. 149).

Zusammenfassend führt im vorliegenden Fall eine Abwägung der vorgestellten Ansätze des Leistungsvergleichs in der Summe vor allem deshalb zum Begriff des Benchmarking, weil

3. Vergleichbarkeit

Als Grundlage des gemeinsamen Vorgehens verständigten sich die Partner darauf, alle vergleichenden Auswertungen vertraulich zu behandeln. Diese Festlegung entkräftete den häufig gegen Vergleiche vorgebrachten Einwand, dass die "Gleichheit" der Institutionen notwendige Voraussetzung für deren Vergleich sei. So waren Lerneffekte gerade auch dort zu erwarten, wo unterschiedliche Rahmenbedingungen andere Problemlösungen notwendig machen. Vertraulichkeit erleichterte zudem den punktuellen Vergleich von Institutionen mit unterschiedlichen Ausgangsvoraussetzungen zur Ermittlung möglicher struktureller Stärken und Schwächen. Bei der Aufbereitung der Ergebnisse wurde deshalb z.B. auf eine übertriebene Trennung von ein- und zweischichtigen Systemen sowie von Zentralbibliotheken und Zweigstellen bzw. Teilbibliotheken verzichtet. Entscheidend für die Vergleichbarkeit der Ergebnisse war damit lediglich, dass die Daten unter formal gleichen Bedingungen, d.h. mit einem standardisierten Erhebungsinstrument (Fragebogen) nach derselben Methode erhoben und ausgewertet wurden.

Der standardisierte Fragebogen (vgl. Follmer/Guschker/Mundt 2002) griff die wesentlichen Aspekte von Benutzerverhalten und -zufriedenheit als "Positivliste" auf. Bibliotheksspezifische Abweichungen konnten nur durch Auslassung bestehender, nicht jedoch durch Hinzufügen weiterer Fragen bzw. Merkmale Berücksichtigung finden. Eine Ausnahme bildete das Öffnungszeiten-Tableau, das individuell für jeden Bibliotheksstandort erstellt wurde. In ihm konnten die Befragten bei Bedarf gewünschte Erweiterungen der bestehenden Öffnungszeiten markieren. Ein Korrektiv für die "Reduziertheit" des Fragebogens bildeten zwei Freitext-Kommentarfelder, in denen die abgegebenen Wertungen von den Befragten kommentiert und um weitere Gesichtspunkte ergänzt werden konnten. Auch hier war die Einheitlichkeit des Verfahrens gewährleistet: Die offenen Nennungen wurden nach einem einheitlichen Kodeplan ausgewertet, zu Antwortkategorien zusammengefasst und quantifiziert.

Aus Kostengründen verzichteten die Teilnehmerbibliotheken darauf, die Datenerhebung durch ausgebildete infas-Interviewer vornehmen zu lassen. Vergleichbare Erhebungsbedingungen wurden statt dessen geschaffen, indem das vor Ort beteiligte Bibliothekspersonal von infas-Mitarbeitern geschult und angeleitet wurde.

infas übernahm vollständig die Auswertung des gewonnenen Datenmaterials. Auf diese Weise war sichergestellt, dass die Analyse vertraulich und methodisch korrekt ablief und die uneingeschränkte Akzeptanz der Bibliotheken fand. infas institutionalisierte damit die von den Teilnehmerbibliotheken für notwendig erachtete Funktion des überparteilichen "Moderators".

4. Vergleich als Teil des Benchmarking-Prozesses

Unabhängig vom gewählten Ansatz lässt sich für jedes Benchmarking ein idealtypischer Ablauf identifizieren, der sich im Grundsatz an den drei Stadien "Planung", "Durchführung" und "Kontrolle" des klassischen Managementprozesses orientiert. Allerdings unterscheiden sich die in der Literatur beschriebenen Modelle des Vorgehens in ihrem Detaillierungsgrad erheblich (vgl. Böhnert 1999, S. 92ff.). Abbildung 1 veranschaulicht die bei diesem Vorhaben gewählte Vorgehensweise mit ihren Prozessphasen und Kerntätigkeiten. Die Kommunikation des Vorhabens und seiner Resultate gegenüber allen Anspruchsgruppen der Bibliothek soll darin als kontinuierlicher Prozess verstanden werden, der das Vorhaben von der Ankündigung des Vorhabens bis zur Umsetzung von Konsequenzen begleitet.

Abbildung 1: Benchmarking-Phasen und -Arbeitsschritte

Auf die Umsetzung der Arbeitsschritte 8 und 9 aus Abbildung 1 soll im folgenden anhand ausgewählter Beispiele genauer eingegangen werden. Einen hohen Stellenwert nimmt dabei die grafische Darstellung der Ergebnisse z.B. in Portfolio-, Stab- und Spinnendiagrammen ein, weil sie sich besonders gut dazu eignet, Unterschiede sichtbar zu machen und Ansätze zur Verbesserung zu identifizieren. Kern der Vergleichsphase ist die Suche nach systematischen Zusammenhängen zwischen höherer Zufriedenheit und bestimmten Vorgehensweisen bzw. Randbedingungen.

Im ersten Schritt sind die eigenen Stärken und Schwächen zu analysieren und etwaige Leistungslücken ("performance gaps") zu identifizieren. Abbildung 2 zeigt das Aktionsportfolio einer Bibliothek, das den Zweikomponentenansatz des infas Kunden-Monitor (infasKM) aufgreift, mit dem Zufriedenheit und Wichtigkeit verschiedener Dienstleistungen auf parallelen Rating-Skalen dargestellt werden (vgl. Hentschel 2000, S. 301). Die Darstellung der Einzelergebnisse wurde um die jeweiligen Mittelwerte einer Gruppe von Vergleichsbibliotheken ergänzt.

Abbildung 2: Aktionsportfolio als Profil relativer Stärken und Schwächen

Diese Darstellungsform versetzt die Bibliothek in die Lage, diejenigen Kerndienstleistungen zu erkennen, mit denen die Kundenzufriedenheit besonders nachdrücklich zu verbessern ist. Dies sind nicht etwa die "wichtigsten" Dienstleistungen, sondern vor allem diejenigen, die bei hoher Wichtigkeit besonders unbefriedigend beurteilt werden (also im hier dargestellten Fall der Internetzugang, die Arbeitsplätze, die Kopiersituation und das Lehrbuchangebot).

Zudem gibt die Darstellung nicht nur Aufschluss über die lokale Ausprägung von Stärken und Schwächen, sondern auch über spezifische Abweichungen des eigenen Profils vom Durchschnitt ausgewählter Vergleichsbibliotheken. So kann z.B. eine in isolierter Betrachtung relativ unbefriedigende Dienstleistung dennoch wesentlich besser als in anderen Bibliotheken benotet worden sein und damit den gewählten Ansatz bestätigen: Die deutlich überdurchschnittliche Benotung der Kopiersituation in der Beispielbibliothek aus Abbildung 2 - in fast allen teilnehmenden Bibliotheken als unbefriedigend beurteilt - lässt sich z.B. vor allem auf die relativ hohe Zahl der bereitgestellten Kopiergeräte zurückführen. Der unabhängig von der Universität abgeschlossene Rahmenvertrag mit dem Serviceunternehmen bietet dieser Bibliothek außerdem Unabhängigkeit und Flexibilität bei den Verhandlungen um Ausstattung und Wartung der Geräte. Umgekehrt melden die Kunden der Beispielbibliothek Verbesserungswünsche vor allem beim Internetzugang sowie beim Angebot an Arbeitsplätzen an. Die relativ schlechte Bewertung der Zahl der Arbeitsplätze lässt sich auf die starke Nutzung dieses Standortes durch Kunden einer Fachrichtung zurückführen, für die das Bibliotheksgebäude überproportionale Bedeutung als Lern- und Arbeitsumgebung hat (vgl. Follmer/Guschker/Mundt 2002a, S. 23f.). In fast allen anderen Punkten weist das Portfolio der Beispielbibliothek weitgehende Deckungsgleichheit mit den Durchschnittswerten der Vergleichsgruppe auf.

Im zweiten Schritt der Vergleichsphase können die Vergleichsdaten anderer Teilnehmer herangezogen werden, um - soweit erkennbar - Fälle von "Best Practice" in anderen Bibliotheken zu identifizieren und deren Hintergründe zu ermitteln. Für das Verständnis von Abläufen sind vor allem qualitative Informationen notwendig, die nur durch Telefonate, Besuche oder Studien zu beschaffen sind. Diese Möglichkeiten standen den Autoren nur eingeschränkt zur Verfügung. Eine detaillierte Beschreibung qualitativer Analysen findet sich z.B. bei Town (2000). Strukturen hingegen lassen sich i.d.R. durch quantitative Sekundärinformationen (wie z.B. das Vorhandensein oder die Anzahl bestimmter Ausstattungsmerkmale) hinreichend genau beschreiben. Den nordrhein-westfälischen Universitätsbibliotheken steht dazu mit den "Betriebszahlen für Universitätsbibliotheken" ein Instrument zur Verfügung, das speziell für Fragestellungen der Bibliotheksbenutzung detailliertere statistische Informationen liefert als die bisherige Deutsche Bibliotheksstatistik (vgl. Poll 1999). Der Beitrag solcher Rahmenbedingungen zur Zufriedenheit kann oft schon durch einfache Korrelationsuntersuchungen abgeschätzt werden; komplexe Einflüsse lassen sich durch multivariate Verfahren berechnen.

An Beispielen zum Dokumentlieferdienst JASON und zu den Öffnungszeiten soll die Vorgehensweise bei der Ermittlung von "Best Practice" im Folgenden erläutert werden. Die Sicht einzelner Teilnehmer wird dabei nur exemplarisch eingenommen.

Die Zufriedenheit mit JASON wurde im Fragebogen in die Teilzufriedenheiten "Lieferfrist" und "Bedienung" umgesetzt; der für die einzelne Bibliothek nicht disponible Faktor "Preis" blieb unberücksichtigt. Abbildung 3 stellt die beiden abgefragten Komponenten zusammen dar; der sog. "Top-Box"-Wert gibt an, wieviel Prozent der Befragten die Note "sehr zufrieden" oder "zufrieden" (auf einer fünfstufigen Skala) vergeben hatten. Nur zwei der hier dargestellten Bibliotheken (A und D) konnten ihre Befragten mit Lieferfrist und Bedienung von JASON in der Mehrzahl zufrieden stellen. D hat gleichzeitig die höchste JASON-Nutzerquote unter den Befragten im Vergleich der teilnehmenden Bibliotheken.

Abbildung 3: "Best Practice" beim Dokumentlieferdienst JASON

Prinzipiell stellt der Dokumentlieferdienst JASON für alle angeschlossenen Bibliotheken eine identische Dienstleistung dar, die ihre Individualität aus Sicht der Bibliothekskunden vor allem durch lokales Marketing und eine geeignete Einbindung in den Webauftritt der Bibliothek erfährt. Teil der Bibliothekspolitik beider Einrichtungen ist ein aktives Marketing elektronischer Medien und Dienstleistungen, das über das Angebot häufiger spezifischer Schulungsangebote zu JASON weit hinausgeht. Vor allem durch folgende Faktoren heben sich die Standorte A und D von den übrigen Bibliotheken ab: Bei den Befragten in Bibliothek A geht die hohe JASON-Zufriedenheit mit der erfolgreichen Einführung eines eigenen hochschulinternen Liefersystems einher, das sich mit den Vorzügen der Dokumentlieferung an den Arbeitsplatz bei der Zielgruppe der Wissenschaftler schnell etabliert hat. Bibliothek D hat einen Servicepunkt für Dokumentlieferdienste an zentraler Stelle in der Universität eingerichtet und die JASON-Bestellmaske konsequent in das progressive Design ihres Internetauftritts integriert.

Nicht alle vorgesehenen Vergleichsobjekte führen jedoch zur Identifikation wirklicher "Best Practice". Das folgende Beispiel zum Thema "Öffnungszeiten" soll zeigen, dass einige Vergleiche zumindest die wichtige Erkenntnis liefern, dass unterschiedliche und zum Teil unveränderliche Rahmenbedingungen ausschlaggebend für Qualitäts- bzw. Leistungsunterschiede sind.

In Abbildung 4 wurde die Zufriedenheit mit den Gesamt-Öffnungszeiten der Zahl der Wochenöffnungsstunden gegenübergestellt. A und B erreichen mit etwa 100 Öffnungsstunden pro Woche Zufriedenheitsquoten von über 90% und treten damit den Nachweis an, dass die Bedürfnisse der Benutzer nicht nur mit Vollzeit-Öffnung an 7 Wochentagen herausragend zu bedienen sind. Der grafische Eindruck, dass insgesamt ein hoher direkter Zusammenhang zwischen Öffnungszeiten und Zufriedenheit besteht, lässt sich zu etwa 70% auch statistisch erklären. Eine Betrachtung der Detailergebnisse lässt zudem erkennen, dass lange Öffnungszeiten an Wochentagsabenden dabei mehr zur Zufriedenheit beitragen als eine ausgedehnte Wochenendöffnung der Bibliothek. An einigen Standorten war zudem zu berücksichtigen, dass die Gesamtöffnungszeit der Bibliothek sich von der der Ausleihe und der Lehrbuchsammlung z.T. gravierend unterschied.

Deutliche Abweichungen in Einzelfällen machen aber deutlich, dass die Gleichung "längere Öffnungszeiten = höhere Zufriedenheit" nicht uneingeschränkt auf alle Bibliotheksstandorte anwendbar ist (vgl. West, 2001, S. 10f.). So erreicht D mit denselben Öffnungszeiten wie M beispielsweise eine um 32% höhere Kundenzufriedenheit, und G benötigt eine um 10 Wochenstunden längere Öffnung, um die Befragten genauso zufrieden zu stellen wie Bibliothek F.

Abbildung 4: Lernen aus komplexen Rahmenbedingungen beim Faktor "Öffnungszeiten"

Um diese Unterschiede zu erklären, wurden einige von den Bibliotheken nicht zu beeinflussende Rahmenbedingungen auf ihren Zusammenhang mit der Zielgröße "Zufriedenheit mit den Öffnungszeiten" hin untersucht. So wurde z.B. ein "Umfeldindikator" berechnet, der die Differenz zwischen den lokalen Öffnungszeiten und einem Mittelwert der Teilnehmerbibliotheken in einem Einzugsbereich von etwa 100 km angab. Er erwies sich als weiterer signifikanter Einflussfaktor auf die Kundenzufriedenheit und bestätigte eine Reihe von Kommentaren, in denen Bibliotheksbesucher Verbesserungswünsche aus Erfahrungen mit einem bestimmten Dienstleistungsniveau in anderen Bibliotheken begründeten. So nutzen Kunden von Bibliothek G z.B. auch die Standorte A und B, während Bibliothek F sich eher in räumlicher Nähe von L und M befindet.

Einen relativ hohen (wenngleich in dieser Untersuchung nicht signifikanten) Einfluss auf die Zufriedenheit hat auch das Fächerspektrum der Universität. Besonders Juristen, Wirtschaftswissenschaftler und Mediziner verbringen viel Zeit am "Lernort" Bibliothek; sie sind auf lange Öffnungszeiten angewiesen. Ein hoher Anteil dieser Studiengänge innerhalb der Studentenschaft führt zu höheren Ansprüchen an die Öffnungszeiten; die Bibliotheken G, J, L und M beispielsweise sind in diesem Sinn besonders stark nachgefragte "Lernorte" und sehen sich dem Kundenwunsch gegenüber, die Öffnungszeiten entsprechend anzupassen.

Vergleichbare Zusammenhänge konnten auch für andere Teilaspekte der Kundenzufriedenheit ermittelt werden. Ein auf alle Teilnehmerbibliotheken anzuwendendes Erklärungsmodell der Zufriedenheit mit den Öffnungszeiten ließ sich aus den untersuchten Daten allerdings nicht ermitteln. Speziell für grundlegende infrastrukturelle Bedingungen, wie die räumliche Nähe zu universitären Einrichtungen, Ein- bzw. Zweischichtigkeit, Stadtlage, Verkehrsanbindung in Abendstunden und an Wochenenden sowie die Zahl der insgesamt durch die Bibliothek versorgten Studierenden, ließ sich kein systematischer Einfluss auf die Kundenzufriedenheit mit den Öffnungszeiten nachweisen.

5. Bestandsaufnahme

Vier Monate nachdem den Bibliotheken die Auswertungen zur Verfügung gestellt worden waren, wurden die Bibliotheken telefonisch nach ihrem Umgang mit den Ergebnissen befragt. Das Fragenraster zielte darauf, typische Verfahrensweisen bei der Analyse, Umsetzung und Kommunikation der Ergebnisse gegenüber Mitarbeitern, Kunden und Öffentlichkeit zu identifizieren.

Fast alle Bibliotheken dokumentierten durch die Art der Besprechung und Weitergabe der Ergebnisse die übergeordnete Bedeutung der Befragung für die Mitarbeiter der beteiligten Einrichtungen. So nutzten 14 der 15 Bibliotheken formale Informationswege mit hoher Breitenwirkung und trugen dem erwarteten hohen Gesprächs- und Abstimmungsbedarf durch persönlich-mündliche Präsentation Rechnung: Neun der 15 Bibliotheken unterrichteten ihre Mitarbeiter im Rahmen von Personalversammlungen oder Vortragsangeboten über die Ergebnisse der Befragung; zwei dieser neun Bibliotheken beauftragten infas auf ihre Kosten mit der Präsentation der Ergebnisse. In drei Bibliotheken wurden die Ergebnisse in regulären Dienstbesprechungen thematisiert. Zwei weitere Bibliotheken planten zum Zeitpunkt des Anrufs eine zentrale Informationsveranstaltung. Ergänzend machten 12 Bibliotheken ihren Mitarbeitern eine Zusammenfassung der Ergebnisse im Intranet oder anderen hausinternen Medien verfügbar. Der größte Teil der Bibliotheken hatte demnach eine wichtige Konsequenz nach vier Monaten eingeleitet und war mit den Mitarbeitern in einen Diskurs über die Ergebnisse getreten.

Die Aufbereitung der Ergebnisse für Zwecke der Öffentlichkeitsarbeit war demgegenüber im Durchschnitt weniger weit fortgeschritten. Hier machte sich besonders bemerkbar, dass acht der beteiligten Bibliotheken erstmalig ihre Kunden befragt hatten: Eine Ausstellung oder internetbasierte Präsentation von Ergebnissen war erst von einem Drittel der Bibliotheken umgesetzt; fünf weitere Bibliotheken äußerten, ihre Ergebnisse noch veröffentlichen zu wollen. Bemerkenswert erscheint, dass ein Drittel der beteiligten Bibliotheken ganz auf die Ausstellung von Ergebnissen in der Bibliothek verzichtete, obwohl die Befragung gerade unter Bibliotheksbesuchern durchgeführt worden war. Ferner hatten zwar bereits neun Teilnehmerbibliotheken vor Hochschulgremien über die Resultate berichtet; trotz vorheriger Vereinbarung, dass Vergleiche nur anonymisiert in öffentliche Ausstellungen einbezogen werden sollten, wurde der hochschulexternen Öffentlichkeit jedoch nur zurückhaltend Bericht erstattet. So entschied sich etwa die Hälfte der Bibliotheken gegen eine Einbeziehung der örtlichen Presse. Eine Bibliothek verzichtete sogar auf jegliche Information bibliotheksexterner Anspruchsgruppen.

Ein ähnlich uneinheitliches Bild zeigt sich bei der Umsetzung der Resultate: Alle Bibliotheken hatten ihre eigenen Stärken und Schwächen aus den von infas zusammengestellten Ergebnisbänden direkt abgeleitet; eine Prioritätenliste einzuleitender Maßnahmen war jedoch erst von neun Bibliotheken fertiggestellt. Vor diesem Hintergrund überrascht es nicht, dass nur einzelne Einrichtungen auf informeller Ebene bislang durch gezielte Rückfragen mögliche Hintergründe von "Best Practice" hinterfragt hatten, obwohl sich unter den nordrhein-westfälischen Universitätsbibliotheken mit "alten" zweischichtigen Systemen und einschichtigen "Neugründungen" zumindest zwei relativ homogene Teilgruppen identifizieren lassen, innerhalb derer Rückfragen schon vordergründig aufgrund ähnlicher Ausgangsbedingungen naheliegen.

14 Bibliotheken hatten zum Zeitpunkt des Anrufs bereits Konsequenzen eingeleitet. Bevorzugt wurden dabei solche Maßnahmen ergriffen, die schnell bzw. mit geringem Aufwand sichtbare Veränderungen bewirkten. Auch längerfristige Vorhaben (z.B. Baumaßnahmen) wurden vor dem Hintergrund langer Planungszeiträume oder komplizierter Entscheidungsvorgänge unverzüglich angestoßen.

6. Fazit

Das Prinzip "Benchmarking" basiert auf der Annahme, dass zu einer bestimmten Dienstleistung bessere Lösungen in Vergleichsbibliotheken existieren. "Gleichen" müssen sich die teilnehmenden Bibliotheken darin, dass sie von den Ergebnissen des Benchmarking-Prozesses profitieren wollen; über Inhalt und Schwerpunkte des Vergleichs entscheiden sie selbst. Die Grenze des Verfahrens liegt damit nicht in der "Unterschiedlichkeit" der Teilnehmerbibliotheken, sondern in der Übertragbarkeit von besseren oder "besten" Abläufen und Problemlösungen auf andere Strukturen. Der oft geäußerte Vorbehalt, dass "Äpfel" mit "Birnen" verglichen werden, zielt vor allem auf die öffentliche Präsentation von "Gewinnern" und "Verlierern". Bei vertraulichem Umgang mit den Ergebnissen bleiben die inhaltliche Bewertung und die Wahl möglicher Verbesserungsansätze den Verantwortlichen vor Ort überlassen.

Die Notwendigkeit von Lernen und Veränderung wird den Bibliotheken in der dichten Hochschullandschaft Nordrhein-Westfalens ohnehin von informierten Kunden diktiert: Freitext-Kommentare in den Fragebögen bestätigen, dass bestimmte Bewertungen der eigenen Universitätsbibliothek auf der Grundlage konkreter Vergleichserfahrungen mit benachbarten Bibliotheken oder zumindest vom "Hörensagen" her bewertet werden; verdeutlicht wurde dies am Beispiel der Zufriedenheit mit den Öffnungszeiten.

Die Meinung der Kunden ist mangels absoluter Ziel- oder Normwerte die wichtigste Rückmeldung, die eine Bibliothek zur Qualität ihrer Dienstleistungen erhalten kann. Entscheidungen zur besseren Ausrichtung des Dienstleistungsangebots auf die Bedürfnisse der Benutzer werden jedoch immer unter angemessener Berücksichtigung der Ressourcen und Entwicklungsmöglichkeiten einer Bibliothek gefällt werden müssen (vgl. Ceynowa/Coners 2002). So können durchaus im Einzelfall Kundenerwartungen unrealistisch oder notwendige finanzielle, personelle oder infrastrukturelle Ressourcen für bestimmte Serviceverbesserungen nicht im notwendigen Umfang oder Zeitrahmen verfügbar sein.

Die in dieser Befragung ermittelten Daten haben allen Bibliotheken wichtige Ansatzpunkte zur Verbesserung ihres Serviceangebotes geliefert. Ob diese auch in signifikanten Verbesserungen der Dienstleistungsqualität resultieren werden, ist zum gegenwärtigen Zeitpunkt noch nicht abzuschätzen. Ein direkter Austausch von Informationen z.B. in Form von Besuchen von "Best Practice"-Bibliotheken war zum Zeitpunkt der Nachbefragung erst von wenigen Teilnehmern systematisch initiiert worden. Zudem bestätigte sich in den Interviews, dass die bibliotheksspezifische Auswertung und Umsetzung geeignete interne Organisationsstrukturen erfordert: So war die Umsetzung überwiegend in den Bibliotheken weiter fortgeschritten, in denen mehrköpfige Arbeitsgruppen als Teil einer qualitätsorientierten und partizipativen "Unternehmens"-kultur fest installiert wurden.

Einen Beitrag zur kontinuierlichen Anpassung der Bibliotheksangebote an die Kundenbedürfnisse kann Benchmarking nur dann leisten, wenn die Evaluation in angemessenem Zeitabstand wiederholt wird. Mit einer erneuten Befragung können die Wirkungen von Verbesserungsmaßnahmen evaluiert und zwischenzeitliche Veränderungen der Kundenbedürfnisse festgestellt werden. Bei der Festlegung eines Wiederholungszeitpunktes ist zu berücksichtigen, dass umfassende Maßnahmen mit vorübergehenden Verschlechterungen der Benutzungssituation verbunden sein können oder erst mittelfristig Wirkung zeigen, wie z.B. der Austausch einer Klimaanlage oder die Neuverhandlung eines Servicevertrages für Kopiergeräte. Aus diesem Grund und aufgrund des notwendigen organisatorischen Aufwands hat sich die Wiederholung von Kundenbefragungen im Zeitraum von zwei bis drei Jahren eingebürgert.


Literatur

Böhnert, A.-A. (1999): Benchmarking - Charakteristik eines aktuellen Managementinstruments, Hamburg.

Ceynowa, K. ; Coners, A. (2002): Balanced Scorecard für wissenschaftliche Bibliotheken, Frankfurt.

Dokter, G. ; Heidecke, M. (1997): Bibliotheksranking - Ein Vergleich von Universitätsbibliotheken im Kielwasser des FOCUS-Uni-Tests, in: Bibliotheksdienst 31, H. 10, S. 1946-1972.

Follmer, R.; Guschker, S.; Mundt, S. (2002): Gemeinsame Benutzerbefragung der nordrhein-westfälischen Universitätsbibliotheken - methodisches Vorgehen und Erfahrungen, in: Bibliotheksdienst 36, H.1, S. 18-33.

Follmer, R.; Guschker, S.; Mundt, S. (2002a): "Alles, was man zum Lernen braucht..." - Übergreifende Ergebnisse der Benutzerbefragung in den nordrhein-westfälischen Universitätsbibliotheken 2001, in: ProLibris 7, H.1, S. 20-26.

Hentschel, B. (2000): Multiattributive Messung der Dienstleistungsqualität, in: Dienstleistungsqualität: Konzepte - Methoden - Erfahrungen, hrsg. von M. Bruhn und B. Stauss, Wiesbaden, S. 289-320.

Homburg, C.; Rudolph, B. (1998): Theoretische Perspektiven zur Kundenzufriedenheit, in: Kundenzufriedenheit: Konzepte - Methoden - Erfahrungen, hrsg. von H. Simon und C. Homburg, Wiesbaden, S. 33-55.

Hornbostel, S. (2001): Evaluation und Hochschulranking - Führen sie zu mehr Transparenz und Vergleichbarkeit? in: Viel Lärm um nichts? Evaluation von Studium und Lehre und ihre Folgen, Hrsg. Hochschulrektorenkonferenz, Gütersloh, S. 81-96 (Beiträge zur Hochschulpolitik 4/1999).

Komus, Ayelt (2001): Benchmarking als Instrument der Intelligenten Organisation, Wiesbaden.

Leibfried, K.H.J.; McNair, C.J. (1992): Benchmarking - a tool for continuous improvement, New York.

Poll, R. (1999): Drei Jahre Betriebszahlen für Universitätsbibliotheken, in: ProLibris 4, H.2, S. 35-37.

Town, S. (Ed., 2000): SCONUL benchmarking manual, London.

West, C. (2001): Measuring user satisfaction: a practical guide for academic libraries, London.

Zink, K.J. (1995): TQM als integratives Managementkonzept, München.


Zu den Autoren

Dipl.-Kfm Sebastian Mundt ist Erwerbungsleiter der

Bibliothek der Universität der Bundeswehr
Holstenhofweg 85
D-22043 Hamburg
E-Mail: sebastian.mundt@unibw-hamburg.de

Dr. Stefan Guschker

infas Institut für angewandte Sozialwissenschaften GmbH
Margaretenstraße 1
D-53175 Bonn
E-Mail: s.guschker@infas.de