INNOVATIV
Band 79: Janet Wagner Band 78: Philip Franklin Orr Band 77: Carina Dony Band 76:
Linda Freyberg
Sabine Wolf (Hrsg.)
Band 75: Denise Rudolph Band 74: Sophia Paplowski Band 73: Carmen Krause Band 72:
Katrin Toetzke
Dirk Wissen
Band 71: Rahel Zoller Band 70: Sabrina Lorenz Band 69: Jennifer Hale Band 68:
Linda Schünhoff
Benjamin Flämig
Band 67:
Wilfried Sühl-Strohmenger
Jan-Pieter Barbian
Band 66: Tina Schurig Band 65: Christine Niehoff Band 64: Eva May Band 63: Eva Bunge Band 62: Nathalie Hild Band 61: Martina Haller Band 60: Leonie Flachsmann Band 59: Susanne Göttker Band 58: Georg Ruppelt Band 57: Karin Holste-Flinspach Band 56: Rafael Ball Band 55: Bettina Schröder Band 54: Florian Hagen Band 53: Anthea Zöller Band 52: Ursula Georgy Band 51: Ursula Jaksch Band 50: Hermann Rösch (Hrsg) Band 49: Lisa Maria Geisler Band 48: Raphaela Schneider Band 47: Eike Kleiner
Bestellen Sie jetzt online!
26. November 2025
  WEITERE NEWS
Aktuelles aus
L
ibrary
Essentials

In der Ausgabe 8/2025 (November 2025) lesen Sie u.a.:

  • Gen Z und Gen Alpha: Wie junge Zielgruppen Medien zwischen TikTok und Haltung neu definieren
  • Ethische Verantwortung im Umgang mit biomedizinischen Archiven
  • Open-Research-Plattformen im Praxistest
  • Digitale Technologien im Kulturerbe: Forschungsentwicklung zwischen Datenanalyse und KI-Unterstützung
  • KI-Texte beliebter als Originale
  • Zines als Impuls für soziale Gerechtigkeit in Bibliotheken
  • Ein dezentrales Fundament für Open Science: Warum Forschungsdaten neue Infrastrukturen brauchen
  • Vergessenes Wissen auf Disketten: Cambridge rettet digitale Geschichte
  • Europas Bibliotheken im Visier von Kunstraub
  • Nach dem Aus von Baker & Taylor: US-Bibliotheken suchen neue Buchgroßhändler
u.v.m.
  fachbuchjournal

Fraunhofer IAIS veröffentlicht Studie:
KI-Managementsysteme fördern vertrauenswürdige
Künstliche Intelligenz

Datenschutz-, Risiko- oder Compliance-Management: Neue KI-Technologien stellen Unternehmen und Entwickler*innen vor neue Herausforderungen. Damit sie diese systematisch und strukturiert angehen können, arbeiten verschiedene Institutionen an Leitlinien und Standards zum Management von Künstlicher Intelligenz (KI). Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS hat in der jetzt veröffentlichten Studie »Management System Support for Trustworthy Artificial Intelligence« den Standard-Entwurf für KI-Managementsysteme der International Organization for Standardization (ISO) und die bisherigen Richtlinien miteinander verglichen. Die von Microsoft beauftragte Studie zeigt, inwieweit KI-Managementsysteme Unternehmen beim vertrauenswürdigen Einsatz von KI-Systemen unterstützen und gleichzeitig das Vertrauen in KI-Anwendungen stärken können.

Als Schlüsseltechnologie der Zukunft birgt Künstliche Intelligenz enormes Innovationspotenzial für Wirtschaft und Gesellschaft. Besonders leistungsstarke KI-Systeme, die künftig auch wichtige Aufgaben z. B. beim Autonomen Fahren übernehmen sollen, basieren auf der Verarbeitung großer Datenmengen. Um die damit verbundenen Risiken zu handhaben, eine sichere Nutzung zu gewährleisten und die internationale Kompatibilität zu ermöglichen, sind behördliche Richtlinien und internationale Standards notwendig, an denen sich Unternehmen und andere Organisationen bei der Nutzung und Entwicklung neuer KI-Technologien orientieren können. Ein bisher in anderen Unternehmensbereichen geläufiges Werkzeug, um mit sensiblen Aspekten wie z. B. Informationssicherheit erfolgreich umzugehen, sind normierte Managementsysteme. Im Kontext von KI-Technologien befinden sich derlei Managementsysteme noch in der Entwicklung. Ein internationaler Standard für KI-Managementsysteme (engl. AI Management Systems, kurz AIMS) wird aktuell von der gemeinsamen Arbeitsgruppe der Normungsorganisationen International Organization for Standardization (ISO) und International Electrotechnical Commission (IEC) erarbeitet. Derzeit besteht er als Arbeitsentwurf.

In der nun veröffentlichten Studie »Management System Support for Trustworthy Artificial Intelligence« hat das Fraunhofer IAIS den Arbeitsentwurf des AIMS-Standards dahingehend untersucht, inwieweit er Unternehmen und andere Organisationen dabei unterstützen kann, KI-Technologien auf vertrauenswürdige Weise zu nutzen und zu entwickeln. Zu diesem Zweck haben die KI-Wissenschaftler*innen den Entwurf mit den aktuellen Anforderungen und Empfehlungen für vertrauenswürdige Künstliche Intelligenz verglichen, die bisher von der Europäischen Kommission, der von ihr beauftragten Expertengruppe High-Level-Expert Group on AI (HLEG) sowie dem Bundesamt für Sicherheit in der Informationstechnik (BSI) formuliert wurden.

Die Studie des Fraunhofer IAIS zeigt, dass die Einführung eines KI-Managementsystems für Unternehmen künftig ein wichtiger und angemessener Schritt sein kann, um geeignete Strategien und Prozesse für die vertrauenswürdige Entwicklung und Nutzung von KI-Technologien zu definieren. »Für Organisationen, die KI einsetzen, sollte das Ziel, verantwortungsvoll, vertrauenswürdig und rechtskonform zu sein, in ihrer Governance-, Risk- und Compliance-Strategie deutlich zum Ausdruck kommen«, empfiehlt Dr. Michael Mock, Co-Autor der Studie, der am Fraunhofer IAIS das vom Bundesministerium für Wirtschaft und Energie geförderte Projekt »KI-Absicherung« für sichere KI im Autonomen Fahren leitet. Dabei können KI-Managementsysteme Unternehmen und Entwickler*innen auch langfristig bei der Einhaltung von aktuellen und kommenden Richtlinien und Gesetzen unterstützen. »Selbst bei Vorhandensein mehrerer Interessensgruppen und komplexer Lieferketten erleichtert der Einsatz von KI-Managementsystemen die Einhaltung von Vorschriften über den gesamten Lebenszyklus von KI-Systemen hinweg«, sagt Mock.

Die Wissenschaftler*innen des Fraunhofer IAIS heben in ihrer Studie hervor, dass die Implementierung von KI-Managementsystemen in Unternehmen auch einen positiven Einfluss auf die Akzeptanz und das Vertrauen von KI-Technologien in der Gesellschaft haben kann. »Unserer Einschätzung nach sind KI-Managementsysteme ein wichtiger Baustein, um das Vertrauen von Stakeholdern – wie zum Beispiel Kund*innen oder Mitarbeitende – in KI-Anwendungen wesentlich zu stärken«, sagt Dr. Maximilian Poretschkin, Co-Autor der Studie und Teamleiter KI-Absicherung und Zertifizierung am Fraunhofer IAIS.

Als eines der führenden Forschungsinstitute im Bereich Künstlicher Intelligenz in Europa befasst sich das Fraunhofer IAIS ebenfalls mit der Vertrauenswürdigkeit und Zuverlässigkeit von KI-Systemen und ist u. a. im Projekt »ZERTIFIZIERTE KI« an der Definition von praxistauglichen Prüfgrundlagen und Kriterienwerken beteiligt. Insbesondere diese Expertise ermöglicht es den Wissenschaftler*innen, den bisherigen Norm-Entwurf zu KI-Managementsystemen zu bewerten. »Mit dem Regulierungsentwurf der EU-Kommission, aber auch anderen Dokumenten wie etwa den Empfehlungen der HLEG bilden sich wichtige Leitplanken für den Einsatz von KI-Anwendungen heraus. Es ist daher sehr wichtig, entstehende Standards mit diesen zu vergleichen«, sagt Dr. Maximilian Poretschkin. Darüber hinaus geben die KI-Expert*innen in ihrer Studie konkrete Handlungsempfehlungen ab, inwiefern sich der Norm-Entwurf noch verbessern lässt.

Die über 60-seitige Studie fasst zunächst den Standard-Entwurf sowie die KI-Leitlinien der Europäischen Kommission (Proposal for AI Regulation), der HLEG (Assessment List for Trustworthy AI) und des BSI (AIC4-Katalog) zusammen. In der detaillierten Gegenüberstellung aller Dokumente werden neben organisatorischen auch die technischen Anforderungen miteinander verglichen. Hier orientiert sich die Struktur des Vergleichs an dem vom Fraunhofer IAIS kürzlich veröffentlichten KI-Prüfkatalog, einem Leitfaden für die Gestaltung vertrauenswürdiger Künstlicher Intelligenz. Darüber hinaus behandelt die Studie eine mögliche Zertifizierung von KI-Managementsystemen und schließt mit einer Zusammenfassung der Erkenntnisse sowie Empfehlungen zur weiteren Ausarbeitung ab.

Finanziert wurde die Studie »Management System Support for Trustworthy Artificial Intelligence« von Microsoft.

Hinweis: Am 27. Oktober 2021 stellt Dr. Michael Mock die Studie bei der Online-Tagung der Universität Köln zum Thema KI-Zertifizierung vor. Die Teilnahme ist kostenfrei.

https://www.iais.fraunhofer.de/de/forschung/kuenstliche-intelligenz/ki-management-studie.html