19. April 2024
  WEITERE NEWS
Aktuelles aus
L
ibrary
Essentials

In der Ausgabe 2/2024 (März 2024) lesen Sie u.a.:

  • „Need to have”
    statt „nice to have”.
    Die Evolution
    der Daten in der Forschungsliteratur
  • Open-Access-Publikationen: Schlüssel zu höheren Zitationsraten
  • Gen Z und Millennials lieben
    digitale Medien UND Bibliotheken
  • Verliert Google seinen Kompass?
    Durch SEO-Spam werden
    Suchmaschinen zum Bingospiel
  • Die Renaissance des gedruckten Buches: Warum physische Bücher in der digitalen Welt relevant bleiben
  • KI-Halluzinationen: Ein Verwirrspiel
  • Die Technologie-Trends des Jahres 2024
  • KI-Policies und Bibliotheken: Ein globaler Überblick und Handlungsempfehlungen
  • Warum Bücherklauen aus der Mode gekommen ist
u.v.m.
  fachbuchjournal
Ausgabe 6 / 2023

BIOGRAFIEN
Vergessene Frauen werden sichtbar

FOTOGRAFIE
„In Lothars Bücherwelt walten magische Kräfte.“
Glamour Collection, Lothar Schirmer, Katalog einer Sammlung

WISSENSCHAFTSGESCHICHTE
Hingabe an die Sache des Wissens

MUSIK
Klaus Pringsheim aus Tokyo
Ein Wanderer zwischen den Welten

MAKE METAL SMALL AGAIN
20 Jahre Malmzeit

ASTRONOMIE
Sonne, Mond, Sterne

LANDESKUNDE
Vietnam – der aufsteigende Drache

MEDIZIN | FOTOGRAFIE
„Und ja, mein einziger Bezugspunkt
bin ich jetzt selbst“

RECHT
Stiftungsrecht und Steuerrecht I Verfassungsrecht I Medizinrecht I Strafprozessrecht

uvm

Fraunhofer IAIS veröffentlicht Studie:
KI-Managementsysteme fördern vertrauenswürdige
Künstliche Intelligenz

Datenschutz-, Risiko- oder Compliance-Management: Neue KI-Technologien stellen Unternehmen und Entwickler*innen vor neue Herausforderungen. Damit sie diese systematisch und strukturiert angehen können, arbeiten verschiedene Institutionen an Leitlinien und Standards zum Management von Künstlicher Intelligenz (KI). Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS hat in der jetzt veröffentlichten Studie »Management System Support for Trustworthy Artificial Intelligence« den Standard-Entwurf für KI-Managementsysteme der International Organization for Standardization (ISO) und die bisherigen Richtlinien miteinander verglichen. Die von Microsoft beauftragte Studie zeigt, inwieweit KI-Managementsysteme Unternehmen beim vertrauenswürdigen Einsatz von KI-Systemen unterstützen und gleichzeitig das Vertrauen in KI-Anwendungen stärken können.

Als Schlüsseltechnologie der Zukunft birgt Künstliche Intelligenz enormes Innovationspotenzial für Wirtschaft und Gesellschaft. Besonders leistungsstarke KI-Systeme, die künftig auch wichtige Aufgaben z. B. beim Autonomen Fahren übernehmen sollen, basieren auf der Verarbeitung großer Datenmengen. Um die damit verbundenen Risiken zu handhaben, eine sichere Nutzung zu gewährleisten und die internationale Kompatibilität zu ermöglichen, sind behördliche Richtlinien und internationale Standards notwendig, an denen sich Unternehmen und andere Organisationen bei der Nutzung und Entwicklung neuer KI-Technologien orientieren können. Ein bisher in anderen Unternehmensbereichen geläufiges Werkzeug, um mit sensiblen Aspekten wie z. B. Informationssicherheit erfolgreich umzugehen, sind normierte Managementsysteme. Im Kontext von KI-Technologien befinden sich derlei Managementsysteme noch in der Entwicklung. Ein internationaler Standard für KI-Managementsysteme (engl. AI Management Systems, kurz AIMS) wird aktuell von der gemeinsamen Arbeitsgruppe der Normungsorganisationen International Organization for Standardization (ISO) und International Electrotechnical Commission (IEC) erarbeitet. Derzeit besteht er als Arbeitsentwurf.

In der nun veröffentlichten Studie »Management System Support for Trustworthy Artificial Intelligence« hat das Fraunhofer IAIS den Arbeitsentwurf des AIMS-Standards dahingehend untersucht, inwieweit er Unternehmen und andere Organisationen dabei unterstützen kann, KI-Technologien auf vertrauenswürdige Weise zu nutzen und zu entwickeln. Zu diesem Zweck haben die KI-Wissenschaftler*innen den Entwurf mit den aktuellen Anforderungen und Empfehlungen für vertrauenswürdige Künstliche Intelligenz verglichen, die bisher von der Europäischen Kommission, der von ihr beauftragten Expertengruppe High-Level-Expert Group on AI (HLEG) sowie dem Bundesamt für Sicherheit in der Informationstechnik (BSI) formuliert wurden.

Die Studie des Fraunhofer IAIS zeigt, dass die Einführung eines KI-Managementsystems für Unternehmen künftig ein wichtiger und angemessener Schritt sein kann, um geeignete Strategien und Prozesse für die vertrauenswürdige Entwicklung und Nutzung von KI-Technologien zu definieren. »Für Organisationen, die KI einsetzen, sollte das Ziel, verantwortungsvoll, vertrauenswürdig und rechtskonform zu sein, in ihrer Governance-, Risk- und Compliance-Strategie deutlich zum Ausdruck kommen«, empfiehlt Dr. Michael Mock, Co-Autor der Studie, der am Fraunhofer IAIS das vom Bundesministerium für Wirtschaft und Energie geförderte Projekt »KI-Absicherung« für sichere KI im Autonomen Fahren leitet. Dabei können KI-Managementsysteme Unternehmen und Entwickler*innen auch langfristig bei der Einhaltung von aktuellen und kommenden Richtlinien und Gesetzen unterstützen. »Selbst bei Vorhandensein mehrerer Interessensgruppen und komplexer Lieferketten erleichtert der Einsatz von KI-Managementsystemen die Einhaltung von Vorschriften über den gesamten Lebenszyklus von KI-Systemen hinweg«, sagt Mock.

Die Wissenschaftler*innen des Fraunhofer IAIS heben in ihrer Studie hervor, dass die Implementierung von KI-Managementsystemen in Unternehmen auch einen positiven Einfluss auf die Akzeptanz und das Vertrauen von KI-Technologien in der Gesellschaft haben kann. »Unserer Einschätzung nach sind KI-Managementsysteme ein wichtiger Baustein, um das Vertrauen von Stakeholdern – wie zum Beispiel Kund*innen oder Mitarbeitende – in KI-Anwendungen wesentlich zu stärken«, sagt Dr. Maximilian Poretschkin, Co-Autor der Studie und Teamleiter KI-Absicherung und Zertifizierung am Fraunhofer IAIS.

Als eines der führenden Forschungsinstitute im Bereich Künstlicher Intelligenz in Europa befasst sich das Fraunhofer IAIS ebenfalls mit der Vertrauenswürdigkeit und Zuverlässigkeit von KI-Systemen und ist u. a. im Projekt »ZERTIFIZIERTE KI« an der Definition von praxistauglichen Prüfgrundlagen und Kriterienwerken beteiligt. Insbesondere diese Expertise ermöglicht es den Wissenschaftler*innen, den bisherigen Norm-Entwurf zu KI-Managementsystemen zu bewerten. »Mit dem Regulierungsentwurf der EU-Kommission, aber auch anderen Dokumenten wie etwa den Empfehlungen der HLEG bilden sich wichtige Leitplanken für den Einsatz von KI-Anwendungen heraus. Es ist daher sehr wichtig, entstehende Standards mit diesen zu vergleichen«, sagt Dr. Maximilian Poretschkin. Darüber hinaus geben die KI-Expert*innen in ihrer Studie konkrete Handlungsempfehlungen ab, inwiefern sich der Norm-Entwurf noch verbessern lässt.

Die über 60-seitige Studie fasst zunächst den Standard-Entwurf sowie die KI-Leitlinien der Europäischen Kommission (Proposal for AI Regulation), der HLEG (Assessment List for Trustworthy AI) und des BSI (AIC4-Katalog) zusammen. In der detaillierten Gegenüberstellung aller Dokumente werden neben organisatorischen auch die technischen Anforderungen miteinander verglichen. Hier orientiert sich die Struktur des Vergleichs an dem vom Fraunhofer IAIS kürzlich veröffentlichten KI-Prüfkatalog, einem Leitfaden für die Gestaltung vertrauenswürdiger Künstlicher Intelligenz. Darüber hinaus behandelt die Studie eine mögliche Zertifizierung von KI-Managementsystemen und schließt mit einer Zusammenfassung der Erkenntnisse sowie Empfehlungen zur weiteren Ausarbeitung ab.

Finanziert wurde die Studie »Management System Support for Trustworthy Artificial Intelligence« von Microsoft.

Hinweis: Am 27. Oktober 2021 stellt Dr. Michael Mock die Studie bei der Online-Tagung der Universität Köln zum Thema KI-Zertifizierung vor. Die Teilnahme ist kostenfrei.

https://www.iais.fraunhofer.de/de/forschung/kuenstliche-intelligenz/ki-management-studie.html