28.10.2021 – Kategorie: Geschäftsstrategie
Managementsysteme: Wie diese eine vertrauenswürdige künstliche Intelligenz fördern
Datenschutz, Compliance- oder Risiko-Management: KI-Technologien stellen Unternehmen vor große Herausforderungen. Wie Managementsysteme eine vertrauenswürdige künstliche Intelligenz ermöglichen.
Damit Entwickler in Unternehmen KI-Technologien systematisch und strukturiert angehen können, arbeiten derzeit verschiedene Institutionen an Leitlinien und Standards zum Management von künstlicher Intelligenz (KI). Das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS hat in der neuen Studie „Management System Support for Trustworthy Artificial Intelligence“ den Standard-Entwurf für Managementsysteme für KI der International Organization for Standardization (ISO) und die bisherigen Richtlinien miteinander verglichen. Die von Microsoft beauftragte Studie zeigt, inwieweit solche Managementsysteme Unternehmen beim vertrauenswürdigen Einsatz von KI-Systemen unterstützen und gleichzeitig das Vertrauen in KI-Anwendungen stärken können.
Managementsysteme ermöglichen sichere KI-Nutzung
Als Schlüsseltechnologie der Zukunft birgt künstliche Intelligenz viel Innovationspotenzial für Wirtschaft und Gesellschaft. Besonders leistungsstarke KI-Systeme, die künftig auch wichtige Aufgaben wie beim Autonomen Fahren übernehmen sollen, basieren auf der Verarbeitung großer Datenmengen. Um die damit verbundenen Risiken zu handhaben, eine sichere Nutzung zu gewährleisten und die internationale Kompatibilität zu ermöglichen, sind behördliche Richtlinien und internationale Standards notwendig. An denen können sich Unternehmen und andere Organisationen bei der Nutzung und Entwicklung neuer KI-Technologien orientieren.
Ein bisher in anderen Unternehmensbereichen geläufiges Werkzeug, um mit sensiblen Aspekten wie Informationssicherheit erfolgreich umzugehen, sind normierte Managementsysteme. Im Kontext von KI-Technologien befinden sich derlei Managementsysteme noch in der Entwicklung. Ein internationaler Standard für KI-Managementsysteme (engl. AI Management Systems, kurz AIMS) wird aktuell von der gemeinsamen Arbeitsgruppe der Normungsorganisationen International Organization for Standardization (ISO) und International Electrotechnical Commission (IEC) erarbeitet. Derzeit besteht er als Arbeitsentwurf.
KI-Technologien auf vertrauenswürdige Weise einsetzen
In der neuen Studie „Management System Support for Trustworthy Artificial Intelligence“ hat das Fraunhofer IAIS den Arbeitsentwurf des AIMS-Standards untersucht. Und zwar dahingehend, inwieweit er Unternehmen und andere Organisationen dabei unterstützen kann, KI-Technologien auf vertrauenswürdige Weise zu nutzen und zu entwickeln. Zu diesem Zweck haben die Wissenschaftler aus dem KI-Bereich den Entwurf mit den aktuellen Anforderungen und Empfehlungen für vertrauenswürdige künstliche Intelligenz verglichen. Diese wurden bisher von der Europäischen Kommission, der von ihr beauftragten Expertengruppe High-Level-Expert Group on AI (HLEG) sowie dem Bundesamt für Sicherheit in der Informationstechnik (BSI) formuliert.
Managementsysteme für KI unterstützen Governance und Compliance
Die Studie des Fraunhofer IAIS zeigt, dass die Einführung eines KI-Managementsystems für Unternehmen künftig ein wichtiger und angemessener Schritt sein kann, um geeignete Strategien und Prozesse für die vertrauenswürdige Entwicklung und Nutzung von KI-Technologien zu definieren. „Für Organisationen, die KI einsetzen, sollte das Ziel, verantwortungsvoll, vertrauenswürdig und rechtskonform zu sein, in ihrer Governance-, Risk- und Compliance-Strategie deutlich zum Ausdruck kommen“, empfiehlt Dr. Michael Mock, Co-Autor der Studie und Projektleiter am Fraunhofer IAIS.
Er leitet am Fraunhofer IAIS das vom Bundesministerium für Wirtschaft und Energie geförderte Projekt „KI-Absicherung“ für sichere KI im autonomen Fahren. Dabei können KI-Managementsysteme Unternehmen und Entwickler auch langfristig bei der Einhaltung von aktuellen und kommenden Richtlinien und Gesetzen unterstützen. „Selbst bei Vorhandensein mehrerer Interessensgruppen und komplexer Lieferketten erleichtert der Einsatz von KI-Managementsystemen die Einhaltung von Vorschriften über den gesamten Lebenszyklus von KI-Systemen hinweg“, berichtet Mock.
Wichtiger Baustein für das Vertrauen von Stakeholdern
Die Wissenschaftler des Fraunhofer IAIS heben in ihrer Studie hervor, dass die Implementierung von KI-Managementsystemen in Unternehmen auch einen positiven Einfluss auf die Akzeptanz und das Vertrauen von KI-Technologien in der Gesellschaft haben kann. „Unserer Einschätzung nach sind KI-Managementsysteme ein wichtiger Baustein, um das Vertrauen von Stakeholdern – wie zum Beispiel Kunden oder Mitarbeitende – in KI-Anwendungen wesentlich zu stärken“, sagt Dr. Maximilian Poretschkin, Co-Autor der Studie und Teamleiter KI-Absicherung und Zertifizierung am Fraunhofer IAIS.
Als eines der führenden Forschungsinstitute im Bereich künstliche Intelligenz in Europa befasst sich das Fraunhofer IAIS ebenfalls mit der Vertrauenswürdigkeit und Zuverlässigkeit von KI-Systemen. Das Institut ist unter anderem im Projekt „Zertifizierte KI“ an der Definition von praxistauglichen Prüfgrundlagen und Kriterien beteiligt. Insbesondere diese Expertise ermöglicht es den Wissenschaftlern, den bisherigen Norm-Entwurf zu KI-Managementsystemen zu bewerten. „Mit dem Regulierungsentwurf der EU-Kommission, aber auch anderen Dokumenten wie etwa den Empfehlungen der HLEG bilden sich wichtige Leitplanken für den Einsatz von KI-Anwendungen heraus. Es ist daher sehr wichtig, entstehende Standards mit diesen zu vergleichen“, sagt Dr. Maximilian Poretschkin. Darüber hinaus geben die KI-Experten in ihrer Studie konkrete Handlungsempfehlungen ab, inwiefern sich der Norm-Entwurf noch verbessern lässt.
Gegenüberstellung von Standardentwurf und KI-Leitlinien
Die über 60-seitige Studie „Management System Support for Trustworthy Artificial Intelligence“ fasst zunächst den Standardentwurf sowie die KI-Leitlinien der Europäischen Kommission (Proposal for AI Regulation), der HLEG (Assessment List for Trustworthy AI) und des BSI (AIC4-Katalog) zusammen. In der detaillierten Gegenüberstellung aller Dokumente werden neben organisatorischen auch die technischen Anforderungen miteinander verglichen. Hier orientiert sich die Struktur des Vergleichs an dem vom Fraunhofer IAIS kürzlich veröffentlichten KI-Prüfkatalog, einem Leitfaden für die Gestaltung vertrauenswürdiger Künstlicher Intelligenz. Darüber hinaus behandelt die Studie eine mögliche Zertifizierung von KI-Managementsystemen. Sie schließt mit einer Zusammenfassung der Erkenntnisse sowie Empfehlungen zur weiteren Ausarbeitung. Finanziert wurde die Studie Management System Support for Trustworthy Artificial Intelligence von Microsoft.
Als Teil der größten Organisation für anwendungsorientierte Forschung in Europa ist das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS mit Sitz in Sankt Augustin bei Bonn eines der führenden Wissenschaftsinstitute auf den Gebieten künstliche Intelligenz, Maschinelles Lernen und Big Data in Deutschland und Europa. Mit seinen mehr als 300 Mitarbeitenden unterstützt das Institut Unternehmen bei der Optimierung von Produkten, Dienstleistungen, Prozessen und Strukturen. Das Institut gibt auch Hilfestellung bei der Entwicklung neuer digitaler Geschäftsmodelle. (sg)
Teilen Sie die Meldung „Managementsysteme: Wie diese eine vertrauenswürdige künstliche Intelligenz fördern“ mit Ihren Kontakten: