Über unsMediaKontaktImpressum
Dr. Larysa Visengeriyeva 16. April 2024

MLOps: Ein Katalysator für Compliance

Wir unterstützen proaktive Compliance durch MLOps – einen Ansatz, um MLOps-Praktiken mit den Anforderungen des EU AI Act in Einklang zu bringen, um sicherzustellen, dass KI-Anwendungen auf verantwortungsvolle, transparente und regulierungskonforme Weise eingesetzt werden. Im Folgenden skizzieren wir die Kernprinzipien von MLOps [1].

>> Im ersten Teil des Artikels haben wir die Einteilung von KI-Systemen nach dem EU AI Act in vier risikobasierte Klassen erläutert.

Machine Learning Operations (MLOps) umnfasst Methodik und technische Komponenten, um Machine-Learning-Modelle schnell, effektiv und langfristig in die Produktion zu bringen. MLOps ist das Äquivalent zu DevOps in der Software-Entwicklung: Es ist eine Erweiterung von DevOps für das Design, die Entwicklung und den nachhaltigen Einsatz von ML-Modellen in Software-Systemen. Die Einrichtung automatisierter und reproduzierbarer Daten- und ML-Pipelines reduziert die benötigte Zeit, um Modelle in die Produktion zu bringen (Time-to-Market).

Es gibt sechs interaktive Phasen im ML-Entwicklungsprozess:

  • Geschäfts- und Datenverständnis
  • Daten-Engineering
  • Modell-Engineering
  • Qualitätssicherung für ML-Systeme
  • Deployment
  • Überwachung und Wartung

Abb. 1 zeigt die wichtigsten Phasen des ML-Lebenszyklus nach CRISP-ML(Q) [2].

Im Folgenden erläutern wir, wie MLOps-Praktiken einen strukturierten Ansatz zur Verwaltung von KI-Systemen bieten, um die Einhaltung regulatorischer Standards sicherzustellen.

MLOps für verschiedene Risikokategorien

Der EU AI Act führt neue Verpflichtungen rund um die Entwicklung, Implementierung und Überwachung von hochriskanten KI-Systemen ein. MLOps-Teams müssen ihre Prozesse und Werkzeuge anpassen, um die Compliance zu erleichtern. Zu den Hauptherausforderungen gehören:

  • Identifizierung der Systeme, die als hochriskant gelten
  • Umfassende Dokumentation und das Sicherstellen von Audit zur Nachweisführung der Compliance
  • Implementierung von Tests zur Bewertung von Sicherheit, Genauigkeit, Robustheit und Risikominimierung im Gesamtzyklus des AI-Systems
  • Erkennung und Korrektur von Bias und Fehlern in der Datensammlung und den Pipelines
  • Überwachung der Modelle nach der Implementierung in der Produktion.

Die Umsetzung der Standards des EU AI Act für Rechenschaftspflicht und Transparenz könnte neue Verantwortlichkeiten für MLOps-Teams bedeuten. Die Anpassung bestehender MLOps-Praktiken wird entscheidend sein, um die neuen Verpflichtungen effektiv zu erfüllen. Im Folgenden diskutieren wir, wie MLOps-Praktiken für KI-Systeme, die unter die verschiedenen Risikokategorien des EU AI Act fallen, angepasst werden müssen und welche Anforderungen an die KI-Systeme gestellt werden.

MLOps für Hochrisiko-AI-Systeme

Die Anforderungen an hochriskante KI-Systeme unter dem EU AI Act sind darauf ausgelegt, sicherzustellen, dass diese Systeme sicher und transparent sind und grundlegende Rechte einhalten. Zu diesen Anforderungen gehören:

  • Hochwertige Datensätze: Hochriskante KI-Systeme müssen Datensätze verwenden, die repräsentativ, fehlerfrei und vollständig sind, um die Leistung des Systems zu gewährleisten. Dies ist entscheidend, um Risiken und diskriminierende Ergebnisse zu vermeiden. Die verwendeten Daten müssen relevant und unvoreingenommen sein sowie Datenschutzbestimmungen respektieren.
  • Technische Dokumentation und Aufzeichnungspflicht: Anbieter von hochriskanten KI-Systemen müssen umfangreiche Dokumentationen führen. Diese sollten das System und seinen Zweck, seine Leistung, den Design- und Entwicklungsprozess, die für das Training, das Testen und die Validierung verwendeten Daten sowie die Maßnahmen zur Sicherstellung der Einhaltung der Vorschriften beschreiben.
  • Transparenz und Bereitstellung von Informationen für Nutzer: Den Nutzern müssen ausreichende Informationen bereitgestellt werden, damit sie die Fähigkeiten und Grenzen des KI-Systems verstehen. Dies umfasst Informationen über den vorgesehenen Zweck des KI-Systems, das Genauigkeitsniveau und die Anwesenheit menschlicher Aufsicht.
  • Robustheit, Genauigkeit und Sicherheit: Hochriskante KI-Systeme müssen während ihres gesamten Lebenszyklus robust, genau und sicher sein. Sie müssen unter allen vernünftigen Bedingungen korrekt funktionieren und widerstandsfähig gegen Fehler, Inkonsistenzen und Versuche der Manipulation des Systems (Cybersicherheit) sein.
  • Aufsicht durch Menschen: Systeme müssen eine wirksame menschliche Aufsicht beinhalten, um Risiken zu verhindern oder zu minimieren. Diese Aufsicht sollte sicherstellen, dass der Betrieb des KI-Systems innerhalb seines vorgesehenen Zwecks bleibt und dass menschliches Ermessen bei Bedarf verfügbar ist.
  • Spezifische Anforderungen für bestimmte KI-Systeme: Abhängig von ihrem vorgesehenen Einsatz könnten bestimmte hochriskante KI-Systeme zusätzlichen spezifischen Anforderungen unterliegen. KI-Systeme, die in kritischer Infrastruktur verwendet werden, könnten unter anderem zusätzliche Maßnahmen zur Gewährleistung von Robustheit und Resilienz benötigen.
  • Achtung der Grundrechte: KI-Systeme sollten so gestaltet und verwendet werden, dass sie die Grundrechte, einschließlich Datenschutz, Nichtdiskriminierung und Verbraucherschutzgesetze, respektieren.
  • Konformitätsbewertung: Vor der Markteinführung oder Inbetriebnahme müssen hochriskante KI-Systeme einer Konformitätsbewertung unterzogen werden, um zu demonstrieren, dass sie diese Anforderungen erfüllen. Dieser Prozess umfasst Tests, Inspektionen oder Zertifizierungen, abhängig vom Typ des Systems.
  • Marktüberwachung nach der Markteinführung: Anbieter von hochriskanten KI-Systemen sind verpflichtet, die Leistung ihrer Systeme kontinuierlich zu überwachen und alle schwerwiegenden Vorfälle oder Funktionsstörungen den Behörden zu melden.

In der folgenden Tabelle erläutern wir spezifische MLOps-Praktiken, die die Einhaltung von Vorschriften sicherstellen, wie zum Beispiel strenge Tests, Dokumentation und die Integration menschlicher Aufsicht:

Tabelle 1: Die Implementierung von MLOps für die Anforderungen an high risk KI-Systeme gemäß dem EU AI Act

High risk AI-Systeme unter dem EU AI ActMLOps-Implementierungsmaßnahmen
Hochwertige DatensätzeDatenmanagementplattformen: Implementierung robuster Datenmanagementplattformen für die Datenerfassung, -speicherung und -verarbeitung, um die Datenqualität und -repräsentativität sicherzustellen.
Automatisierte Datenbereinigungs- und Validierungstools: Einsatz von Tools, die automatisch Fehler, Bias und Inkonsistenzen in Datensätzen erkennen und korrigieren.
Data-Governance-Richtlinien: Etablierung klarer Data-Governance-Richtlinien, um die Einhaltung von Datenschutz- und Datensicherheitsstandards zu gewährleisten.
Technische Dokumentation und AufzeichnungspflichtVersionskontrollsysteme: Einsatz von Versionskontrolle sowohl für Code als auch für Daten, um eine umfassende Dokumentation des Entwicklungsprozesses zu ermöglichen.
Automatisierte Dokumentationstools: Implementierung von Tools, die automatisch Dokumentationen zu Modellentwicklung, Datenherkunft und Entscheidungsprozessen generieren. Siehe: Model Cards Toolkit
Model Registry: Verwendung eines Modellregisters, um verschiedene Versionen und Implementierungen von Modellen nachzuverfolgen.
Transparenz und Bereitstellung von Informationen für NutzerModellerklärbarkeit: Integration von Werkzeugen, die Einblicke darüber geben, wie und warum Entscheidungen von den KI-Modellen getroffen werden.
UI für Transparenz: Entwicklung von Benutzeroberflächen, die die Fähigkeiten, Grenzen und Leistungsmetriken des KI-Systems klar kommunizieren.
Robustheit, Genauigkeit und SicherheitCI/CD-Pipelines: Einrichtung von CI/CD-Pipelines für regelmäßige Tests und Validierung von Modellen, um Robustheit und Genauigkeit zu gewährleisten.
Automatisierte Test-Frameworks: Implementierung automatisierter Tests für Model-Performance und -Sicherheit.
Cybersicherheit-Tools: Einsatz von Cybersicherheits-Werkzeugen zum Schutz von KI-Systemen vor externen Bedrohungen und Datenverletzungen.
Aufsicht durch MenschenAlerting und Monitoring: Entwicklung von Systemen, die menschliche Aufseher bei Anomalien oder Abweichungen von der erwarteten Leistung warnen.
Schnittstellen für menschliche Eingriffe: Erstellung benutzerfreundlicher Schnittstellen für menschliche Bediener, um die Entscheidungen des KI-Systems bei Bedarf zu überwachen und einzugreifen.
Spezifische Anforderungen für bestimmte KI-SystemeSpezialisierte Testprotokolle: Entwicklung und Implementierung spezialisierter Testprotokolle, die auf die einzigartigen Bedürfnisse spezifischer KI-Systeme zugeschnitten sind.
Achtung der GrundrechteEthik-KI-Frameworks: Implementierung von Frameworks und Richtlinien, die sicherstellen, dass KI-Modelle ethischen Standards und grundlegenden Rechten entsprechen.
Werkzeuge zur Erkennung und Minderung von Bias: Einsatz von Werkzeugen zur Erkennung und Minderung von Bias in KI-Modellen, um Fairness und Nichtdiskriminierung zu gewährleisten.
KonformitätsbewertungInternes Audit: SMACTR als End-to-End-Framework für interne algorithmische Audits [3].
Marktüberwachung nach der MarkteinführungModel Monitoring: Implementierung von Tools zur kontinuierlichen Überwachung der Modellleistung und zur Erkennung von Drift oder Degradation im Laufe der Zeit.
Incident-Response-Mechanismen: Einrichtung von Mechanismen zur schnellen Reaktion auf alle schwerwiegenden Vorfälle oder Funktionsstörungen und darauf folgende Berichterstattung.

MLOps für limited risk AI Systeme

Um den Anforderungen an begrenzt riskante KI-Systeme unter dem EU AI Act gerecht zu werden, sollten folgende MLOps-Prozesse implementiert werden:

  • Nutzertransparenz: Entwicklung und Integration klarer Benutzeroberflächen und Kommunikationsstrategien, die sicherstellen, dass Benutzer eindeutig erkennen können, wenn sie mit einem KI-System interagieren. Dies kann durch explizite Hinweise oder Kennzeichnungen innerhalb der Benutzeroberfläche geschehen, die darauf aufmerksam machen, dass eine KI im Einsatz ist.
  • Informationsbereitstellung: Implementierung von Funktionen oder Modulen innerhalb der KI-Systeme, die Benutzern detaillierte Informationen über die Fähigkeiten und Grenzen des KI-Systems bereitstellen. Dies könnte durch FAQs, Hilfeabschnitte oder interaktive Anleitungen erfolgen, die innerhalb der KI-Anwendung zugänglich sind.
  • Kennzeichnung von KI-Interaktionen: Einrichtung klarer Protokolle und Richtlinien für die Kennzeichnung aller KI-generierten Inhalte oder Antworten in einer Weise, die für die Benutzer verständlich und erkennbar ist. Dies ist besonders wichtig in Bereichen, in denen KI-Systeme zur Kommunikation oder Interaktion mit Benutzern verwendet werden, wie z. B. Chatbots im Kundenservice.
  • Einhaltung bestehender Gesetze: Sicherstellung, dass KI-Systeme die bestehende EU-Gesetzgebung, einschließlich Verbraucherschutz, Datenschutz, Nichtdiskriminierung usw., einhalten. Dies erfordert eine kontinuierliche Überprüfung und Anpassung der KI-Systeme und -Prozesse, um mit den rechtlichen Anforderungen Schritt zu halten.
  • Codes-of-Conduct-Einhaltung: Anregung und Unterstützung der Entwicklung und Annahme von freiwilligen Verhaltenskodizes innerhalb des MLOps-Teams und der Organisation. Dieser Code of Conduct könnte Best Practices und ethische Richtlinien für die Entwicklung und den Einsatz von KI-Systemen umfassen, die über die gesetzlichen Anforderungen hinausgehen.

Durch die Implementierung dieser Anforderungen können Teams sicherstellen, dass ihre begrenzt riskanten KI-Systeme transparent und verantwortungsvoll gegenüber den Benutzern sind. Dies trägt nicht nur zur Compliance bei, sondern fördert auch das Vertrauen und die Akzeptanz der KI-Technologie bei den Endbenutzern.

Tabelle 2: Die Implementierung von MLOps für die Anforderungen an limited risk KI-Systeme gemäß dem EU AI Act.

Anforderungen an limited risk AI- Systeme unter dem EU AI ActMLOps Implementierungsmaßnahmen
NutzertransparenzBenachrichtigung für Benutzer: Implementierung von Funktionen in der KI-Anwendung, die Benutzer automatisch darüber informieren, dass sie mit einem KI-System interagieren. Dies kann eine einfache anfängliche Nachricht oder ein kontinuierlicher Indikator sein.
Modellerklärbarkeit: Einsatz von Werkzeugen, die verständliche Erklärungen für die Entscheidungen oder Aktionen des KI-Systems liefern können, wodurch es für die Benutzer transparenter wird.
InformationsbereitstellungDokumentation und Metadaten-Management: Einsatz von Systemen, die eine klare Dokumentation und Metadaten über die Fähigkeiten und Grenzen des KI-Systems pflegen, die leicht an Benutzer kommuniziert werden können. Siehe: Model Cards Toolkit [4].
Kennzeichnung von KI-InteraktionenEingebettete KI-Indikatoren: Einbindung klarer Indikatoren in die Benutzeroberfläche oder Ausgabe des KI-Systems, die dem Benutzer signalisieren, dass er mit einer KI interagiert. Dies können visuelle Symbole, Sprachnotizen oder schriftliche Haftungsausschlüsse sein.
Audit: Durchführung von Audits, um die Interaktionen des Systems mit den Benutzern zu protokollieren, was für Compliance- und Überwachungszwecke nützlich sein kann.
Einhaltung bestehender GesetzeAutomatisierte Compliance-Prüfungen: Implementierung automatisierter Prüfungen innerhalb der Entwicklungs- und Bereitstellungsprozesse des KI-Systems, um die fortlaufende Einhaltung notwendiger rechtlicher Standards zu gewährleisten.
Codes of Conduct Einhaltung

Ethik- und Compliance-Schulungen: Bereitstellung kontinuierlicher Schulungen für das Entwicklungsteam zu ethischen KI-Praktiken und der Einhaltung von Verhaltenskodizes.

Bei einem AI-gesteuerten Produktempfehlungssystem konzentriert sich das MLOps-Team beispielsweise auf Transparenz und Rechenschaftspflicht. Es implementiert Funktionen, die es Benutzern ermöglichen zu verstehen, warum bestimmte Produkte empfohlen werden, und stellt sicher, dass es Möglichkeiten gibt, sich von personalisierten Empfehlungen abzumelden. Damit entsprechen sie den Anforderungen des EU AI Act bezüglich der Benutzerrechte und Transparenz.

Zusammenfassung

In diesem Artikel haben wir eine proaktive Compliance empfohlen, bei der MLOps eine entscheidende Rolle bei der Implementierung der Anforderungen des EU AI Act spielt. Zusammenfassend schlagen wir diese fünf wichtigsten Best Practices für MLOps vor, um die Einhaltung des EU AI Act zu gewährleisten:

  1. Kontinuierliches Modellmonitoring und automatisierte Pipelines für das erneute Training von Modellen bei Erkennung von Drift oder Degradation implementieren. Dies spricht die Anforderungen des EU AI Act an Genauigkeit und Robustheit für Systeme mit hohem und begrenztem Risiko an.
  2. Umfassende Dokumentation, Protokollierung und Nachverfolgung der Herkunft rund um alle Experimente, Modelle und Produktionsdaten aufrechterhalten, um Transparenz und Überprüfbarkeit zu gewährleisten.
  3. Integration von MLOps-Plattformen mit internen Audit- und Risikomanagementsystemen, um Bewertungen der Konformität, des Risikos und von Minderungsstrategien zu ermöglichen.
  4. Bereitstellung von Transparenzfähigkeiten für Benutzer durch Zusammenfassungen, Anweisungen und Sichtbarkeit in das Modellverhalten.
  5. Kontinuierliche Überwachung, Feedbackschleifen und Validierung in jeder Phase des ML-Lebenszyklus annehmen. Dies fördert die Rechenschaftspflicht und Nachvollziehbarkeit, um den technischen Standards des EU AI Act gerecht zu werden.
Autorin
Dr. Larysa Visengeriyeva

Dr. Larysa Visengeriyeva

Dr. Larysa Visengeriyeva hat im Bereich Augmented Data Quality an der TU Berlin promoviert. Bei INNOQ beschäftigt sie sich mit dezentralisierten Datenarchitekturen und der Operationalisierung von Machine Learning (MLOps). Sie ist…
>> Weiterlesen
Das könnte Sie auch interessieren
Kommentare (0)

Neuen Kommentar schreiben