Zurück zum Blog
Compliance
AI Act

Monitoring von KI-Systemen: Überwachungspflichten nach dem AI Act

Der AI Act verlangt laufendes Monitoring von KI-Systemen. Welche Pflichten gelten, was überwacht werden muss und wie Sie ein KI-Monitoring aufbauen.

KCT
KI Comply TeamKI-Compliance Experten
4. Juli 20255 Min. Lesezeit
Monitoring von KI-Systemen: Überwachungspflichten nach dem AI Act

Monitoring von KI-Systemen: Überwachungspflichten nach dem AI Act

Das Wichtigste in Kürze: KI-Systeme sind keine statischen Softwareprodukte – sie verändern sich im Betrieb durch neue Daten, veränderte Nutzungsmuster und externe Einflüsse. Deshalb verlangt die KI-Verordnung (VO (EU) 2024/1689) ein laufendes Monitoring auf mehreren Ebenen: Anbieter müssen nach Art. 72 ein Post-Market-Monitoring-System einrichten, Betreiber sind nach Art. 26 Abs. 5 zur Überwachung der Systemausgaben und nach Art. 14 zur menschlichen Aufsicht verpflichtet. Bei schwerwiegenden Vorfällen greift die Meldepflicht nach Art. 73. Wer KI-Monitoring vernachlässigt, riskiert nicht nur Bußgelder von bis zu 15 Millionen Euro oder 3 % des weltweiten Jahresumsatzes (Art. 99 Abs. 4 VO (EU) 2024/1689), sondern auch reale Schäden durch unkontrollierte Modellverschlechterung, Bias-Drift und Sicherheitslücken.


Inhaltsverzeichnis

  1. Warum KI-Monitoring unverzichtbar ist
  2. Post-Market-Monitoring für Anbieter (Art. 72)
  3. Betreiber-Monitoring: Logs und menschliche Aufsicht
  4. Incident Reporting nach Art. 73
  5. Was muss überwacht werden? Die 6 Monitoring-Dimensionen
  6. Aufbau eines KI-Monitoring-Systems in 6 Schritten
  7. Tools und Methoden für KI-Monitoring
  8. Häufig gestellte Fragen (FAQ)
  9. Nächste Schritte

Warum KI-Monitoring unverzichtbar ist {#warum-ki-monitoring}

Klassische Software verhält sich nach dem Deployment vorhersehbar: Der Code ändert sich nicht, solange kein Update eingespielt wird. Bei KI-Systemen ist das grundlegend anders. Selbst ein unverändertes Modell kann im Laufe der Zeit schlechtere Ergebnisse liefern, weil sich die Eingabedaten verändern – ein Phänomen, das als Data Drift oder Concept Drift bekannt ist.

KI-Monitoring adressiert vier zentrale Risikobereiche:

1. Drift und Performance-Verschlechterung

Ein Kreditscoring-Modell, das 2024 trainiert wurde, kann 2026 systematisch falsche Bewertungen liefern, weil sich die wirtschaftlichen Rahmenbedingungen verändert haben. Ohne Monitoring bleibt diese Verschlechterung unbemerkt – mit potenziell gravierenden Folgen für Betroffene und das Unternehmen.

2. Bias-Entwicklung im Betrieb

Selbst wenn ein KI-System bei der Markteinführung keine diskriminierenden Muster aufweist, können sich durch veränderte Trainingsdaten, Feedback-Schleifen oder demografische Verschiebungen neue Bias-Muster entwickeln. Art. 10 Abs. 2 lit. f VO (EU) 2024/1689 verlangt ausdrücklich die Prüfung möglicher Verzerrungen – diese Pflicht endet nicht mit dem Go-Live.

3. Sicherheitsrisiken

KI-Systeme können Ziel von Adversarial Attacks, Prompt Injection oder Data Poisoning werden. Laufendes Sicherheitsmonitoring erkennt ungewöhnliche Eingabemuster, manipulierte Datenströme oder verdächtige Systemreaktionen frühzeitig.

4. Compliance-Anforderungen

Der AI Act macht Monitoring nicht optional, sondern zur rechtlichen Pflicht. Sowohl Anbieter als auch Betreiber von Hochrisiko-KI-Systemen müssen nachweisen können, dass sie den Betrieb ihrer Systeme kontinuierlich überwachen. Ohne dokumentiertes Monitoring fehlt ein wesentlicher Compliance-Nachweis.


Post-Market-Monitoring für Anbieter (Art. 72) {#post-market-monitoring}

Art. 72 VO (EU) 2024/1689 verpflichtet Anbieter von Hochrisiko-KI-Systemen, ein Post-Market-Monitoring-System einzurichten. Dieses System muss verhältnismäßig zur Art der KI-Technologie und den Risiken des Systems sein.

Was Art. 72 konkret verlangt

Das Post-Market-Monitoring-System muss laut Art. 72 Abs. 2 VO (EU) 2024/1689:

  • Daten aktiv und systematisch erheben, die Anbieter von Nutzern erhalten oder anderweitig sammeln können, um die fortlaufende Einhaltung der Anforderungen aus Kapitel III Abschnitt 2 zu bewerten
  • Geeignet sein, etwaige Risiken zu identifizieren, die von KI-Systemen ausgehen können
  • Korrekturmaßnahmen ermöglichen, wenn Risiken identifiziert werden
  • Den Anbieter in die Lage versetzen, auf Grundlage der erhobenen Daten eine Bewertung durchzuführen und erforderlichenfalls die Konformitätsbewertung zu aktualisieren

Post-Market-Monitoring-Plan

Art. 72 Abs. 3 verlangt die Erstellung eines Post-Market-Monitoring-Plans, der Teil der technischen Dokumentation nach Anhang IV ist. Dieser Plan muss mindestens enthalten:

  • Die Definition der zu erhebenden Datenarten und Datenquellen
  • Die Häufigkeit der Datenerhebung und -auswertung
  • Die Festlegung von Schwellenwerten und Kriterien, bei deren Überschreitung Maßnahmen ausgelöst werden
  • Die Beschreibung der Korrektur- und Präventivmaßnahmen
  • Die Verfahren zur Information der zuständigen Behörden

Abgrenzung: Post-Market-Monitoring vs. Post-Market-Surveillance

Es ist wichtig, zwischen dem Post-Market-Monitoring des Anbieters (Art. 72) und der Marktüberwachung durch Behörden (Art. 74 ff.) zu unterscheiden. Art. 72 beschreibt die Eigenüberwachungspflicht des Anbieters. Die Marktüberwachungsbehörden greifen ergänzend ein und können auf Grundlage der Monitoring-Daten des Anbieters eigene Maßnahmen ergreifen – bis hin zum Rückruf eines KI-Systems (Art. 79 VO (EU) 2024/1689).


Betreiber-Monitoring: Logs und menschliche Aufsicht {#betreiber-monitoring}

Auch Betreiber – also Unternehmen, die Hochrisiko-KI-Systeme einsetzen, ohne sie selbst zu entwickeln – unterliegen eigenständigen Monitoring-Pflichten. Diese ergeben sich vor allem aus Art. 26 Abs. 5 und Art. 14 VO (EU) 2024/1689.

Log-Überwachung nach Art. 26 Abs. 5

Art. 26 Abs. 5 VO (EU) 2024/1689 verpflichtet Betreiber von Hochrisiko-KI-Systemen, die automatisch erzeugten Protokolle (Logs) zu überwachen, soweit diese unter ihrer Kontrolle stehen. Die Logs müssen gemäß Art. 12 VO (EU) 2024/1689 mindestens folgende Informationen enthalten:

  • Nutzungszeiträume des Systems (Start und Ende jeder Nutzung)
  • Die Referenzdatenbank, gegen die Eingabedaten geprüft werden
  • Eingabedaten, bei denen die Suche zu einer Übereinstimmung geführt hat
  • Die Identifizierung der an der menschlichen Überprüfung beteiligten natürlichen Personen gemäß Art. 14 Abs. 5

Betreiber müssen diese Logs mindestens sechs Monate aufbewahren, sofern nicht andere Rechtsvorschriften eine längere Aufbewahrungsfrist vorsehen (Art. 26 Abs. 6 VO (EU) 2024/1689).

Menschliche Aufsicht nach Art. 14

Art. 14 VO (EU) 2024/1689 legt fest, dass Hochrisiko-KI-Systeme so konzipiert sein müssen, dass sie von natürlichen Personen wirksam beaufsichtigt werden können. Für Betreiber bedeutet das konkret:

  • Benennung von qualifizierten Aufsichtspersonen, die die Funktionsweise des Systems verstehen
  • Sicherstellung, dass Aufsichtspersonen Anomalien, Funktionsstörungen und unerwartete Leistungen erkennen können
  • Fähigkeit, das System jederzeit durch einen Stopp-Mechanismus unterbrechen oder abschalten zu können (Art. 14 Abs. 4 lit. e)
  • Möglichkeit, die Ausgabe des Systems zu ignorieren, zu überschreiben oder rückgängig zu machen (Art. 14 Abs. 4 lit. d)

Die menschliche Aufsicht ist kein einmaliger Akt, sondern ein laufender Prozess: Aufsichtspersonen müssen regelmäßig die Systemausgaben prüfen, dokumentierte Eskalationswege nutzen können und bei Auffälligkeiten eingreifen.

Besonderheit: Betreiber als Quasi-Anbieter

Art. 25 VO (EU) 2024/1689 regelt Fälle, in denen Betreiber zu Anbietern werden – etwa wenn sie ein KI-System wesentlich verändern oder unter eigenem Namen auf den Markt bringen. In diesen Fällen gelten die vollen Anbieter-Pflichten aus Art. 72, einschließlich der Pflicht zum Post-Market-Monitoring-System.


Incident Reporting nach Art. 73 {#incident-reporting}

Art. 73 VO (EU) 2024/1689 begründet eine Meldepflicht bei schwerwiegenden Vorfällen (Serious Incidents). Anbieter und – in bestimmten Fällen – Betreiber müssen Vorfälle den zuständigen Marktüberwachungsbehörden melden.

Wann muss gemeldet werden?

Ein meldepflichtiger schwerwiegender Vorfall liegt vor, wenn ein Hochrisiko-KI-System unmittelbar oder mittelbar verursacht:

  • Den Tod einer Person oder schwere Gesundheitsschäden
  • Eine schwerwiegende und irreversible Störung der Verwaltung oder des Betriebs kritischer Infrastrukturen
  • Einen Verstoß gegen Grundrechte der Union
  • Schwere Sachschäden an Eigentum oder der Umwelt

Meldefristen

Die Meldung muss unverzüglich nach Kenntniserlangung erfolgen, spätestens jedoch innerhalb von 15 Tagen nach Feststellung des ursächlichen Zusammenhangs zwischen dem KI-System und dem Vorfall (Art. 73 Abs. 1 VO (EU) 2024/1689). Bei unmittelbarer Gefahr für Leib und Leben verkürzt sich die Frist entsprechend.

Anforderungen an die Meldung

Die Meldung an die Marktüberwachungsbehörde muss mindestens enthalten:

  • Eine Beschreibung des Vorfalls und der Schwere der Auswirkungen
  • Die Identifizierung des KI-Systems (Typ, Version, Registrierungsnummer)
  • Angaben zu den bereits ergriffenen Korrekturmaßnahmen
  • Soweit bekannt, die Ursache des Vorfalls

Zusammenhang mit dem Monitoring

Das Incident Reporting ist kein isolierter Prozess, sondern direkt an das Monitoring-System gekoppelt. Nur wer systematisch überwacht, kann schwerwiegende Vorfälle rechtzeitig erkennen und innerhalb der gesetzlichen Fristen melden. Ein wirksames Monitoring ist damit die Voraussetzung für die Einhaltung der Meldepflichten.


Was muss überwacht werden? Die 6 Monitoring-Dimensionen {#monitoring-dimensionen}

Ein umfassendes KI-Monitoring umfasst sechs Dimensionen. Die folgende Tabelle gibt einen Überblick über die jeweiligen Metriken, Methoden und regulatorischen Bezüge:

DimensionWas wird überwacht?Typische MetrikenRegulatorischer Bezug
PerformanceModellgenauigkeit, Antwortqualität, LatenzAccuracy, F1-Score, Precision, Recall, AntwortzeitArt. 9 Abs. 2, Art. 72 VO (EU) 2024/1689
Fairness / BiasDiskriminierende Muster, GruppenunterschiedeDemographic Parity, Equalized Odds, Disparate Impact RatioArt. 10 Abs. 2 lit. f, Art. 9 Abs. 5 VO (EU) 2024/1689
DatendriftVeränderung der Eingabedaten gegenüber den TrainingsdatenPopulation Stability Index (PSI), Kolmogorow-Smirnow-Test, Jensen-Shannon-DivergenzArt. 72 Abs. 2 VO (EU) 2024/1689
SicherheitAngriffe, Manipulation, ungewöhnliche EingabemusterAnomalie-Rate, Adversarial-Detection-Score, Input-ValidierungsfehlerArt. 15 VO (EU) 2024/1689, Art. 9 Abs. 2 lit. d
NutzungsverhaltenWie das System tatsächlich eingesetzt wird, MissbrauchNutzungsfrequenz, Abweichung vom Intended Use, Override-RateArt. 13, Art. 14 Abs. 4 VO (EU) 2024/1689
Compliance-StatusEinhaltung regulatorischer AnforderungenDokumentationsvollständigkeit, Audit-Ergebnisse, SchulungsstatusArt. 11, Art. 17, Art. 26 VO (EU) 2024/1689

Performance-Monitoring

Die Leistungsfähigkeit eines KI-Systems ist keine statische Eigenschaft. Performance-Monitoring prüft kontinuierlich, ob das System die definierten Leistungskennzahlen einhält. Dabei werden die aktuellen Systemausgaben gegen Baseline-Werte verglichen, die bei der Inbetriebnahme oder nach dem letzten Re-Training festgelegt wurden. Bei Unterschreitung definierter Schwellenwerte werden automatisiert Alerts ausgelöst.

Fairness- und Bias-Monitoring

Bias-Monitoring geht über den einmaligen Fairness-Test vor dem Deployment hinaus. Es prüft laufend, ob das System bestimmte Personengruppen systematisch benachteiligt – etwa nach Geschlecht, Alter, Herkunft oder Behinderung. Besonders relevant ist dies bei KI-Systemen in den Bereichen Personalwesen (Anhang III Nr. 4 VO (EU) 2024/1689), Kreditvergabe und öffentliche Verwaltung.

Datendrift-Monitoring

Data Drift beschreibt die statistische Abweichung der aktuellen Eingabedaten von den Trainingsdaten. Wenn sich die Eingabedaten signifikant verändern, kann das Modell außerhalb seines trainierten Bereichs operieren – mit unvorhersehbaren Ergebnissen. Drift-Monitoring setzt auf statistische Tests, die Verteilungsverschiebungen frühzeitig erkennen.

Sicherheits-Monitoring

Art. 15 VO (EU) 2024/1689 verlangt von Hochrisiko-KI-Systemen ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit. Sicherheits-Monitoring umfasst die Erkennung von Adversarial Inputs, die Überwachung von API-Zugriffen auf ungewöhnliche Muster und die Kontrolle der Datenintegrität in Echtzeit.


Aufbau eines KI-Monitoring-Systems in 6 Schritten {#aufbau-monitoring-system}

Der Aufbau eines KI-Monitoring-Systems lässt sich in sechs strukturierte Schritte gliedern:

Schritt 1: KI-Systeme inventarisieren und klassifizieren

Bevor Sie Monitoring einrichten können, müssen Sie wissen, welche KI-Systeme in Ihrem Unternehmen im Einsatz sind und welcher Risikoklasse sie unterliegen. Erstellen Sie ein vollständiges KI-Inventar und priorisieren Sie das Monitoring nach Risikoklasse – Hochrisiko-Systeme nach Anhang III VO (EU) 2024/1689 haben höchste Priorität.

Schritt 2: Monitoring-Anforderungen definieren

Für jedes KI-System definieren Sie auf Basis der Risikoklassifizierung:

  • Welche Metriken überwacht werden (aus den 6 Dimensionen)
  • Welche Schwellenwerte akzeptabel sind und wann Alarme ausgelöst werden
  • In welchen Intervallen die Überwachung stattfindet (Echtzeit, täglich, wöchentlich)
  • Wer für die Auswertung verantwortlich ist

Schritt 3: Technische Infrastruktur aufbauen

Richten Sie die technische Grundlage für das Monitoring ein:

  • Logging-Pipeline für die systematische Erfassung von Eingaben, Ausgaben und Metadaten
  • Monitoring-Dashboard zur Visualisierung der definierten Metriken
  • Alerting-System für automatische Benachrichtigungen bei Schwellenwertüberschreitungen
  • Datenspeicher für die revisionssichere Aufbewahrung der Monitoring-Daten (mindestens 6 Monate gemäß Art. 26 Abs. 6)

Schritt 4: Rollen und Verantwortlichkeiten festlegen

Definieren Sie klar, wer im Monitoring-Prozess welche Aufgabe übernimmt:

  • KI-Monitoring-Verantwortliche werten die Dashboards aus und eskalieren bei Auffälligkeiten
  • Aufsichtspersonen nach Art. 14 prüfen Systemausgaben und können eingreifen
  • Data Scientists / ML Engineers analysieren Drift und Performance-Verschlechterungen
  • Compliance-Beauftragte bewerten die regulatorische Relevanz von Monitoring-Ergebnissen
  • Geschäftsführung wird bei schwerwiegenden Vorfällen informiert und entscheidet über Korrekturmaßnahmen

Schritt 5: Eskalations- und Reaktionsprozesse implementieren

Monitoring ist nur dann wirksam, wenn auf identifizierte Probleme auch systematisch reagiert wird. Definieren Sie:

  • Eskalationsstufen (z. B. gelb = Beobachtung, orange = vertiefte Analyse, rot = sofortige Maßnahme)
  • Reaktionszeiten für jede Stufe
  • Korrekturmaßnahmen wie Re-Training, Parameteranpassung, Einschränkung der Nutzung oder Abschaltung
  • Meldeprozess für schwerwiegende Vorfälle gemäß Art. 73 (wer meldet an wen innerhalb welcher Frist?)

Schritt 6: Dokumentation und kontinuierliche Verbesserung

Dokumentieren Sie alle Monitoring-Aktivitäten, Ergebnisse und ergriffenen Maßnahmen. Diese Dokumentation ist aus zwei Gründen essenziell:

  • Sie dient als Compliance-Nachweis gegenüber Marktüberwachungsbehörden (Art. 72 Abs. 3, Art. 26 Abs. 5)
  • Sie bildet die Grundlage für die kontinuierliche Verbesserung des Monitoring-Systems selbst

Führen Sie in regelmäßigen Abständen Monitoring-Reviews durch, um die Wirksamkeit Ihrer Überwachungsmaßnahmen zu bewerten und anzupassen.


Tools und Methoden für KI-Monitoring {#tools-und-methoden}

Für die technische Umsetzung des KI-Monitoring stehen verschiedene Tools und Methoden zur Verfügung. Die Auswahl hängt von der Komplexität der eingesetzten KI-Systeme, der verfügbaren Infrastruktur und den regulatorischen Anforderungen ab.

Open-Source-Tools

  • Evidently AI: Spezialisiert auf Data Drift, Performance-Monitoring und Bias-Erkennung. Erzeugt standardisierte Reports, die als Compliance-Dokumentation dienen können.
  • Whylogs / WhyLabs: Lightweight-Profiling für ML-Modelle in Produktion. Erkennt Datenanomalien und Drift in Echtzeit.
  • Prometheus + Grafana: Bewährter Stack für Infrastruktur- und Applikationsmonitoring, der um KI-spezifische Metriken erweitert werden kann.
  • MLflow: Primär für Experiment-Tracking und Modellverwaltung, bietet aber auch Funktionen für die Überwachung von Modellen in Produktion.

Kommerzielle Plattformen

  • Fiddler AI: Umfassende ML-Monitoring-Plattform mit Fokus auf Explainability und Fairness.
  • Arthur AI: Monitoring-Plattform mit speziellem Fokus auf Bias-Detection und Performance-Monitoring.
  • Arize AI: Echtzeit-Monitoring mit integrierter Drift-Erkennung und Anomalie-Detection.

Methodische Ansätze

Neben Tools sind auch methodische Entscheidungen zu treffen:

  • Statistische Prozesskontrolle (SPC): Überträgt bewährte Methoden aus der Qualitätssicherung auf KI-Systeme. Kontrollkarten (Control Charts) visualisieren, ob ein System innerhalb definierter Grenzen operiert.
  • Champion-Challenger-Monitoring: Vergleicht die Performance des produktiven Modells (Champion) mit alternativen Modellen (Challenger), um Verschlechterungen frühzeitig zu erkennen.
  • Canary Analysis: Neue Modellversionen werden zunächst nur einem kleinen Teil der Anfragen ausgesetzt. Die Ergebnisse werden mit dem bestehenden Modell verglichen, bevor ein vollständiges Rollout erfolgt.
  • Human-in-the-Loop-Stichproben: Regelmäßige manuelle Überprüfung einer Zufallsstichprobe von Systemausgaben durch qualifizierte Fachpersonen – direkt verknüpft mit der Pflicht zur menschlichen Aufsicht nach Art. 14.

Häufig gestellte Fragen (FAQ) {#faq}

Gilt die Monitoring-Pflicht nur für Hochrisiko-KI-Systeme?

Die expliziten gesetzlichen Pflichten aus Art. 72, Art. 26 Abs. 5 und Art. 14 VO (EU) 2024/1689 gelten primär für Hochrisiko-KI-Systeme nach Art. 6 i.V.m. Anhang III. Allerdings empfiehlt sich auch für KI-Systeme mit geringerem Risiko ein angemessenes Monitoring – zum einen aus Sorgfaltspflichten (etwa nach dem allgemeinen Produktsicherheitsrecht oder der DSGVO), zum anderen als Best Practice zur Vermeidung von Reputationsschäden und Haftungsrisiken. Anbieter von GPAI-Modellen mit systemischem Risiko unterliegen zudem besonderen Monitoring-Pflichten nach Art. 55 VO (EU) 2024/1689.

Wie oft muss das Monitoring durchgeführt werden?

Der AI Act schreibt keine feste Frequenz vor, sondern verlangt eine verhältnismäßige Überwachung. Die Frequenz richtet sich nach dem Risiko: Ein KI-System für medizinische Diagnosen erfordert engmaschigeres Monitoring als ein internes Klassifizierungstool für E-Mails. In der Praxis reicht das Spektrum von Echtzeit-Monitoring (bei sicherheitskritischen Anwendungen) bis zu monatlichen oder quartalsweisen Reviews (bei unkritischen Systemen). Entscheidend ist, dass die gewählte Frequenz im Post-Market-Monitoring-Plan dokumentiert und begründet ist.

Wer ist im Unternehmen für KI-Monitoring verantwortlich?

Die Verantwortung für KI-Monitoring liegt letztlich bei der Geschäftsleitung, die diese Aufgabe an geeignete Stellen delegieren kann. In der Praxis empfiehlt sich eine geteilte Verantwortung: Die technische Überwachung (Performance, Drift, Sicherheit) liegt bei Data-Science- oder ML-Engineering-Teams. Die Compliance-Bewertung obliegt dem KI-Beauftragten oder der Rechtsabteilung. Die menschliche Aufsicht nach Art. 14 erfordert fachlich qualifizierte Personen, die den Einsatzbereich des KI-Systems verstehen. Alle Rollen sollten im KI-Governance-Framework klar definiert sein.

Was passiert, wenn das Monitoring einen schwerwiegenden Fehler aufdeckt?

Wenn das Monitoring einen Fehler identifiziert, der die Sicherheit, Grundrechte oder die Compliance des Systems beeinträchtigt, greifen mehrere Pflichten: Zunächst muss der Betreiber das System einschränken oder abschalten, wenn eine unmittelbare Gefahr besteht (Art. 14 Abs. 4 lit. e). Der Anbieter muss Korrekturmaßnahmen ergreifen (Art. 72 Abs. 2). Handelt es sich um einen schwerwiegenden Vorfall im Sinne von Art. 73, muss die Marktüberwachungsbehörde innerhalb der gesetzlichen Frist informiert werden. Alle ergriffenen Maßnahmen sind zu dokumentieren.

Können wir das Monitoring an einen Dienstleister auslagern?

Ja, die technische Durchführung des Monitoring kann an spezialisierte Dienstleister ausgelagert werden. Die rechtliche Verantwortung bleibt jedoch beim Anbieter bzw. Betreiber. Wenn Sie Monitoring auslagern, müssen Sie sicherstellen, dass der Dienstleister die Anforderungen des AI Act erfüllt, die Daten revisionssicher aufbewahrt und Sie rechtzeitig über relevante Erkenntnisse informiert. Achten Sie zudem auf datenschutzrechtliche Aspekte: Werden personenbezogene Daten im Rahmen des Monitoring verarbeitet, ist der Dienstleister als Auftragsverarbeiter nach Art. 28 DSGVO (VO (EU) 2016/679) zu behandeln.


Nächste Schritte {#naechste-schritte}

KI-Monitoring ist keine einmalige Maßnahme, sondern ein fortlaufender Prozess, der fest in der Unternehmensorganisation verankert sein muss. Die Pflichten aus Art. 72, Art. 26 Abs. 5, Art. 14 und Art. 73 VO (EU) 2024/1689 machen deutlich: Wer Hochrisiko-KI-Systeme anbietet oder betreibt, muss den Betrieb systematisch überwachen, dokumentieren und bei Problemen schnell reagieren.

Beginnen Sie mit einer Bestandsaufnahme Ihrer KI-Systeme, definieren Sie die relevanten Monitoring-Metriken und bauen Sie schrittweise ein Monitoring-System auf, das sowohl den regulatorischen Anforderungen als auch den praktischen Bedürfnissen Ihres Unternehmens entspricht.

KI Comply unterstützt Sie beim Aufbau Ihres KI-Monitoring-Systems – von der Risikoklassifizierung über die Definition der Monitoring-Strategie bis zur Schulung Ihrer Aufsichtspersonen. Sprechen Sie uns an, um Ihr KI-Monitoring auf ein solides Fundament zu stellen.

Rechtsquellen

  • Post-Market MonitoringArt. 72 VO (EU) 2024/1689 (Quelle)
  • Betreiber-MonitoringArt. 26 Abs. 5 VO (EU) 2024/1689
  • Incident ReportingArt. 73 VO (EU) 2024/1689
  • Menschliche AufsichtArt. 14 VO (EU) 2024/1689

Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.

Artikel teilen:

Machen Sie Ihr Team KI-fit

Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.

Preise ansehen