Zurück zum Blog
Compliance
AI Act

Menschliche Aufsicht bei KI: Was Art. 14 AI Act fordert

Human Oversight ist eine Kernpflicht des AI Act. Was 'menschliche Aufsicht' konkret bedeutet, welche Modelle es gibt und wie Sie sie umsetzen.

KCT
KI Comply TeamKI-Compliance Experten
4. Oktober 20255 Min. Lesezeit
Menschliche Aufsicht bei KI: Was Art. 14 AI Act fordert

Menschliche Aufsicht bei KI: Was Art. 14 AI Act fordert

Das Wichtigste in Kürze: Der AI Act (VO (EU) 2024/1689) macht menschliche Aufsicht zur Kernpflicht für Hochrisiko-KI-Systeme. Art. 14 verlangt, dass KI-Systeme so konzipiert werden, dass natürliche Personen sie wirksam beaufsichtigen können -- während des gesamten Lebenszyklus. Dabei unterscheidet die Praxis drei Aufsichtsmodelle: Human-in-the-Loop (HITL), Human-on-the-Loop (HOTL) und Human-in-Command (HIC). Art. 14 Abs. 4 lit. b warnt ausdrücklich vor dem Automatisierungsbias -- der Gefahr, dass Aufsichtspersonen KI-Ergebnissen blind vertrauen. Gleichzeitig ergänzt die DSGVO (Art. 22) den AI Act um das Verbot rein automatisierter Entscheidungen. Unternehmen, die Hochrisiko-KI einsetzen, müssen als Betreiber nach Art. 26 Abs. 2 sicherstellen, dass die Personen, die die menschliche Aufsicht ausüben, über die nötigen Kompetenzen, Befugnisse und Ressourcen verfügen.


Inhaltsverzeichnis

  1. Was ist menschliche Aufsicht? -- Definition nach Art. 14
  2. Die drei Aufsichtsmodelle: HITL, HOTL und HIC
  3. Art. 14 Abs. 1--5 im Detail
  4. Automatisierungsbias: Die unterschätzte Gefahr
  5. Zusammenspiel mit Art. 22 DSGVO
  6. Betreiberpflichten nach Art. 26 Abs. 2
  7. Praktische Umsetzung: Rollen, Schulung, Eskalation, Dokumentation
  8. Häufig gestellte Fragen (FAQ)
  9. Nächste Schritte

Was ist menschliche Aufsicht? -- Definition nach Art. 14 {#definition}

Menschliche Aufsicht (englisch: Human Oversight) bedeutet, dass natürliche Personen in der Lage sind, die Funktionsweise eines KI-Systems zu verstehen, seine Ergebnisse zu überwachen und bei Bedarf einzugreifen -- einschließlich der Möglichkeit, das System außer Betrieb zu nehmen.

Art. 14 Abs. 1 VO (EU) 2024/1689 formuliert die Grundregel:

Hochrisiko-KI-Systeme werden so konzipiert und entwickelt, dass sie -- auch mit geeigneten Mensch-Maschine-Schnittstelleninstrumenten -- von natürlichen Personen während des Zeitraums, in dem sie verwendet werden, wirksam beaufsichtigt werden können.

Die Betonung liegt auf „wirksam". Es reicht nicht, dass theoretisch ein Mensch involviert ist. Die Aufsicht muss so gestaltet sein, dass die Person tatsächlich versteht, was das System tut, und in der Lage ist, dessen Ergebnisse zu hinterfragen und zu korrigieren.

Warum menschliche Aufsicht so zentral ist

Die Europäische Kommission betrachtet Human Oversight als eines der sieben Schlüsselkriterien für vertrauenswürdige KI (neben technischer Robustheit, Transparenz, Fairness, Datenschutz, gesellschaftlichem Wohlergehen und Rechenschaftspflicht). Die Gründe liegen auf der Hand:

  • KI-Systeme können Fehler machen, die ohne menschliche Prüfung unbemerkt bleiben -- insbesondere bei Eingabedaten, die vom Trainingsdatensatz abweichen.
  • Grundrechtliche Relevanz: Wenn KI-Systeme über Menschen entscheiden (Kreditvergabe, Bewerbungen, Sozialleistungen), muss eine natürliche Person die letzte Entscheidungsgewalt behalten.
  • Haftungsklarheit: Ohne definierte Aufsichtsperson ist im Schadensfall unklar, wer verantwortlich ist.
  • Vertrauen: Bürgerinnen und Bürger akzeptieren KI-Systeme eher, wenn sie wissen, dass ein Mensch die Kontrolle behält.

Die drei Aufsichtsmodelle: HITL, HOTL und HIC {#aufsichtsmodelle}

In der Praxis und in der Fachliteratur zum AI Act haben sich drei Aufsichtsmodelle etabliert. Der Verordnungstext selbst nennt diese Begriffe nicht explizit, aber die Konzepte spiegeln sich in Art. 14 Abs. 3 und 4 wider.

ModellBeschreibungEingriffsmöglichkeitGeeignet für
HITL (Human-in-the-Loop)Der Mensch ist direkt in den Entscheidungsprozess eingebunden. Das KI-System gibt eine Empfehlung, die finale Entscheidung trifft der Mensch.Vor jeder einzelnen Entscheidung. Der Mensch bestätigt, ändert oder lehnt ab.Hochrisiko-Entscheidungen mit rechtlicher Wirkung: Kreditvergabe, Bewerbungsselektion, medizinische Diagnosen, Sozialleistungsbescheide.
HOTL (Human-on-the-Loop)Der Mensch überwacht das System in Echtzeit, greift aber nicht bei jeder Einzelentscheidung ein. Er interveniert nur bei Anomalien oder definierten Schwellenwerten.Jederzeit möglich, aber nicht bei jeder Transaktion erforderlich. Eingriff über Dashboards, Alerts oder manuelle Übersteuerung.Systeme mit hohem Durchsatz und mittlerem Risiko: Content-Moderation, Betrugserkennung, automatisierte Qualitätskontrolle.
HIC (Human-in-Command)Der Mensch hat die übergeordnete Kontrolle über das Gesamtsystem. Er definiert Ziele, Grenzen und Abbruchbedingungen, überwacht aber nicht jede operative Entscheidung.Strategisch und bei Eskalation. Kann das System jederzeit abschalten, Betriebsparameter ändern oder den Einsatz beenden.Autonome Systeme mit klar definierten Leitplanken: autonome Fahrzeuge (Notaus), KI-Agenten mit begrenztem Handlungsspielraum, automatisierte Produktionssysteme.

Welches Modell verlangt Art. 14?

Art. 14 schreibt kein bestimmtes Modell vor. Die Wahl hängt von der Risikoklasse, dem Einsatzkontext und der Kritikalität der Entscheidungen ab. Der Grundsatz lautet: Je höher das Risiko für Grundrechte, desto enger die menschliche Einbindung.

Für ein KI-System, das über Kreditanträge entscheidet (Anhang III Nr. 5 lit. b), wird in der Regel HITL erforderlich sein. Für ein biometrisches Fernidentifikationssystem im öffentlichen Raum (Art. 5 Abs. 2) ist mindestens HITL mit dokumentierter Einzelfallfreigabe vorgeschrieben.


Art. 14 Abs. 1--5 im Detail {#art-14-detail}

Abs. 1: Grundpflicht zur wirksamen Aufsicht

Hochrisiko-KI-Systeme müssen so konzipiert sein, dass natürliche Personen sie wirksam beaufsichtigen können. Dies ist primär eine Pflicht der Anbieter (Art. 16 lit. d) -- sie müssen die technischen Voraussetzungen schaffen: geeignete Schnittstellen, verständliche Ausgaben, Eingriffsmöglichkeiten.

Abs. 2: Verhältnismäßigkeit der Maßnahmen

Die Aufsichtsmaßnahmen müssen den Risiken, dem Grad der Autonomie und dem Einsatzkontext angemessen sein. Ein vollautomatisches System zur Vergabe von Sozialleistungen erfordert strengere Aufsicht als ein KI-gestütztes Empfehlungssystem für interne Dokumentensuche.

Abs. 3: Mindestfähigkeiten des Systems

Art. 14 Abs. 3 definiert konkrete technische Anforderungen an Hochrisiko-KI-Systeme. Die Aufsichtsperson muss in der Lage sein:

  • (a) Die Fähigkeiten und Grenzen des Systems richtig zu verstehen und dessen Funktionsweise angemessen zu überwachen -- einschließlich der Erkennung von Anomalien, Fehlfunktionen und unerwarteten Leistungen.
  • (b) Einer möglichen Tendenz, sich automatisch oder übermäßig auf die vom System erzeugte Ausgabe zu verlassen, bewusst zu bleiben (Automatisierungsbias -- dazu unten mehr).
  • (c) Die Ausgabe des Systems richtig zu interpretieren -- insbesondere unter Berücksichtigung der Merkmale des Systems und der verfügbaren Interpretationstools.
  • (d) In jeder Situation zu entscheiden, das System nicht zu verwenden oder die Ausgabe anderweitig außer Acht zu lassen, außer Kraft zu setzen oder rückgängig zu machen.
  • (e) In den Betrieb des Systems einzugreifen oder das System durch eine „Stopp"-Taste oder ein vergleichbares Verfahren anzuhalten.

Abs. 4: Besondere Anforderungen bei Grundrechtsrelevanz

Für Hochrisiko-KI-Systeme nach Anhang III -- also solche, die in besonders sensiblen Bereichen eingesetzt werden -- gelten verschärfte Anforderungen. Die Aufsichtsmaßnahmen müssen so ausgestaltet sein, dass die Aufsichtsperson zusätzlich:

  • (a) Die Relevanz der empfohlenen Maßnahme im konkreten Einzelfall einschätzen kann.
  • (b) Dem Automatisierungsbias entgegenwirken kann (Art. 14 Abs. 4 lit. b) -- eine der wichtigsten Vorschriften des gesamten AI Act.

Abs. 5: Sicherheitskritische Systeme

Für bestimmte Hochrisiko-KI-Systeme kann vorgesehen werden, dass sie die Aufsichtsperson automatisch warnen oder sich selbst abschalten, wenn bestimmte Schwellenwerte überschritten werden. Dies betrifft insbesondere sicherheitskritische Anwendungen.


Automatisierungsbias: Die unterschätzte Gefahr {#automatisierungsbias}

Art. 14 Abs. 4 lit. b VO (EU) 2024/1689 adressiert ein Phänomen, das in der Psychologie seit Jahrzehnten bekannt ist, aber durch KI-Systeme eine neue Dimension erreicht: den Automatisierungsbias (Automation Bias).

Was ist Automatisierungsbias?

Automatisierungsbias beschreibt die Tendenz von Menschen, den Ausgaben automatisierter Systeme übermäßig zu vertrauen -- auch wenn Warnsignale oder die eigene Fachkenntnis dagegen sprechen. In der Praxis bedeutet das:

  • Ein Sachbearbeiter übernimmt die KI-Empfehlung zur Kreditablehnung, ohne den Einzelfall zu prüfen, obwohl er bei manueller Prüfung Bedenken hätte.
  • Ein Arzt verlässt sich auf die KI-Diagnose und übersieht klinische Hinweise, die der Algorithmus nicht erfasst hat.
  • Ein Recruiter vertraut der algorithmischen Vorselektion und hinterfragt nicht, warum bestimmte Profile aussortiert wurden.

Warum der AI Act den Automatisierungsbias explizit adressiert

Der europäische Gesetzgeber hat erkannt, dass formale menschliche Aufsicht wertlos ist, wenn der Mensch in der Praxis nur noch „Ja" klickt. Deshalb verlangt Art. 14 Abs. 4 lit. b nicht nur die Möglichkeit des Eingreifens, sondern aktive Maßnahmen gegen den Automatisierungsbias:

  • Schulung: Aufsichtspersonen müssen über das Phänomen des Automatisierungsbias aufgeklärt und trainiert werden.
  • Systemdesign: KI-Systeme sollten nicht nur eine Empfehlung ausgeben, sondern auch Alternativszenarien, Unsicherheitswerte und Begründungen anzeigen, damit der Mensch eine informierte Entscheidung treffen kann.
  • Prozesskontrolle: Stichprobenartige Überprüfungen, Vier-Augen-Prinzip bei kritischen Entscheidungen und regelmäßige Audits der Übereinstimmungsrate zwischen KI-Empfehlung und menschlicher Entscheidung.
  • Rotationsprinzip: Regelmäßiger Wechsel der Aufsichtspersonen, um Routine-Blindheit zu vermeiden.

Praxistipp: Übereinstimmungsrate messen

Wenn die Aufsichtsperson in 95 % oder mehr der Fälle der KI-Empfehlung folgt, ist das ein starkes Indiz für Automatisierungsbias -- und ein Compliance-Risiko. Dokumentieren Sie die Übereinstimmungsrate und analysieren Sie Abweichungen systematisch.


Zusammenspiel mit Art. 22 DSGVO {#zusammenspiel-dsgvo}

Die menschliche Aufsicht nach Art. 14 AI Act und das Verbot automatisierter Einzelentscheidungen nach Art. 22 DSGVO verfolgen verwandte, aber nicht identische Ziele. Beide Regelwerke existieren nebeneinander und müssen kumulativ eingehalten werden.

Art. 22 DSGVO: Das Verbot

Art. 22 Abs. 1 DSGVO verbietet grundsätzlich Entscheidungen, die ausschließlich auf automatisierter Verarbeitung beruhen und rechtliche Wirkung entfalten oder die betroffene Person in ähnlicher Weise erheblich beeinträchtigen. Ausnahmen bestehen nur bei:

  • Erforderlichkeit für einen Vertrag (Abs. 2 lit. a)
  • Gesetzlicher Ermächtigung (Abs. 2 lit. b)
  • Ausdrücklicher Einwilligung (Abs. 2 lit. c)

Wo sich AI Act und DSGVO überschneiden

AspektArt. 14 AI ActArt. 22 DSGVO
AnwendungsbereichHochrisiko-KI-Systeme (unabhängig von personenbezogenen Daten)Alle automatisierten Entscheidungen mit personenbezogenen Daten und rechtlicher/erheblicher Wirkung
KernforderungWirksame menschliche AufsichtKeine ausschließlich automatisierte Entscheidung (oder Ausnahme + Schutzmaßnahmen)
AdressatAnbieter (Designpflicht) und Betreiber (Einsatzpflicht)Verantwortlicher i.S.d. DSGVO
Scheinaufsicht genügt?Nein -- wirksame Aufsicht erforderlichNein -- bloßes „Absegnen" ist keine echte menschliche Beteiligung (EuGH C-634/21)
Rechtsfolge bei VerstoßBußgeld bis 15 Mio. EUR / 3 % UmsatzBußgeld bis 20 Mio. EUR / 4 % Umsatz

Praktische Konsequenz: Doppelte Pflicht

Wenn Sie ein Hochrisiko-KI-System einsetzen, das automatisierte Entscheidungen über natürliche Personen trifft, müssen Sie beide Regelwerke gleichzeitig erfüllen:

  1. Art. 14 AI Act: Das System muss technisch so gestaltet sein, dass wirksame menschliche Aufsicht möglich ist.
  2. Art. 22 DSGVO: Die Entscheidung darf nicht ausschließlich automatisiert getroffen werden -- es sei denn, eine Ausnahme greift und angemessene Schutzmaßnahmen sind implementiert.

Wer Art. 14 AI Act sauber umsetzt, erfüllt damit in der Regel auch die Anforderungen von Art. 22 DSGVO an die menschliche Beteiligung. Die DSGVO stellt jedoch zusätzliche Anforderungen (Informationspflichten nach Art. 13/14, Auskunftsrecht nach Art. 15, Recht auf Anfechtung), die über den AI Act hinausgehen.


Betreiberpflichten nach Art. 26 Abs. 2 {#betreiberpflichten}

Während Art. 14 sich primär an Anbieter richtet (sie müssen das System aufsichtstauglich gestalten), konkretisiert Art. 26 Abs. 2 VO (EU) 2024/1689 die Pflichten der Betreiber -- also der Unternehmen, die Hochrisiko-KI-Systeme in der Praxis einsetzen.

Was Art. 26 Abs. 2 verlangt

Betreiber müssen sicherstellen, dass die natürlichen Personen, denen die menschliche Aufsicht übertragen wird:

  • Über die erforderliche Kompetenz, Ausbildung und Befugnis verfügen, um die Aufsicht wirksam auszuüben.
  • Über die nötigen Ressourcen verfügen -- zeitlich, technisch und organisatorisch.
  • Die Gebrauchsanweisung des Anbieters kennen und befolgen.

Was das konkret bedeutet

Die Betreiberpflicht geht weit über die Benennung einer Aufsichtsperson hinaus. Art. 26 Abs. 2 verlangt ein organisatorisches Gesamtkonzept:

  • Qualifikation: Die Aufsichtsperson muss den Einsatzkontext des KI-Systems fachlich beurteilen können. Ein Sachbearbeiter ohne statistische Grundkenntnisse kann ein Scoring-System nicht wirksam beaufsichtigen.
  • Befugnis: Die Aufsichtsperson muss die faktische und rechtliche Kompetenz haben, eine KI-Empfehlung zu übersteuern -- ohne Genehmigung durch Vorgesetzte und ohne negativen Einfluss auf die eigene Leistungsbewertung.
  • Zeitressourcen: Wenn ein Sachbearbeiter 200 Fälle am Tag bearbeiten muss und die KI-Empfehlung in Sekundenbruchteilen vorliegt, ist eine echte Prüfung faktisch unmöglich. Die Arbeitsorganisation muss realistische Prüfzeiten ermöglichen.
  • Technische Mittel: Dashboards, Erklärungstools (Explainable AI), Anomalie-Alerts und dokumentierte Eskalationswege.

Praktische Umsetzung: Rollen, Schulung, Eskalation, Dokumentation {#praktische-umsetzung}

Die Anforderungen der Art. 14 und 26 VO (EU) 2024/1689 lassen sich in vier Handlungsfeldern operationalisieren:

1. Rollen und Verantwortlichkeiten definieren

Legen Sie für jedes Hochrisiko-KI-System fest:

  • Wer übt die menschliche Aufsicht operativ aus? (Name, Funktion, Stellvertretung)
  • Wer trägt die Gesamtverantwortung für das KI-System? (z. B. Fachabteilungsleitung)
  • Wer eskaliert an wen bei Anomalien oder Systemausfällen?
  • Wer entscheidet über die temporäre oder dauerhafte Abschaltung?

Dokumentieren Sie diese Rollen in einem KI-Aufsichtskonzept, das Bestandteil Ihrer KI-Governance ist.

2. Schulung und Kompetenzaufbau

Art. 26 Abs. 2 verlangt ausdrücklich, dass Aufsichtspersonen über die erforderliche Ausbildung verfügen. Eine wirksame Schulung umfasst:

  • Funktionsweise des KI-Systems: Was kann das System, was nicht? Welche Daten nutzt es? Welche Fehlerquellen gibt es?
  • Interpretation der Ergebnisse: Wie liest man die Ausgabe? Was bedeuten Konfidenzwerte? Wann ist eine Ausgabe plausibel, wann nicht?
  • Automatisierungsbias: Sensibilisierung für die Gefahr des blinden Vertrauens -- mit praktischen Beispielen und Übungen.
  • Eskalationsverfahren: Wann und wie wird eskaliert? Welche Dokumentationspflichten bestehen?
  • Rechtlicher Rahmen: Grundkenntnisse zu Art. 14, Art. 22 DSGVO und den eigenen Befugnissen.

Schulungen müssen regelmäßig wiederholt und an Systemupdates angepasst werden. Dokumentieren Sie Teilnahme und Inhalte.

3. Eskalationsverfahren

Definieren Sie einen klaren Eskalationspfad:

Stufe 1 -- Operative Aufsicht: Die Aufsichtsperson erkennt eine Anomalie (z. B. unplausibles Ergebnis, ungewöhnliche Häufung bestimmter Entscheidungen). Sie kann die Einzelentscheidung übersteuern und dokumentiert den Vorfall.

Stufe 2 -- Fachliche Eskalation: Bei wiederholten Anomalien oder systemischen Auffälligkeiten wird die verantwortliche Fachabteilungsleitung informiert. Diese entscheidet, ob das System vorübergehend außer Betrieb genommen wird.

Stufe 3 -- Organisatorische Eskalation: Bei schwerwiegenden Vorfällen (Grundrechtsverletzung, systematische Fehler, Sicherheitsrisiko) wird die Geschäftsführung informiert. Parallel erfolgt ggf. die Meldung an die zuständige Marktüberwachungsbehörde nach Art. 20 VO (EU) 2024/1689.

4. Dokumentation

Art. 12 VO (EU) 2024/1689 verlangt eine automatische Protokollierung (Logging). Für die menschliche Aufsicht sollten Sie zusätzlich dokumentieren:

  • Aufsichtsprotokoll: Wer hat wann welche KI-Entscheidung geprüft? Wurde die Empfehlung übernommen oder übersteuert? Mit welcher Begründung?
  • Übereinstimmungsrate: Statistik darüber, wie oft die Aufsichtsperson der KI folgt vs. abweicht.
  • Schulungsnachweis: Wer wurde wann zu welchem System geschult?
  • Vorfallprotokoll: Dokumentation aller Eskalationen, Anomalien und Systemabschaltungen.
  • Review-Zyklen: Regelmäßige Überprüfung der Wirksamkeit der Aufsichtsmaßnahmen (mindestens jährlich).

Häufig gestellte Fragen (FAQ) {#faq}

Gilt Art. 14 nur für Hochrisiko-KI-Systeme?

Ja, die unmittelbare Pflicht aus Art. 14 betrifft nur Hochrisiko-KI-Systeme nach Art. 6 i.V.m. Anhang I und III VO (EU) 2024/1689. Allerdings ist menschliche Aufsicht auch für andere KI-Systeme empfehlenswert -- insbesondere wenn personenbezogene Daten verarbeitet werden (Art. 22 DSGVO) oder wenn die KI-Ausgabe erhebliche Auswirkungen auf Menschen hat.

Reicht es, wenn ein Mitarbeiter die KI-Ergebnisse „absegnet"?

Nein. Ein bloßes „Rubber-Stamping" -- also das mechanische Bestätigen von KI-Empfehlungen ohne echte inhaltliche Prüfung -- erfüllt weder die Anforderungen des Art. 14 AI Act noch des Art. 22 DSGVO. Das hat auch der EuGH im SCHUFA-Urteil (C-634/21) bestätigt: Eine menschliche Beteiligung muss substanziell sein. Die Person muss die Kompetenz, die Zeit und die Befugnis haben, die KI-Empfehlung zu verstehen, zu hinterfragen und abzulehnen.

Wer haftet, wenn die Aufsichtsperson versagt?

Die Haftung trifft in erster Linie das Unternehmen als Betreiber (Art. 26 VO (EU) 2024/1689). Es trägt die Organisationsverantwortung dafür, dass geeignete Personen mit ausreichenden Ressourcen und Befugnissen eingesetzt werden. Daneben kann eine persönliche Haftung der Geschäftsführung nach § 130 OWiG (Aufsichtspflichtverletzung) und § 43 GmbHG bzw. § 93 AktG (Sorgfaltspflicht) in Betracht kommen, wenn die Aufsichtsstruktur offensichtlich unzureichend war.

Wie unterscheidet sich menschliche Aufsicht von Monitoring?

Monitoring (Art. 72 VO (EU) 2024/1689) ist die kontinuierliche technische Überwachung eines KI-Systems auf Performance, Datenqualität und Anomalien -- häufig automatisiert. Menschliche Aufsicht (Art. 14) geht darüber hinaus: Sie verlangt, dass eine natürliche Person die Ergebnisse des Systems inhaltlich beurteilt und in der Lage ist, Einzelentscheidungen zu übersteuern. Monitoring ist ein Werkzeug, das die menschliche Aufsicht unterstützt -- es ersetzt sie aber nicht.

Können KI-Tools die menschliche Aufsicht unterstützen?

Ja, und das ist sogar empfehlenswert. Explainable-AI-Tools (z. B. SHAP, LIME), Anomalie-Erkennungssysteme, Dashboards mit Konfidenzwerten und automatisierte Alerts helfen der Aufsichtsperson, fundierte Entscheidungen zu treffen. Entscheidend ist: Die finale Entscheidungsgewalt bleibt beim Menschen. Ein KI-Tool, das die Aufsicht über ein anderes KI-Tool übernimmt, erfüllt Art. 14 nicht -- die Norm verlangt ausdrücklich natürliche Personen.


Nächste Schritte {#naechste-schritte}

Menschliche Aufsicht ist keine Formalie, sondern eine der anspruchsvollsten Pflichten des AI Act. Sie erfordert technische Voraussetzungen, organisatorische Strukturen und vor allem: kompetente Menschen, die die Befugnis und die Zeit haben, KI-Ergebnisse kritisch zu hinterfragen.

Beginnen Sie jetzt:

  1. Identifizieren Sie alle Hochrisiko-KI-Systeme in Ihrem Unternehmen.
  2. Bestimmen Sie für jedes System das passende Aufsichtsmodell (HITL, HOTL oder HIC).
  3. Benennen Sie Aufsichtspersonen mit klaren Rollen, Befugnissen und Ressourcen.
  4. Schulen Sie diese Personen -- insbesondere zum Thema Automatisierungsbias.
  5. Dokumentieren Sie alles: Aufsichtskonzept, Schulungsnachweise, Entscheidungsprotokolle.

Sie möchten Ihr Team auf die Anforderungen des AI Act vorbereiten? KI Comply bietet praxisnahe Schulungen zu Human Oversight, Automatisierungsbias und den Betreiberpflichten des AI Act. Jetzt kostenlos testen und Ihre KI-Compliance auf ein solides Fundament stellen.

Rechtsquellen

  • Menschliche AufsichtArt. 14 VO (EU) 2024/1689 (Quelle)
  • Automatisierte EntscheidungenArt. 22 DSGVO
  • Betreiberpflicht AufsichtArt. 26 Abs. 2 VO (EU) 2024/1689
  • AutomatisierungsbiasArt. 14 Abs. 4 lit. b VO (EU) 2024/1689

Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.

Artikel teilen:

Machen Sie Ihr Team KI-fit

Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.

Preise ansehen