Zurück zum Blog
Regulierung
AI Act

KI-Risikoklassen nach dem AI Act: Die 4 Stufen einfach erklärt

Der AI Act teilt KI-Systeme in vier Risikoklassen ein. Von verboten bis minimal — wir erklären jede Stufe mit Beispielen und Pflichten.

KCT
KI Comply TeamKI-Compliance Experten
19. März 20265 Min. Lesezeit
KI-Risikoklassen nach dem AI Act: Die 4 Stufen einfach erklärt

Das Wichtigste in Kürze

  • Der AI Act (VO (EU) 2024/1689) verfolgt einen risikobasierten Ansatz und teilt KI-Systeme in vier Risikoklassen ein.
  • Stufe 1 -- Unannehmbares Risiko: Diese KI-Systeme sind seit Februar 2025 in der EU verboten (Art. 5).
  • Stufe 2 -- Hohes Risiko: Strenge Pflichten wie Risikomanagement, Datenqualität und menschliche Aufsicht gelten ab August 2026 (Art. 6, Anhang III).
  • Stufe 3 -- Begrenztes Risiko: Transparenzpflichten verlangen eine Kennzeichnung als KI-generiert (Art. 50).
  • Stufe 4 -- Minimales Risiko: Keine besonderen Pflichten, aber freiwillige Verhaltenskodizes werden empfohlen.
  • Die korrekte Einordnung Ihres KI-Systems ist entscheidend -- bei Fehlklassifizierung drohen Bußgelder bis 35 Mio. Euro.

Warum gibt es KI-Risikoklassen?

Der AI Act -- offiziell die Verordnung (EU) 2024/1689 -- reguliert Künstliche Intelligenz in der gesamten EU. Statt alle KI-Systeme gleich zu behandeln, hat der europäische Gesetzgeber einen risikobasierten Ansatz gewählt: Je größer die potenzielle Gefahr eines KI-Systems für Grundrechte, Sicherheit oder demokratische Werte, desto strenger die Anforderungen.

Dieses Prinzip kennen wir bereits aus anderen Regulierungsbereichen -- etwa der CE-Kennzeichnung für Produkte oder der Einstufung von Medizinprodukten. Der AI Act überträgt dieses bewährte Konzept auf die Welt der Künstlichen Intelligenz.

Das Ergebnis ist ein Pyramidenmodell mit vier Stufen, das von „verboten" bis „keine besonderen Pflichten" reicht. Diese KI-Risikoklassen bestimmen, welche Pflichten für Anbieter und Betreiber gelten.

Die 4 KI-Risikoklassen im Überblick

StufeBeschreibungBeispielePflichtenArtikel
1 -- Unannehmbares RisikoKI-Praktiken, die gegen EU-Grundwerte verstoßenSocial Scoring, unterschwellige Manipulation, Emotionserkennung am Arbeitsplatz, biometrische Echtzeit-Fernidentifikation in öffentlichen RäumenVollständiges VerbotArt. 5 VO (EU) 2024/1689
2 -- Hohes RisikoKI-Systeme mit erheblichen Auswirkungen auf Gesundheit, Sicherheit oder GrundrechteKI-gestützte Personalauswahl, Kreditwürdigkeitsprüfung, biometrische Identifikation, medizinische Diagnostik, StrafverfolgungRisikomanagement, Datenqualität, technische Dokumentation, Logging, menschliche Aufsicht, KonformitätsbewertungArt. 6--49, Anhang III VO (EU) 2024/1689
3 -- Begrenztes RisikoKI-Systeme, die mit Menschen interagieren oder Inhalte erzeugenChatbots, Deepfake-Generatoren, KI-generierte Texte und Bilder, EmotionserkennungssystemeTransparenzpflichten: Nutzer müssen informiert werden, dass sie mit KI interagieren bzw. Inhalte KI-generiert sindArt. 50 VO (EU) 2024/1689
4 -- Minimales/kein RisikoAlle übrigen KI-Systeme ohne spezifisches GefährdungspotenzialSpam-Filter, KI in Videospielen, Empfehlungsalgorithmen, automatische RechtschreibprüfungKeine besonderen Pflichten; freiwillige Verhaltenskodizes empfohlen--

Stufe 1: Unannehmbares Risiko -- verbotene KI-Praktiken (Art. 5)

Die strengste Kategorie umfasst KI-Systeme, die in der EU vollständig verboten sind. Art. 5 VO (EU) 2024/1689 listet diese Praktiken abschließend auf. Die Verbote gelten bereits seit 2. Februar 2025.

Konkrete Beispiele verbotener KI-Systeme

  • Social Scoring durch Behörden: KI-Systeme, die Personen auf Grundlage ihres Sozialverhaltens bewerten und daraus Nachteile ableiten.
  • Unterschwellige Manipulation: KI-Techniken, die das Verhalten von Personen unbewusst beeinflussen und ihnen dadurch Schaden zufügen.
  • Ausnutzung von Schwächen: KI-Systeme, die gezielt Alter, Behinderung oder soziale Lage von Personen ausnutzen.
  • Biometrische Echtzeit-Fernidentifikation: Die Verwendung von Gesichtserkennung in Echtzeit in öffentlich zugänglichen Räumen durch Strafverfolgungsbehörden (mit eng definierten Ausnahmen).
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen: KI-Systeme, die Emotionen von Beschäftigten oder Lernenden erfassen.
  • Ungezielte Gesichtsbilddatenbanken: Das massenhafte Auslesen von Gesichtsbildern aus dem Internet oder Überwachungskameras zum Aufbau von Datenbanken.

Wichtig: Wer ein verbotenes KI-System betreibt, riskiert Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes -- je nachdem, welcher Betrag höher ist.

Stufe 2: Hohes Risiko -- die strengsten Pflichten (Art. 6, Anhang III)

Hochrisiko-KI-Systeme bilden das Herzstück der Regulierung. Sie sind nicht verboten, unterliegen aber umfangreichen Anforderungen. Ein KI-System gilt als Hochrisiko, wenn es entweder:

  1. als Sicherheitskomponente eines Produkts dient, das unter bestehende EU-Harmonisierungsvorschriften fällt (z. B. Medizinprodukte, Maschinen, Spielzeug), oder
  2. in einem der Bereiche aus Anhang III VO (EU) 2024/1689 eingesetzt wird.

Die 8 Hochrisiko-Bereiche nach Anhang III

  1. Biometrie: Biometrische Fernidentifikation (nicht in Echtzeit), biometrische Kategorisierung natürlicher Personen.
  2. Kritische Infrastruktur: KI-Systeme in der Steuerung und dem Betrieb von Wasser-, Gas-, Strom- und Verkehrsinfrastruktur.
  3. Bildung und Berufsausbildung: KI-Systeme, die über den Zugang zu Bildungseinrichtungen entscheiden, Prüfungen bewerten oder den Bildungsstand bewerten.
  4. Beschäftigung und Personalmanagement: KI-gestützte Bewerbungsauswahl, Leistungsbewertung, Beförderungsentscheidungen und Kündigungsentscheidungen.
  5. Wesentliche private und öffentliche Dienstleistungen: Kreditwürdigkeitsprüfung, Risikobewertung bei Versicherungen, Bewertung der Anspruchsberechtigung für Sozialleistungen.
  6. Strafverfolgung: Risikobewertung zur Einschätzung von Straftaten, Lügendetektoren, Beweismittelbewertung.
  7. Migration, Asyl und Grenzkontrolle: Risikobewertung von Reisenden, Prüfung von Asylanträgen, Erkennung von Dokumentenfälschungen.
  8. Rechtspflege und demokratische Prozesse: KI-Systeme, die Gerichte bei der Rechtsauslegung unterstützen oder das Ergebnis von Wahlen beeinflussen könnten.

Pflichten für Hochrisiko-KI-Systeme

Anbieter und Betreiber von Hochrisiko-KI müssen ab August 2026 umfangreiche Anforderungen erfüllen:

  • Risikomanagementsystem (Art. 9): Fortlaufende Identifikation und Minimierung von Risiken.
  • Daten-Governance (Art. 10): Hohe Anforderungen an Trainings- und Testdaten, einschließlich Repräsentativität und Vermeidung von Verzerrungen.
  • Technische Dokumentation (Art. 11): Vollständige Dokumentation des Systems vor dem Inverkehrbringen.
  • Aufzeichnungspflichten (Art. 12): Automatisches Logging, um die Nachvollziehbarkeit des Systems sicherzustellen.
  • Transparenz gegenüber Betreibern (Art. 13): Klare Gebrauchsanweisungen für die Nutzer des Systems.
  • Menschliche Aufsicht (Art. 14): Natürliche Personen müssen das System überwachen und bei Bedarf eingreifen können.
  • Genauigkeit, Robustheit und Cybersicherheit (Art. 15): Nachweisbare Leistungsfähigkeit und Schutz vor Angriffen.
  • Konformitätsbewertung und CE-Kennzeichnung (Art. 43): Nachweis der Regelkonformität vor dem Marktzugang.

Stufe 3: Begrenztes Risiko -- Transparenzpflichten (Art. 50)

KI-Systeme mit begrenztem Risiko unterliegen Transparenzpflichten nach Art. 50 VO (EU) 2024/1689. Das Ziel: Nutzer sollen wissen, wenn sie mit KI interagieren oder KI-generierte Inhalte konsumieren.

Wann gelten Transparenzpflichten?

  • Chatbots und virtuelle Assistenten: Nutzer müssen informiert werden, dass sie mit einem KI-System kommunizieren.
  • Deepfakes und synthetische Medien: KI-generierte oder -manipulierte Bild-, Audio- und Videoinhalte müssen als solche gekennzeichnet werden.
  • KI-generierte Texte: Texte, die zu Informationszwecken veröffentlicht werden und durch KI erzeugt wurden, müssen entsprechend markiert werden.
  • Emotionserkennungssysteme: Nutzer müssen darüber informiert werden, dass ihre Emotionen erfasst werden (sofern das System nicht unter das Verbot aus Art. 5 fällt).

In der Praxis bedeutet das: Wenn Ihr Unternehmen einen KI-Chatbot auf der Website einsetzt, muss dieser klar als KI-gestütztes System erkennbar sein. Nutzen Sie KI-generierte Bilder in Ihrer Unternehmenskommunikation, müssen diese als KI-erzeugt gekennzeichnet werden.

Stufe 4: Minimales oder kein Risiko -- freie Nutzung

Die große Mehrheit der heute eingesetzten KI-Systeme fällt in die unterste Kategorie. Für diese Systeme bestehen keine besonderen regulatorischen Pflichten nach dem AI Act.

Beispiele für KI-Systeme mit minimalem Risiko

  • Spam-Filter in E-Mail-Programmen
  • KI-gesteuerte Gegner in Videospielen
  • Einfache Empfehlungsalgorithmen (z. B. Produktvorschläge in Online-Shops)
  • Automatische Rechtschreibprüfung
  • KI-gestützte Bestandsoptimierung in der Logistik

Der AI Act ermutigt Anbieter solcher Systeme, sich freiwillig an Verhaltenskodizes (Art. 95 VO (EU) 2024/1689) zu halten. Verpflichtend ist dies jedoch nicht.

Achtung: Auch bei KI-Systemen mit minimalem Risiko gilt die KI-Kompetenzpflicht nach Art. 4. Unternehmen müssen sicherstellen, dass Mitarbeitende, die diese Systeme nutzen, über ausreichende KI-Kompetenz verfügen.

Wie finde ich heraus, in welche Klasse mein KI-System fällt?

Die korrekte Einordnung eines KI-Systems ist eine der wichtigsten Aufgaben für Unternehmen. Gehen Sie dabei schrittweise vor:

Schritt 1 -- Verbotsliste prüfen: Fällt Ihr KI-System unter eine der in Art. 5 VO (EU) 2024/1689 aufgelisteten verbotenen Praktiken? Falls ja: Der Einsatz ist untersagt. Falls nein: weiter zu Schritt 2.

Schritt 2 -- Produktsicherheit prüfen: Ist Ihr KI-System eine Sicherheitskomponente eines Produkts, das unter bestehende EU-Harmonisierungsvorschriften fällt (z. B. Medizinprodukte-Verordnung, Maschinenverordnung)? Falls ja: Es handelt sich um ein Hochrisiko-System nach Art. 6 Abs. 1. Falls nein: weiter zu Schritt 3.

Schritt 3 -- Anhang III prüfen: Wird Ihr KI-System in einem der acht Bereiche aus Anhang III eingesetzt (Biometrie, kritische Infrastruktur, Bildung, Beschäftigung, wesentliche Dienstleistungen, Strafverfolgung, Migration, Rechtspflege)? Falls ja: Es handelt sich in der Regel um ein Hochrisiko-System nach Art. 6 Abs. 2. Falls nein: weiter zu Schritt 4.

Schritt 4 -- Transparenzpflichten prüfen: Interagiert Ihr KI-System direkt mit natürlichen Personen, erzeugt es synthetische Inhalte (Texte, Bilder, Audio, Video) oder erkennt es Emotionen? Falls ja: Es gelten Transparenzpflichten nach Art. 50. Falls nein: weiter zu Schritt 5.

Schritt 5 -- Minimales Risiko: Ihr System fällt in die Kategorie „minimales Risiko". Es bestehen keine besonderen Pflichten, aber die allgemeine KI-Kompetenzpflicht nach Art. 4 gilt dennoch.

Praxis-Tipp: Dokumentieren Sie Ihre Klassifizierungsentscheidung schriftlich. Sollte eine Aufsichtsbehörde Fragen stellen, können Sie so nachvollziehbar darlegen, warum Sie Ihr System in eine bestimmte Kategorie eingestuft haben.

Häufige Fragen zu KI-Risikoklassen

Kann ein KI-System in mehrere Risikoklassen gleichzeitig fallen?

Ja, das ist möglich. Ein KI-System kann beispielsweise als Hochrisiko-System nach Anhang III eingestuft sein und gleichzeitig Transparenzpflichten nach Art. 50 unterliegen -- etwa ein KI-gestütztes Bewerbermanagement-Tool mit Chatbot-Funktion. In solchen Fällen gelten die Pflichten aller zutreffenden Kategorien kumulativ.

Wer entscheidet, in welche Risikoklasse ein KI-System fällt?

Die Ersteinordnung liegt beim Anbieter des KI-Systems. Betreiber sind jedoch verpflichtet, diese Einordnung zu überprüfen und sicherzustellen, dass sie das System gemäß seiner Risikoklasse einsetzen. Die nationalen Marktüberwachungsbehörden können die Einordnung überprüfen und gegebenenfalls korrigieren.

Was passiert, wenn sich die Risikoklasse meines KI-Systems ändert?

KI-Systeme können durch Updates, neue Einsatzzwecke oder regulatorische Änderungen in eine andere Risikoklasse fallen. Der AI Act verlangt, dass Anbieter und Betreiber die Klassifizierung kontinuierlich überprüfen. Ändert sich der Einsatzzweck eines Systems -- etwa von einem internen Analysetool zu einem System, das Personalentscheidungen beeinflusst --, kann aus einem System mit minimalem Risiko ein Hochrisiko-System werden.

Sind Open-Source-KI-Systeme von den Risikoklassen ausgenommen?

Nein. Der AI Act gilt unabhängig davon, ob ein KI-System proprietär oder Open Source ist. Für Open-Source-KI-Modelle gibt es in Art. 53 VO (EU) 2024/1689 zwar bestimmte Erleichterungen bei den Transparenzpflichten, die Risikoklassifizierung greift aber dennoch vollumfänglich.

Gilt der risikobasierte Ansatz auch für KI-Modelle mit allgemeinem Verwendungszweck (GPAI)?

KI-Modelle mit allgemeinem Verwendungszweck -- wie GPT-4, Claude oder Llama -- unterliegen einem eigenen Regelungsrahmen (Art. 51--56 VO (EU) 2024/1689). Sie werden nicht direkt über die vier Risikoklassen reguliert, sondern über gesonderte Pflichten für GPAI-Anbieter. Sobald ein GPAI-Modell jedoch in ein konkretes KI-System integriert wird, greift die Risikoklassifizierung für dieses System.

Nächste Schritte: KI-Systeme richtig einstufen

Die korrekte Klassifizierung Ihrer KI-Systeme ist der erste Schritt zur AI-Act-Compliance. Denn nur wer weiß, in welche Risikoklasse seine Systeme fallen, kann die richtigen Maßnahmen ergreifen.

Besonders dringend ist die KI-Kompetenzpflicht nach Art. 4, die bereits seit Februar 2025 für alle Risikoklassen gilt. Unternehmen müssen nachweisen, dass ihre Mitarbeitenden über ausreichendes Wissen im Umgang mit KI verfügen.

KI Comply unterstützt Ihr Unternehmen dabei, die Anforderungen des AI Act effizient umzusetzen. Unsere Schulungsplattform vermittelt praxisnah die KI-Kompetenz, die der AI Act verlangt -- zugeschnitten auf Ihre Branche und die Risikoklassen Ihrer eingesetzten KI-Systeme. Jetzt unverbindlich informieren und die AI-Act-Compliance Ihres Unternehmens sicherstellen.

Rechtsquellen

  • Verbotene PraktikenArt. 5 VO (EU) 2024/1689 (Quelle)
  • Hochrisiko-KlassifizierungArt. 6 VO (EU) 2024/1689
  • Hochrisiko-BereicheAnhang III VO (EU) 2024/1689
  • TransparenzpflichtenArt. 50 VO (EU) 2024/1689

Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.

Artikel teilen:

Machen Sie Ihr Team KI-fit

Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.

Preise ansehen