Zurück zum Blog
Compliance
AI Act

KI-Risikobewertung: So klassifizieren Sie Ihre KI-Anwendungen

Jedes Unternehmen muss seine KI-Systeme nach Risikoklassen einordnen. Wir zeigen Schritt für Schritt, wie Sie eine KI-Risikobewertung durchführen.

KCT
KI Comply TeamKI-Compliance Experten
24. Januar 20255 Min. Lesezeit
KI-Risikobewertung: So klassifizieren Sie Ihre KI-Anwendungen

Das Wichtigste in Kürze

  • Jedes Unternehmen, das KI einsetzt, muss seine Systeme nach dem AI Act (VO (EU) 2024/1689) einer KI-Risikobewertung unterziehen und in eine der vier Risikoklassen einordnen.
  • Die Risikobewertung ist kein einmaliger Vorgang -- sie muss kontinuierlich durchgeführt und dokumentiert werden (Art. 9 Abs. 2).
  • Unsere 6-Schritte-Methodik führt Sie systematisch von der Bestandsaufnahme über die Klassifizierung bis zur vollständigen Dokumentation.
  • Für Hochrisiko-KI-Systeme verlangt Art. 9 ein formales Risikomanagementsystem, das den gesamten Lebenszyklus des Systems abdeckt.
  • Die internationale Norm ISO/IEC 23894:2023 bietet ein ergänzendes Rahmenwerk, das sich nahtlos mit den Anforderungen des AI Act verbinden lässt.
  • Fehler bei der Risikobewertung können zu Bußgeldern bis 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes führen (Art. 99 Abs. 3).

Warum ist die KI-Risikobewertung Pflicht?

Die KI-Risikobewertung ist nicht optional -- sie ist das Fundament jeder AI-Act-Compliance. Ohne eine systematische Risikoanalyse können Unternehmen weder feststellen, welche Pflichten für ihre KI-Systeme gelten, noch die geforderten Maßnahmen umsetzen.

Gesetzliche Grundlage: Art. 9 VO (EU) 2024/1689

Art. 9 VO (EU) 2024/1689 schreibt für Hochrisiko-KI-Systeme ein Risikomanagementsystem vor, das während des gesamten Lebenszyklus des Systems betrieben werden muss. Doch auch wenn Ihr KI-System nicht in die Hochrisiko-Kategorie fällt, müssen Sie zunächst eine Risikobewertung durchführen, um genau das festzustellen. Die Risikobewertung ist also der logisch zwingende erste Schritt für jedes Unternehmen, das KI einsetzt.

Warum Risikobewertung mehr als eine Pflichtübung ist

Neben der rechtlichen Pflicht gibt es handfeste geschäftliche Gründe für eine gründliche KI-Risikoanalyse:

  • Rechtssicherheit: Nur wer seine KI-Systeme korrekt eingestuft hat, weiß, welche Pflichten tatsächlich gelten -- und kann gezielt investieren.
  • Haftungsschutz: Die Geschäftsführung haftet persönlich, wenn KI-Systeme ohne angemessene Risikoprüfung eingesetzt werden. Eine dokumentierte Risikobewertung ist der wichtigste Nachweis pflichtgemäßen Handelns.
  • Ressourceneffizienz: Wer alle KI-Systeme pauschal wie Hochrisiko behandelt, verschwendet Budget. Wer sie unterschätzt, riskiert Bußgelder. Die Risikobewertung sorgt für die richtige Balance.
  • Vertrauensbildung: Kunden, Partner und Aufsichtsbehörden erwarten zunehmend Transparenz über den Umgang mit KI-Risiken. Eine nachvollziehbare Risikobewertung schafft Vertrauen.

Fristen im Blick

Die Pflichten des AI Act greifen gestaffelt: Verbotene KI-Praktiken (Art. 5) sind bereits seit dem 2. Februar 2025 untersagt. Die Anforderungen an Hochrisiko-KI-Systeme -- einschließlich des Risikomanagementsystems nach Art. 9 -- gelten ab dem 2. August 2026. Das bedeutet: Unternehmen sollten die Risikobewertung ihrer KI-Systeme jetzt durchführen, um rechtzeitig vorbereitet zu sein.

Die 6-Schritte-Methodik zur KI-Risikobewertung

Wir haben eine praxiserprobte Methodik entwickelt, die Sie Schritt für Schritt durch die KI-Risikobewertung führt. Jeder Schritt baut auf dem vorherigen auf und führt am Ende zu einer vollständigen, dokumentierten Risikoklassifizierung.

Schritt 1: KI-Inventar als Ausgangspunkt

Bevor Sie Risiken bewerten können, müssen Sie wissen, welche KI-Systeme in Ihrem Unternehmen überhaupt im Einsatz sind. Das klingt trivial -- in der Praxis zeigt sich jedoch regelmäßig, dass Unternehmen den Überblick über ihre KI-Landschaft verloren haben.

Was gehört ins KI-Inventar?

  • Alle eigenentwickelten KI-Systeme
  • Eingekaufte KI-Lösungen und SaaS-Dienste mit KI-Funktionen
  • In bestehende Software eingebettete KI-Komponenten (z. B. KI-Funktionen in ERP- oder CRM-Systemen)
  • KI-Werkzeuge, die Mitarbeitende eigenständig nutzen (Stichwort: Shadow AI)
  • KI-Prototypen und Pilotprojekte

Für jedes identifizierte System erfassen Sie mindestens: Name und Version, Anbieter, Einsatzzweck, betroffene Abteilungen, betroffene Personengruppen und den aktuellen Status (Produktion, Test, Planung).

Praxis-Tipp: Wenn Sie noch kein KI-Inventar haben, lesen Sie unseren Leitfaden KI-Inventar erstellen -- dort zeigen wir den Aufbau im Detail.

Schritt 2: Einsatzzweck und Kontext analysieren

Für jedes KI-System aus Ihrem Inventar analysieren Sie nun den konkreten Einsatzzweck und den Kontext, in dem es eingesetzt wird. Die Risikoklasse hängt im AI Act nämlich nicht von der Technologie ab, sondern vom Verwendungszweck.

Das gleiche Large Language Model kann in einem Kontext als minimales Risiko gelten (z. B. als interner Textassistent) und in einem anderen als Hochrisiko (z. B. als Entscheidungsunterstützung bei der Personalauswahl).

Fragen für die Kontextanalyse:

  • Welche Entscheidungen werden auf Basis der KI-Ergebnisse getroffen?
  • Welche natürlichen Personen sind von diesen Entscheidungen betroffen?
  • Wie schwerwiegend können die Auswirkungen auf die betroffenen Personen sein?
  • Wie autonom agiert das KI-System -- trifft es eigenständige Entscheidungen oder unterstützt es nur?
  • In welchem regulierten Bereich wird das System eingesetzt (Gesundheit, Finanzen, Bildung, Beschäftigung etc.)?
  • Werden besondere Kategorien personenbezogener Daten verarbeitet (Art. 9 DSGVO)?

Schritt 3: Prüfung gegen Art. 5 -- Ist das System verboten?

Der erste Klassifizierungsschritt ist die wichtigste Frage: Fällt Ihr KI-System unter eines der Verbote aus Art. 5 VO (EU) 2024/1689?

Art. 5 verbietet unter anderem:

  • Social Scoring durch Behörden oder in deren Auftrag
  • Unterschwellige Manipulation, die Personen ohne deren Wissen beeinflusst und ihnen Schaden zufügt
  • Ausnutzung von Schutzbedürftigkeit aufgrund von Alter, Behinderung oder sozialer Lage
  • Biometrische Echtzeit-Fernidentifikation in öffentlich zugänglichen Räumen durch Strafverfolgungsbehörden (mit engen Ausnahmen)
  • Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen (mit Ausnahmen für Sicherheitszwecke)
  • Prädiktive Polizeiarbeit, die ausschließlich auf Profiling oder Persönlichkeitsmerkmalen basiert
  • Ungezielte Gesichtsbilderfassung aus dem Internet oder Überwachungskameras zur Erstellung von Gesichtserkennungsdatenbanken

Wenn Ihr System unter eines dieser Verbote fällt, darf es nicht eingesetzt werden. Ein Verstoß gegen Art. 5 zieht die höchsten Bußgelder des AI Act nach sich: bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes (Art. 99 Abs. 3).

Schritt 4: Prüfung gegen Art. 6 + Anhang III -- Ist das System Hochrisiko?

Wenn Ihr KI-System nicht unter die Verbote fällt, prüfen Sie als nächstes, ob es als Hochrisiko einzustufen ist. Art. 6 VO (EU) 2024/1689 definiert zwei Wege zur Hochrisiko-Einstufung:

Weg 1 -- Sicherheitskomponente (Art. 6 Abs. 1): Das KI-System ist selbst ein Produkt oder eine Sicherheitskomponente eines Produkts, das unter die in Anhang I aufgeführten EU-Harmonisierungsvorschriften fällt (z. B. Maschinenverordnung, Medizinprodukteverordnung, Spielzeugrichtlinie).

Weg 2 -- Anhang-III-Bereiche (Art. 6 Abs. 2): Das KI-System wird in einem der acht in Anhang III genannten Bereiche eingesetzt:

  1. Biometrie: Biometrische Fernidentifikation, biometrische Kategorisierung, Emotionserkennung
  2. Kritische Infrastruktur: Sicherheitskomponenten in Wasser-, Gas-, Strom- oder Wärmeversorgung, Straßenverkehr, digitaler Infrastruktur
  3. Allgemeine und berufliche Bildung: Zugangsentscheidungen, Leistungsbewertung, Überwachung von Prüfungen
  4. Beschäftigung und Personalmanagement: Bewerberauswahl, Stellenausschreibung, Leistungsüberwachung, Beförderungs- und Kündigungsentscheidungen
  5. Zugang zu wesentlichen Dienstleistungen: Kreditwürdigkeitsprüfung, Versicherungstarifierung, Zugang zu Sozialleistungen
  6. Strafverfolgung: Risikobewertung von Personen, Lügendetektoren, Beweismittelbewertung
  7. Migration, Asyl und Grenzkontrolle: Risikobewertung, Echtheitsprüfung von Dokumenten, Prüfung von Asylanträgen
  8. Rechtspflege und demokratische Prozesse: Recherche und Auslegung von Fakten und Recht, Beeinflussung von Wahlen

Wichtig -- die Ausnahmeregel (Art. 6 Abs. 3): Ein KI-System, das zwar in einen Anhang-III-Bereich fällt, kann dennoch von der Hochrisiko-Einstufung ausgenommen werden, wenn es kein erhebliches Risiko für Gesundheit, Sicherheit oder Grundrechte darstellt. Das ist etwa der Fall, wenn das System nur eine eng begrenzte Verfahrensaufgabe erfüllt, lediglich das Ergebnis einer zuvor durchgeführten menschlichen Tätigkeit verbessert oder nur vorbereitend tätig wird, ohne die eigentliche Bewertung zu beeinflussen. Diese Ausnahme müssen Sie allerdings dokumentieren und begründen.

Praxis-Tipp: Eine ausführliche Erklärung der Hochrisiko-Kategorie finden Sie in unserem Artikel Hochrisiko-KI-Systeme nach dem AI Act.

Schritt 5: Prüfung der Transparenzpflichten (Art. 50)

Auch wenn Ihr KI-System weder verboten noch Hochrisiko ist, können Transparenzpflichten nach Art. 50 VO (EU) 2024/1689 gelten. Diese betreffen insbesondere:

  • KI-Systeme, die mit Menschen interagieren (z. B. Chatbots): Nutzer müssen informiert werden, dass sie mit einem KI-System interagieren.
  • Systeme zur Emotionserkennung oder biometrischen Kategorisierung: Betroffene Personen müssen über den Einsatz informiert werden.
  • KI-generierte oder manipulierte Inhalte (Deepfakes, synthetische Texte, Bilder, Audio, Video): Diese müssen als maschinell erzeugt oder manipuliert gekennzeichnet werden.

Die Transparenzpflichten gelten unabhängig von der Risikoklasse -- auch ein Hochrisiko-System muss sie zusätzlich erfüllen. Für die Risikobewertung ist relevant: Systeme, die unter Art. 50 fallen, aber nicht unter Art. 5 oder Art. 6, werden der Kategorie „begrenztes Risiko" zugeordnet.

Schritt 6: Risikobewertung dokumentieren

Der letzte und entscheidende Schritt: Dokumentieren Sie Ihre Bewertung lückenlos. Eine Risikobewertung, die nur in den Köpfen der Beteiligten existiert, hat im Ernstfall keinen Wert.

Ihre Dokumentation sollte für jedes KI-System mindestens enthalten:

  • Systembeschreibung: Name, Version, Anbieter, technische Architektur
  • Einsatzkontext: Abteilung, Geschäftsprozess, betroffene Personen
  • Bewertungsergebnis: Zugeordnete Risikoklasse mit Begründung
  • Prüfschritte: Welche Artikel geprüft wurden und mit welchem Ergebnis
  • Verantwortlichkeiten: Wer hat die Bewertung durchgeführt, wer hat sie freigegeben?
  • Datum und Überprüfungszyklus: Wann wurde bewertet, wann steht die nächste Überprüfung an?
  • Maßnahmenplan: Welche Compliance-Maßnahmen sich aus der Einstufung ergeben

Für Hochrisiko-Systeme wird diese Dokumentation zum Teil der technischen Dokumentation nach Art. 11 und muss auf Anfrage den Marktüberwachungsbehörden vorgelegt werden können.

Bewertungskriterien im Überblick

Die folgende Tabelle hilft Ihnen dabei, das Risikoniveau Ihrer KI-Systeme systematisch einzuschätzen. Beantworten Sie für jedes System die Leitfragen und ordnen Sie das Ergebnis einer Risikostufe zu.

BewertungskriteriumLeitfrageNiedrigMittelHoch
Autonomie der EntscheidungWie eigenständig trifft das System Entscheidungen?Nur Vorschläge, Mensch entscheidet immerEmpfehlungen mit hoher ÜbernahmequoteAutomatisierte Entscheidungen ohne menschliche Prüfung
Betroffene GrundrechteWelche Grundrechte der betroffenen Personen können tangiert werden?Keine direkten GrundrechtsauswirkungenMittelbare Auswirkungen auf einzelne Rechte (z. B. Datenschutz)Unmittelbare Auswirkungen auf mehrere Grundrechte (z. B. Diskriminierung, Freiheit)
Schwere der AuswirkungenWie gravierend können negative Folgen für Betroffene sein?Geringfügige UnannehmlichkeitenSpürbare wirtschaftliche oder soziale NachteileExistenzielle Auswirkungen (Gesundheit, Freiheit, Existenzgrundlage)
Anzahl BetroffenerWie viele Personen sind potenziell betroffen?Kleine, definierte NutzergruppeGrößere Personengruppen innerhalb der OrganisationBreite Öffentlichkeit oder besonders schutzbedürftige Gruppen
ReversibilitätKönnen negative Entscheidungen rückgängig gemacht werden?Jederzeit vollständig reversibelMit Aufwand reversibel, aber Zwischenschäden möglichSchwer oder gar nicht reversibel
DatenkategorienWelche Daten verarbeitet das System?Anonymisierte oder aggregierte DatenPersonenbezogene Daten gemäß DSGVOBesondere Kategorien nach Art. 9 DSGVO (Gesundheit, Biometrie, Ethnie)
Regulierter BereichWird das System in einem besonders regulierten Bereich eingesetzt?Kein regulierter BereichBranchenspezifische Regulierung (z. B. Finanzaufsicht)Anhang-III-Bereich des AI Act oder Sicherheitskomponente nach Anhang I
Transparenz für BetroffeneWissen Betroffene, dass KI eingesetzt wird?Ja, vollständig transparentTeilweise transparent, aber nicht im DetailBetroffene wissen nicht, dass KI über sie entscheidet

Auswertung: Wenn ein System in mehreren Kriterien die Spalte „Hoch" erreicht, ist eine Hochrisiko-Einstufung nach Art. 6 sehr wahrscheinlich. Selbst wenn formal kein Anhang-III-Bereich betroffen ist, sollten Sie bei durchgängig hohen Werten freiwillig die Hochrisiko-Anforderungen als Best Practice anwenden.

Art. 9 Risikomanagementsystem im Detail

Wenn Ihre Risikobewertung ergibt, dass ein KI-System als Hochrisiko einzustufen ist, greift Art. 9 VO (EU) 2024/1689 mit der Pflicht zur Einrichtung eines umfassenden Risikomanagementsystems. Dieses System geht weit über die initiale Risikobewertung hinaus.

Anforderungen nach Art. 9 Abs. 1 und 2

Das Risikomanagementsystem muss als fortlaufender, iterativer Prozess gestaltet sein, der während des gesamten Lebenszyklus des Hochrisiko-KI-Systems geplant, umgesetzt, dokumentiert und aufrechterhalten wird. Es umfasst:

  1. Identifikation und Analyse bekannter und vorhersehbarer Risiken für Gesundheit, Sicherheit und Grundrechte (Art. 9 Abs. 2 lit. a)
  2. Abschätzung und Bewertung der Risiken, die bei bestimmungsgemäßer Verwendung und bei vernünftigerweise vorhersehbarer Fehlanwendung auftreten können (Art. 9 Abs. 2 lit. b)
  3. Bewertung weiterer Risiken auf Grundlage der Analyse von Daten aus dem Überwachungssystem nach der Markteinführung (Art. 9 Abs. 2 lit. c)
  4. Festlegung geeigneter und gezielter Risikomanagementmaßnahmen (Art. 9 Abs. 2 lit. d)

Risikomanagementmaßnahmen (Art. 9 Abs. 4)

Die konkreten Maßnahmen zur Risikobehandlung müssen nach Art. 9 Abs. 4 so gewählt werden, dass das verbleibende Einzelrisiko und das Gesamtrestrisiko als akzeptabel gelten. Dabei ist der Stand der Technik zu berücksichtigen. Die Verordnung schreibt eine klare Priorisierung vor:

  • Beseitigung oder Verringerung der Risiken durch geeignetes Design und Entwicklung des KI-Systems
  • Technische Schutzmaßnahmen und Kontrollmechanismen, soweit Risiken nicht vollständig beseitigt werden können
  • Informationspflichten gegenüber den Betreibern, ergänzt durch geeignete Schulungsmaßnahmen

Verknüpfung mit anderen Pflichten

Das Risikomanagementsystem nach Art. 9 steht nicht isoliert -- es ist eng verknüpft mit:

  • Datenqualität (Art. 10): Die Risikobewertung bestimmt, welche Anforderungen an die Trainings-, Validierungs- und Testdaten gelten.
  • Technische Dokumentation (Art. 11): Die Ergebnisse des Risikomanagements fließen in die technische Dokumentation ein.
  • Logging und Aufzeichnung (Art. 12): Das Risikomanagementsystem definiert, welche Ereignisse protokolliert werden müssen.
  • Menschliche Aufsicht (Art. 14): Die Risikoanalyse bestimmt Art und Umfang der erforderlichen menschlichen Überwachung.
  • Genauigkeit, Robustheit und Cybersicherheit (Art. 15): Die identifizierten Risiken leiten die technischen Schutzmaßnahmen.

ISO/IEC 23894 als Rahmenwerk

Neben den spezifischen Anforderungen des AI Act bietet die internationale Norm ISO/IEC 23894:2023 ein bewährtes Rahmenwerk für das KI-Risikomanagement. Sie wurde speziell für Organisationen entwickelt, die KI-Systeme entwickeln, bereitstellen oder nutzen.

Aufbau und Inhalt

ISO/IEC 23894 basiert auf dem allgemeinen Risikomanagement-Standard ISO 31000 und ergänzt ihn um KI-spezifische Aspekte. Die Norm gliedert sich in:

  • Grundsätze: Übergeordnete Prinzipien für das KI-Risikomanagement, darunter Verhältnismäßigkeit, Inklusivität und Dynamik
  • Rahmenwerk: Organisatorische Strukturen und Verantwortlichkeiten für das Risikomanagement
  • Prozess: Der eigentliche Risikomanagementprozess mit den Phasen Kontextbestimmung, Risikoidentifikation, Risikoanalyse, Risikobewertung und Risikobehandlung
  • KI-spezifische Risikoquellen: Besondere Risiken wie Datenbias, mangelnde Erklärbarkeit, unvorhergesehenes Verhalten und Abhängigkeit von Trainingsdaten

Zusammenspiel mit dem AI Act

ISO/IEC 23894 und der AI Act ergänzen sich hervorragend:

AspektAI Act (Art. 9)ISO/IEC 23894:2023
AnwendungsbereichVerpflichtend für Hochrisiko-KIFreiwillig, für alle KI-Systeme anwendbar
FokusRegulatorische Compliance, GrundrechtsschutzGanzheitliches Risikomanagement
LebenszyklusGesamter Lebenszyklus vorgeschriebenGesamter Lebenszyklus empfohlen
MaßnahmenSpezifische Pflichten (Art. 9--15)Methodischer Rahmen für die Umsetzung
DokumentationFormale Anforderungen (Art. 11)Best Practices für Dokumentation
AktualisierungFortlaufend (Art. 9 Abs. 2)Kontinuierlicher Verbesserungsprozess (PDCA)

Empfehlung: Nutzen Sie ISO/IEC 23894 als methodischen Unterbau, um die Anforderungen des Art. 9 strukturiert umzusetzen. Die Norm liefert den Prozess, der AI Act definiert die Mindestanforderungen. Unternehmen, die bereits nach ISO 31000 arbeiten, können ihre bestehenden Risikomanagement-Strukturen durch den KI-spezifischen Anhang erweitern.

Vorlage: Risikobewertungsbogen für KI-Systeme

Der folgende Risikobewertungsbogen gibt Ihnen eine Vorlage, die Sie für jedes KI-System in Ihrem Inventar ausfüllen können. Er orientiert sich an der 6-Schritte-Methodik und den Anforderungen des AI Act.

Abschnitt A -- Systemidentifikation

FeldEintrag
System-ID[Aus KI-Inventar]
Systemname[Bezeichnung]
Version / Release[Versionsnummer]
Anbieter / Hersteller[Firmenname]
Intern verantwortlich[Name, Funktion]
Abteilung(en)[Nutzende Abteilungen]
Einsatzbeginn[Datum]

Abschnitt B -- Einsatzkontext

FeldEintrag
Einsatzzweck (detailliert)[Freitext]
Betroffene Personengruppen[z. B. Mitarbeitende, Kunden, Bewerber]
Art der Entscheidung[ ] Vollautonom [ ] Teilautonom [ ] Entscheidungsunterstützung [ ] Informationsbereitstellung
Verarbeitete Datenkategorien[ ] Anonymisiert [ ] Personenbezogen [ ] Besondere Kategorien (Art. 9 DSGVO)
Regulierter Bereich[ ] Keiner [ ] Branchenspezifisch [ ] Anhang-III-Bereich

Abschnitt C -- Klassifizierung

PrüfschrittErgebnisBegründung
Prüfung Art. 5 (Verbot)[ ] Ja, verboten [ ] Nein[Freitext]
Prüfung Art. 6 Abs. 1 (Sicherheitskomponente)[ ] Ja [ ] Nein[Freitext]
Prüfung Art. 6 Abs. 2 + Anhang III[ ] Ja [ ] Nein[Freitext]
Ausnahme Art. 6 Abs. 3 anwendbar?[ ] Ja [ ] Nein [ ] Nicht relevant[Freitext]
Transparenzpflicht Art. 50[ ] Ja [ ] Nein[Freitext]
Ergebnis Risikoklasse[ ] Unannehmbares Risiko [ ] Hohes Risiko [ ] Begrenztes Risiko [ ] Minimales Risiko[Zusammenfassende Begründung]

Abschnitt D -- Maßnahmenplan

Erforderliche MaßnahmeVerantwortlichFristStatus
[z. B. Risikomanagementsystem einrichten][Name][Datum][ ] Offen [ ] In Bearbeitung [ ] Erledigt
[z. B. Technische Dokumentation erstellen][Name][Datum][ ] Offen [ ] In Bearbeitung [ ] Erledigt
[z. B. Transparenzhinweise implementieren][Name][Datum][ ] Offen [ ] In Bearbeitung [ ] Erledigt

Abschnitt E -- Freigabe

FeldEintrag
Bewertet durch[Name, Funktion, Datum]
Geprüft durch[Name, Funktion, Datum]
Freigegeben durch[Name, Funktion, Datum]
Nächste Überprüfung[Datum]

Praxis-Tipp: Führen Sie die Risikobewertung nicht allein durch. Beziehen Sie Fachexperten aus der IT, dem Datenschutz, der Rechtsabteilung und den betroffenen Fachabteilungen ein. Nur ein interdisziplinäres Team kann alle Risikodimensionen vollständig erfassen.

Häufig gestellte Fragen (FAQ)

Muss jedes Unternehmen eine KI-Risikobewertung durchführen?

Ja, jedes Unternehmen, das KI-Systeme entwickelt, bereitstellt oder als Betreiber einsetzt, muss seine Systeme nach dem AI Act klassifizieren. Das gilt für Unternehmen jeder Größe. Für KMU gelten zwar gewisse Erleichterungen bei den Verwaltungslasten (Art. 62), aber die Pflicht zur Risikobewertung selbst besteht uneingeschränkt. Ohne eine Klassifizierung können Sie nicht feststellen, welche konkreten Pflichten für Ihre KI-Systeme gelten.

Wie oft muss die Risikobewertung aktualisiert werden?

Art. 9 Abs. 2 VO (EU) 2024/1689 verlangt ein fortlaufendes Risikomanagementsystem. Eine einmalige Bewertung genügt nicht. Konkret sollten Sie die Risikobewertung aktualisieren bei: wesentlichen Änderungen am KI-System (neues Modell, neue Trainingsdaten), Änderungen des Einsatzzwecks, neuen Erkenntnissen über Risiken (z. B. aus dem Post-Market-Monitoring), Änderungen der Rechtslage und mindestens einmal jährlich im Rahmen einer regulären Überprüfung.

Reicht eine Datenschutz-Folgenabschätzung (DSFA) als KI-Risikobewertung aus?

Nein. Eine DSFA nach Art. 35 DSGVO und eine KI-Risikobewertung nach dem AI Act haben unterschiedliche Schwerpunkte. Die DSFA fokussiert auf Datenschutzrisiken, der AI Act erfasst darüber hinaus Risiken für Gesundheit, Sicherheit, Grundrechte (jenseits des Datenschutzes) und demokratische Werte. Allerdings können beide Bewertungen aufeinander aufbauen und sollten idealerweise verknüpft werden, um Doppelarbeit zu vermeiden. Art. 26 Abs. 9 VO (EU) 2024/1689 verlangt von Betreibern sogar explizit, die Ergebnisse der DSFA im Rahmen der Grundrechte-Folgenabschätzung zu berücksichtigen.

Was passiert, wenn sich die Risikoklasse eines Systems ändert?

Es ist durchaus möglich, dass ein KI-System im Laufe seines Lebenszyklus in eine andere Risikoklasse wechselt -- etwa weil sich der Einsatzzweck verändert oder weil die EU-Kommission Anhang III aktualisiert (Art. 7 VO (EU) 2024/1689). In diesem Fall müssen Sie die Compliance-Maßnahmen entsprechend anpassen. Bei einer Hochstufung in die Hochrisiko-Kategorie gelten die vollständigen Anforderungen der Art. 9--15. Deshalb ist die regelmäßige Überprüfung der Risikobewertung so wichtig.

Können wir die Risikobewertung an einen Dienstleister auslagern?

Die Durchführung der Risikobewertung können Sie durchaus mit externer Unterstützung vornehmen. Die Verantwortung für die korrekte Einstufung und die daraus folgenden Compliance-Maßnahmen bleibt jedoch beim Anbieter (Art. 16) beziehungsweise Betreiber (Art. 26) des KI-Systems. Sie können die Pflicht zur Risikobewertung also nicht delegieren -- nur die operative Durchführung. Achten Sie darauf, dass externe Berater über nachweisbare Expertise im AI Act verfügen und dass Sie die Ergebnisse intern validieren und freigeben.

Nächster Schritt: KI-Risikobewertung in der Praxis umsetzen

Die KI-Risikobewertung ist der zentrale Baustein Ihrer AI-Act-Compliance. Je früher Sie damit beginnen, desto besser sind Sie vorbereitet, wenn die Pflichten für Hochrisiko-KI-Systeme ab August 2026 greifen.

Starten Sie jetzt:

  1. Verschaffen Sie sich einen Überblick über alle KI-Systeme in Ihrem Unternehmen mit einem KI-Inventar.
  2. Verstehen Sie die Risikoklassen im Detail -- unser Artikel KI-Risikoklassen erklärt hilft dabei.
  3. Nutzen Sie unsere Vorlage aus diesem Artikel, um die Bewertung für jedes System durchzuführen.
  4. Schulen Sie Ihre Mitarbeitenden -- KI-Risikobewusstsein ist eine Voraussetzung für wirksame Compliance.

Sie möchten Ihre KI-Risikobewertung effizient und rechtssicher durchführen? KI Comply unterstützt Sie mit einer digitalen Plattform, die den gesamten Prozess von der Inventarisierung über die Klassifizierung bis zur Dokumentation abbildet -- inklusive automatischer Prüfung gegen die Anhänge des AI Act.

KI Comply kostenlos testen{.cta-button}

Rechtsquellen

  • RisikomanagementsystemArt. 9 VO (EU) 2024/1689 (Quelle)
  • KlassifizierungArt. 6 VO (EU) 2024/1689
  • Hochrisiko-BereicheAnhang III VO (EU) 2024/1689
  • ISO KI-RisikomanagementISO/IEC 23894:2023

Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.

Artikel teilen:

Machen Sie Ihr Team KI-fit

Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.

Preise ansehen