KI-gestütztes Recruiting: AGG-konform und rechtssicher einstellen
KI im Bewerbungsprozess birgt Diskriminierungsrisiken. Wir zeigen, wie Sie KI-Recruiting AGG-konform gestalten und die AI Act Hochrisiko-Pflichten erfüllen.
Das Wichtigste in Kürze
- KI-gestützte Recruiting-Systeme fallen nach Anhang III Nr. 4 lit. a VO (EU) 2024/1689 (AI Act) in die Hochrisiko-Kategorie -- mit umfangreichen Pflichten für Anbieter und Betreiber.
- Das Allgemeine Gleichbehandlungsgesetz (AGG) verbietet Diskriminierung wegen aller sieben Merkmale (§ 1 AGG) -- auch wenn die Diskriminierung durch einen Algorithmus erfolgt.
- Die Beweislastumkehr nach § 22 AGG macht KI-Recruiting besonders riskant: Bewerber müssen nur Indizien für eine Benachteiligung vortragen, der Arbeitgeber muss dann beweisen, dass keine Diskriminierung vorlag.
- Der AI Act fordert strikte Datenqualität (Art. 10), menschliche Aufsicht (Art. 14) und ein umfassendes Risikomanagementsystem (Art. 9).
- Parallel gilt das Verbot automatisierter Einzelentscheidungen nach Art. 22 DSGVO und der Beschäftigtendatenschutz nach § 26 BDSG.
- Bei Verstößen drohen AGG-Schadensersatz (§ 15 AGG), DSGVO-Bußgelder (bis 20 Mio. Euro) und AI-Act-Sanktionen (bis 15 Mio. Euro oder 3 % des Jahresumsatzes).
Immer mehr Unternehmen setzen Künstliche Intelligenz im Recruiting ein. KI-gestützte Tools versprechen schnellere Vorauswahl, objektivere Beurteilungen und geringere Kosten pro Einstellung. Doch was viele HR-Abteilungen unterschätzen: KI im Bewerbungsprozess ist einer der am stärksten regulierten Anwendungsbereiche überhaupt. Europäisches und deutsches Recht greifen hier eng ineinander -- vom AI Act über das AGG bis zur DSGVO.
Dieser Artikel zeigt, warum KI-Recruiting als Hochrisiko eingestuft wird, welche konkreten Diskriminierungsrisiken bestehen, warum die Beweislastumkehr nach § 22 AGG für Arbeitgeber besonders gefährlich ist und wie Sie KI-gestützte Personalauswahl rechtskonform gestalten.
Warum KI-Recruiting Hochrisiko ist
Anhang III Nr. 4 lit. a AI Act: Einstellung und Auswahl
Der AI Act (VO (EU) 2024/1689) verfolgt einen risikobasierten Ansatz. Anhang III Nr. 4 lit. a stuft KI-Systeme als Hochrisiko ein, die bestimmungsgemäß für die Einstellung oder Auswahl natürlicher Personen verwendet werden -- insbesondere für:
- die Schaltung gezielter Stellenanzeigen,
- das Sichten oder Filtern von Bewerbungen,
- die Bewertung von Kandidaten in Vorstellungsgesprächen oder Prüfungen.
Die Einstufung erfolgt unabhängig davon, ob das KI-System eine endgültige Entscheidung trifft oder lediglich eine Empfehlung ausspricht. Bereits das automatisierte Ranking oder Scoring von Bewerbern genügt.
Warum der Gesetzgeber Recruiting als Hochrisiko betrachtet
Erwägungsgrund 57 der VO (EU) 2024/1689 nennt die zentralen Gründe:
-
Existenzielle Auswirkungen: Ob jemand einen Job bekommt oder nicht, betrifft die wirtschaftliche Lebensgrundlage unmittelbar. Eine fehlerhafte algorithmische Ablehnung kann eine berufliche Laufbahn entscheidend beeinflussen.
-
Skalierbare Diskriminierung: Anders als ein einzelner Personalverantwortlicher, der vielleicht unbewusst voreingenommen ist, diskriminiert ein fehlerhaftes KI-System systematisch und bei jedem einzelnen Bewerber. Ein Bias im Algorithmus multipliziert sich über Tausende von Bewerbungen.
-
Mangelnde Transparenz: Bewerber erfahren in der Regel nicht, warum sie abgelehnt wurden. Wenn ein Algorithmus die Vorauswahl trifft, ist die Nachvollziehbarkeit noch geringer als bei menschlichen Entscheidungen.
-
Machtasymmetrie: Im Bewerbungsprozess befindet sich der Bewerber in einer strukturell schwächeren Position. Er hat weder Einblick in die Auswahlkriterien noch Einfluss auf die verwendeten Tools.
Die Ausnahmeregel des Art. 6 Abs. 3 -- in der Praxis selten anwendbar
Art. 6 Abs. 3 AI Act sieht vor, dass ein in Anhang III genanntes System nicht als Hochrisiko gilt, wenn es lediglich eine eng begrenzte Verfahrensaufgabe erfüllt und kein erhebliches Risiko darstellt. Im Recruiting-Kontext ist diese Ausnahme jedoch kaum einschlägig: Sobald ein System Bewerbungen filtert, rankt oder bewertet, liegt eine erhebliche Auswirkung auf die Betroffenen vor. Lediglich rein administrative KI-Unterstützung -- etwa eine automatische Terminvereinbarung für Vorstellungsgespräche -- könnte unter die Ausnahme fallen.
Typische KI-Anwendungen im Recruiting
Die folgende Tabelle zeigt sechs verbreitete KI-Anwendungsfälle im Recruiting mit ihrer rechtlichen Einordnung:
| Anwendung | Funktionsweise | Risikoklasse AI Act | Relevante Rechtsgrundlagen |
|---|---|---|---|
| CV-Screening / Bewerbungsranking | Algorithmus wertet Lebensläufe aus und erstellt ein Ranking der Kandidaten nach Passung | Hochrisiko (Anhang III Nr. 4 lit. a) | AGG §§ 1-3, 7; Art. 10, 14 AI Act; § 26 BDSG; Art. 22 DSGVO |
| KI-gestützte Videointerviews | Analyse von Sprache, Mimik und Wortwahl zur Kandidatenbewertung | Hochrisiko + ggf. verbotene Emotionserkennung (Art. 5 Abs. 1 lit. f) | AGG; Art. 5, 10, 14 AI Act; Art. 9 DSGVO (biometrische Daten) |
| Automatisiertes Matching | Abgleich von Bewerberprofilen mit Stellenanforderungen durch NLP-Modelle | Hochrisiko (Anhang III Nr. 4 lit. a) | AGG §§ 1-3; Art. 10, 14 AI Act; § 26 BDSG |
| Chatbot-Vorqualifizierung | KI-Chatbot führt strukturierte Vorgespräche und bewertet Antworten | Hochrisiko, wenn Vorauswahl erfolgt; sonst begrenztes Risiko (Art. 50) | AGG; Art. 14 AI Act; Art. 50 Abs. 1 AI Act (Kennzeichnungspflicht) |
| Predictive Hiring Analytics | KI prognostiziert Erfolgswahrscheinlichkeit eines Kandidaten auf Basis historischer Daten | Hochrisiko (Anhang III Nr. 4 lit. a) | AGG; Art. 10 AI Act (Datenqualität); Art. 22 DSGVO |
| Gezielte Stellenanzeigen (Ad Targeting) | KI steuert Ausspielung von Jobannoncen nach Nutzerprofilen | Hochrisiko (Anhang III Nr. 4 lit. a) | AGG §§ 11, 7; Art. 10 AI Act; DSGVO Art. 6, 22 |
Wichtig: Selbst wenn ein Unternehmen ein KI-Recruiting-Tool nicht selbst entwickelt, sondern als Betreiber einsetzt, treffen es nach Art. 26 VO (EU) 2024/1689 umfangreiche Pflichten -- darunter die bestimmungsgemäße Verwendung, die menschliche Aufsicht und die Information betroffener Personen.
Diskriminierungsrisiken im Detail: Die 7 AGG-Merkmale
Das Allgemeine Gleichbehandlungsgesetz (AGG) verbietet in § 1 AGG Benachteiligungen aufgrund von sieben Merkmalen. KI-Systeme können jedes einzelne davon verletzen -- oft auf nicht offensichtliche Weise.
1. Geschlecht (§ 1 AGG)
KI-Systeme reproduzieren geschlechtsspezifische Muster aus historischen Daten. Wenn in der Vergangenheit überwiegend Männer in technischen Positionen eingestellt wurden, lernt der Algorithmus, dass männliche Bewerber „besser passen". Selbst wenn das Merkmal Geschlecht nicht direkt als Eingabevariable verwendet wird, können Proxy-Variablen wie Sportvereine, Studienfächer oder die sprachliche Formulierung im Anschreiben als indirekte Geschlechtsindikatoren wirken.
2. Alter (§ 1 AGG)
Das Alter eines Bewerbers lässt sich aus Lebenslaufdaten leicht ableiten -- etwa aus Abschlussjahren, der Dauer der Berufserfahrung oder dem Geburtsdatum selbst. KI-Systeme, die „Culture Fit" oder „Dynamik" als Kriterien verwenden, bevorzugen häufig jüngere Bewerber. Ebenso kann ein auf „digitale Kompetenzen" optimierter Algorithmus ältere Bewerber systematisch benachteiligen, obwohl deren Qualifikation objektiv gleichwertig ist.
3. Ethnische Herkunft (§ 1 AGG)
Namen, Adressen, Sprachstil und sogar die besuchte Universität können als Proxy für die ethnische Herkunft dienen. Studien zeigen, dass Bewerber mit türkisch oder arabisch klingenden Namen bei ansonsten identischen Qualifikationen seltener zu Vorstellungsgesprächen eingeladen werden. Eine KI, die auf historischen Einstellungsdaten trainiert wurde, kann diesen Bias automatisieren und verstärken.
4. Religion oder Weltanschauung (§ 1 AGG)
Angaben zu ehrenamtlichem Engagement, Mitgliedschaften oder Lücken im Lebenslauf (etwa für einen Pilgeraufenthalt) können Rückschlüsse auf die Religion zulassen. Ein KI-System, das solche Informationen -- direkt oder über Proxys -- in die Bewertung einfließen lässt, verstößt gegen das Diskriminierungsverbot.
5. Behinderung (§ 1 AGG)
Lücken im Lebenslauf, Angaben zu Schwerbehinderung, bestimmte Formulierungen oder Hinweise auf Reha-Maßnahmen können eine Behinderung erkennen lassen. Ein Algorithmus, der Lückenlosigkeit und schnelle Karrierefortschritte belohnt, benachteiligt systematisch Menschen mit Behinderung. Zudem können KI-gestützte Videointerviews Menschen mit Sprach- oder Bewegungseinschränkungen diskriminieren, wenn die Analyse auf neurotypisches Verhalten optimiert ist.
6. Sexuelle Identität (§ 1 AGG)
Auch wenn die sexuelle Identität selten direkt im Lebenslauf erscheint, können Proxy-Informationen -- etwa Engagement in LGBTQ-Organisationen oder bestimmte Formulierungen -- Rückschlüsse ermöglichen. Ein auf „kulturelle Passung" trainiertes Modell kann solche Merkmale subtil in die Bewertung einfließen lassen.
7. Weltanschauung (§ 1 AGG)
Politische oder weltanschauliche Überzeugungen können sich in ehrenamtlichen Tätigkeiten, Publikationen oder Social-Media-Profilen widerspiegeln. Wenn ein KI-System solche Daten erhebt oder indirekt berücksichtigt, liegt eine potenzielle Benachteiligung vor.
Das zentrale Problem: Diskriminierung durch KI ist oft mittelbar (§ 3 Abs. 2 AGG). Das Merkmal wird nicht direkt abgefragt, aber scheinbar neutrale Kriterien wirken sich überproportional auf eine geschützte Gruppe aus. Diese mittelbare Diskriminierung ist nach dem AGG ebenso verboten wie eine unmittelbare.
Der Amazon-Fall als Warnung
Der bekannteste Fall algorithmischer Diskriminierung im Recruiting stammt von Amazon. Das Unternehmen entwickelte ab 2014 ein KI-gestütztes Recruiting-Tool, das Bewerbungen automatisch auf einer Skala von eins bis fünf bewerten sollte.
Was geschah
Das System wurde auf zehn Jahre historische Einstellungsdaten trainiert. Da die Technologiebranche -- und Amazon selbst -- in diesem Zeitraum überwiegend Männer eingestellt hatte, lernte der Algorithmus, dass männliche Bewerber bevorzugt werden sollten. Das Ergebnis:
- Lebensläufe, die das Wort „women's" enthielten (etwa „women's chess club captain"), wurden systematisch herabgestuft.
- Absolventinnen von reinen Frauenhochschulen erhielten niedrigere Bewertungen.
- Das System bewertete sprachliche Muster, die häufiger in männlichen Lebensläufen auftraten, als positiv.
Amazon versuchte, den Algorithmus zu korrigieren, stellte aber fest, dass der Bias so tief in den Trainingsdaten verankert war, dass eine vollständige Bereinigung nicht gelang. Das Projekt wurde 2018 eingestellt.
Lehren für deutsche Unternehmen
Der Amazon-Fall illustriert mehrere zentrale Risiken:
-
Historische Daten enthalten historische Diskriminierung. Wenn Ihre Einstellungspraxis in der Vergangenheit nicht diskriminierungsfrei war, wird ein darauf trainiertes KI-System diese Muster reproduzieren.
-
Proxy-Diskriminierung ist schwer zu erkennen. Selbst nach Entfernung des Merkmals Geschlecht aus den Eingabedaten diskriminierte Amazons System weiterhin -- über korrelierte Variablen.
-
Nachträgliche Korrekturen sind aufwendig. Ein von Grund auf verzerrtes Modell lässt sich nicht einfach „reparieren". Die Datengrundlage muss von Anfang an stimmen.
Nach deutschem Recht hätte ein solches System gegen § 7 Abs. 1 i.V.m. § 1 AGG (Benachteiligung wegen des Geschlechts) und gegen § 11 AGG (diskriminierungsfreie Stellenausschreibung, sofern die Anzeigenausspielung betroffen war) verstoßen.
§ 22 AGG Beweislastumkehr: Warum das für KI besonders relevant ist
Die Regelung
§ 22 AGG enthält eine Beweiserleichterung zugunsten von Bewerbern: Wenn im Streitfall eine Person Indizien beweist, die eine Benachteiligung wegen eines in § 1 AGG genannten Grundes vermuten lassen, trägt die andere Partei die Beweislast dafür, dass kein Verstoß gegen das Benachteiligungsverbot vorgelegen hat.
Konkret bedeutet das: Der Bewerber muss nicht nachweisen, dass er diskriminiert wurde. Er muss lediglich Indizien vortragen, die eine Diskriminierung vermuten lassen. Danach muss der Arbeitgeber beweisen, dass die Benachteiligung nicht auf einem geschützten Merkmal beruhte.
Warum KI die Beweislage verschärft
Bei KI-gestütztem Recruiting wird die Beweislastumkehr für Arbeitgeber aus mehreren Gründen besonders problematisch:
Statistische Evidenz als Indizienbeweis: Wenn ein Bewerber zeigen kann, dass ein KI-System überproportional Bewerber einer bestimmten Gruppe ablehnt, liegt bereits ein starkes Indiz vor. Bei algorithmischen Systemen sind solche statistischen Muster leichter nachzuweisen als bei menschlichen Einzelentscheidungen, da das System konsistent nach denselben Regeln verfährt.
Erklärungspflicht des Arbeitgebers: Hat der Bewerber Indizien vorgetragen, muss der Arbeitgeber die Entscheidung des Algorithmus nachvollziehbar erklären. Bei komplexen Machine-Learning-Modellen -- insbesondere Deep-Learning-Systemen -- ist diese Erklärbarkeit häufig eingeschränkt („Black-Box-Problem"). Kann der Arbeitgeber nicht darlegen, warum der Algorithmus den Bewerber abgelehnt hat, wird er den Gegenbeweis kaum führen können.
Keine Entlastung durch Technikargument: Der Arbeitgeber kann sich nicht darauf berufen, dass „die KI das so entschieden hat". Nach § 7 Abs. 1 AGG haftet der Arbeitgeber für Diskriminierung -- unabhängig davon, ob sie durch einen Menschen oder einen Algorithmus verursacht wurde. Das Verschulden ist für den Schadensersatzanspruch nach § 15 Abs. 2 AGG (Entschädigung) nicht erforderlich; es handelt sich um eine verschuldensunabhängige Haftung.
Sammelklagen und Musterfeststellung: Ein fehlerhafter Algorithmus betrifft potenziell Tausende von Bewerbern gleichzeitig. Selbst wenn einzelne Entschädigungsbeträge moderat ausfallen (typischerweise bis zu drei Monatsgehälter nach § 15 Abs. 2 Satz 2 AGG), können die aggregierten Kosten erheblich werden.
Konsequenz für die Praxis
Arbeitgeber müssen bei KI-Recruiting proaktiv dokumentieren, dass ihr System nicht diskriminiert. Dazu gehören regelmäßige Bias-Audits, transparente Entscheidungskriterien und nachvollziehbare Ergebnisse. Wer diese Dokumentation nicht vorlegen kann, hat im Streitfall ein erhebliches Prozessrisiko.
Art. 10 AI Act: Datenqualitätspflichten für Trainingsdaten
Die Anforderungen im Überblick
Art. 10 VO (EU) 2024/1689 stellt detaillierte Anforderungen an die Daten, mit denen Hochrisiko-KI-Systeme trainiert, validiert und getestet werden. Für KI-Recruiting-Systeme ist diese Vorschrift von zentraler Bedeutung, weil die Qualität der Trainingsdaten unmittelbar darüber entscheidet, ob das System diskriminiert oder nicht.
Die zentralen Pflichten
Art. 10 Abs. 2: Trainings-, Validierungs- und Testdatensätze unterliegen angemessenen Data-Governance- und Datenverwaltungspraktiken. Diese umfassen:
- Angaben zur Konzeption der Datensätze (warum wurden welche Daten gewählt?),
- Datenerhebungsverfahren und deren Herkunft,
- die für die Datenannotation verwendeten Verfahren (z. B. Kennzeichnung von erfolgreichen vs. nicht erfolgreichen Bewerbern),
- Bereinigungsverfahren (wie wurden fehlerhafte oder verzerrte Daten erkannt und behandelt?),
- Prüfung auf Lücken und Mängel und deren Behebung.
Art. 10 Abs. 2 lit. f: Besonders relevant für Recruiting-KI ist die Anforderung, mögliche Verzerrungen (Biases) zu identifizieren, die sich auf die Grundrechte der betroffenen Personen auswirken könnten. Die Trainingsdaten müssen mit Blick auf die spezifische geografische, kontextuelle, verhaltensbezogene oder funktionale Umgebung beurteilt werden, in der das System eingesetzt wird.
Art. 10 Abs. 3: Die Datensätze müssen relevant, hinreichend repräsentativ und so weit wie möglich fehlerfrei sein. Sie müssen die geeigneten statistischen Eigenschaften aufweisen -- auch im Hinblick auf die Personen oder Personengruppen, für die das System bestimmt ist.
Art. 10 Abs. 5: Unter bestimmten Voraussetzungen dürfen besondere Kategorien personenbezogener Daten (Art. 9 DSGVO) -- etwa zur ethnischen Herkunft oder zum Geschlecht -- verarbeitet werden, um eine Überwachung, Erkennung und Korrektur von Verzerrungen sicherzustellen. Dies ist ausdrücklich nur unter strengen Sicherheitsvorkehrungen zulässig und stellt eine eng begrenzte Ausnahme dar.
Was das konkret für Recruiting-KI bedeutet
Anbieter und Betreiber von KI-Recruiting-Systemen müssen sicherstellen, dass:
- die Trainingsdaten die Vielfalt der realen Bewerberpopulation widerspiegeln (Geschlecht, Alter, ethnische Herkunft etc.),
- historische Verzerrungen in den Daten erkannt und korrigiert werden (z. B. die systematische Bevorzugung bestimmter Gruppen in vergangenen Einstellungsentscheidungen),
- die Datenqualität kontinuierlich überprüft wird -- nicht nur einmalig bei der Entwicklung, sondern auch im laufenden Betrieb,
- eine Dokumentation der Data-Governance-Praktiken vorliegt, die gegenüber Aufsichtsbehörden vorgelegt werden kann.
10-Punkte-Compliance-Checkliste für KI-Recruiting
Die folgende Checkliste fasst die wichtigsten Maßnahmen zusammen, die Unternehmen bei der Einführung und dem Betrieb von KI-Recruiting-Systemen beachten müssen:
1. Risikoklassifizierung durchführen Prüfen Sie, ob Ihr KI-Recruiting-System unter Anhang III Nr. 4 lit. a AI Act fällt. Dokumentieren Sie die Einstufung und begründen Sie eine etwaige Ausnahme nach Art. 6 Abs. 3 schriftlich.
2. Risikomanagementsystem etablieren (Art. 9 AI Act) Richten Sie ein kontinuierliches Risikomanagementsystem ein, das bekannte und vorhersehbare Risiken des Systems identifiziert, bewertet und durch geeignete Maßnahmen mindert.
3. Datenqualität sicherstellen (Art. 10 AI Act) Stellen Sie sicher, dass die Trainingsdaten repräsentativ, fehlerfrei und frei von systematischen Verzerrungen sind. Dokumentieren Sie Ihre Data-Governance-Praktiken vollständig.
4. Bias-Audit vor Inbetriebnahme und regelmäßig danach Führen Sie vor dem ersten Einsatz einen umfassenden Bias-Audit durch. Prüfen Sie die Ergebnisse des Systems aufgeschlüsselt nach allen sieben AGG-Merkmalen. Wiederholen Sie die Prüfung mindestens halbjährlich und nach jedem Modell-Update.
5. AGG-Konformität prüfen Lassen Sie die Auswahlkriterien des Systems durch Ihre Rechtsabteilung oder einen spezialisierten Anwalt auf Vereinbarkeit mit §§ 1-3, 7 AGG prüfen. Achten Sie besonders auf mittelbare Diskriminierung durch Proxy-Variablen.
6. Menschliche Aufsicht sicherstellen (Art. 14 AI Act) Stellen Sie sicher, dass qualifizierte Personen die KI-Entscheidungen überwachen und jederzeit übersteuern können. Keine Bewerbung darf ausschließlich auf Basis einer KI-Entscheidung abgelehnt werden.
7. Bewerber informieren (Art. 50 AI Act, Art. 13, 14, 22 DSGVO) Informieren Sie Bewerber transparent darüber, dass KI im Auswahlverfahren eingesetzt wird. Erklären Sie die Logik des Systems, die Tragweite und die angestrebten Auswirkungen.
8. Datenschutz-Folgenabschätzung durchführen (Art. 35 DSGVO) KI-Recruiting erfordert in der Regel eine DSFA, da es sich um eine systematische und umfassende Bewertung persönlicher Aspekte natürlicher Personen handelt, die automatisiert erfolgt und rechtliche Wirkungen entfaltet.
9. Dokumentation und Nachweisfähigkeit Führen Sie alle Entscheidungen, Audits, Datenqualitätsprüfungen und Risikobewertungen in einer nachvollziehbaren Dokumentation zusammen. Diese ist im Streitfall (§ 22 AGG Beweislastumkehr) und gegenüber Aufsichtsbehörden unverzichtbar.
10. Betriebsrat einbeziehen (§ 87 Abs. 1 Nr. 6 BetrVG) Falls ein Betriebsrat besteht, hat dieser ein Mitbestimmungsrecht bei der Einführung und Anwendung technischer Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen. KI-Recruiting-Systeme fallen regelmäßig darunter.
Menschliche Aufsicht: Art. 14 AI Act und Art. 22 DSGVO
Art. 14 AI Act: Pflicht zur menschlichen Aufsicht
Art. 14 VO (EU) 2024/1689 verlangt, dass Hochrisiko-KI-Systeme so konzipiert und entwickelt werden, dass sie von natürlichen Personen wirksam beaufsichtigt werden können. Für KI-Recruiting bedeutet das konkret:
- Das System muss dem Aufsichtspersonal ausreichende Transparenz bieten, damit die Ergebnisse richtig interpretiert werden können (Art. 14 Abs. 4 lit. a).
- Das Aufsichtspersonal muss in der Lage sein, die Empfehlungen des Systems zu ignorieren oder eine andere Entscheidung zu treffen (Art. 14 Abs. 4 lit. c).
- Es muss möglich sein, das System jederzeit durch ein Stopp-Signal zu unterbrechen oder in einen sicheren Zustand zu versetzen (Art. 14 Abs. 4 lit. e).
- Das Aufsichtspersonal muss über die notwendige Kompetenz, Ausbildung und Befugnis verfügen, um seine Aufgabe wirksam wahrzunehmen (Art. 14 Abs. 4 lit. d, Art. 14 Abs. 2).
Praxisrelevanter Hinweis: „Menschliche Aufsicht" bedeutet nicht, dass ein Mensch jede einzelne Entscheidung manuell überprüft. Es muss aber ein strukturiertes Aufsichtskonzept bestehen, das regelmäßige Stichprobenkontrollen, Eskalationsmechanismen und die Möglichkeit zur Einzelfallüberprüfung umfasst.
Art. 22 DSGVO: Verbot automatisierter Einzelentscheidungen
Parallel zum AI Act gilt Art. 22 Abs. 1 DSGVO: Betroffene Personen haben das Recht, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden, die ihnen gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.
Die Ablehnung einer Bewerbung ist eine solche Entscheidung mit erheblicher Beeinträchtigung. Wenn ein KI-System eine Bewerbung automatisch aussortiert, ohne dass ein Mensch diese Entscheidung überprüft und bestätigt hat, liegt ein Verstoß gegen Art. 22 DSGVO vor.
Ausnahmen bestehen nur, wenn:
- die Entscheidung für den Abschluss oder die Erfüllung eines Vertrags erforderlich ist (Art. 22 Abs. 2 lit. a),
- eine ausdrückliche Einwilligung vorliegt (Art. 22 Abs. 2 lit. c), oder
- eine gesetzliche Grundlage nach Unionsrecht oder nationalem Recht besteht (Art. 22 Abs. 2 lit. b).
In der Praxis wird sich ein Unternehmen für KI-Recruiting kaum auf eine dieser Ausnahmen berufen können, ohne gleichzeitig einen menschlichen Überprüfungsmechanismus einzurichten. Selbst bei einer Einwilligung müssen angemessene Maßnahmen zum Schutz der Rechte und Freiheiten des Bewerbers getroffen werden -- einschließlich des Rechts auf Erwirkung des Eingreifens einer Person (Art. 22 Abs. 3 DSGVO).
Zusammenspiel von Art. 14 AI Act und Art. 22 DSGVO
Beide Vorschriften ergänzen sich: Art. 14 AI Act fordert die technische und organisatorische Möglichkeit menschlicher Aufsicht, Art. 22 DSGVO fordert die tatsächliche Ausübung menschlicher Kontrolle bei Einzelentscheidungen. In der Summe bedeutet das: Bei KI-Recruiting muss immer ein Mensch die finale Entscheidung treffen oder zumindest kontrollieren -- das System darf nicht autonom über die Ablehnung oder Annahme eines Bewerbers entscheiden.
Häufig gestellte Fragen (FAQ)
Darf ich KI im Recruiting überhaupt einsetzen?
Ja, der Einsatz von KI im Recruiting ist grundsätzlich erlaubt. Er ist aber an strenge Bedingungen geknüpft. KI-Recruiting-Systeme fallen als Hochrisiko-Systeme unter die umfangreichen Pflichten des AI Act (Risikomanagement, Datenqualität, menschliche Aufsicht, Transparenz). Gleichzeitig müssen die Vorgaben des AGG, der DSGVO und des BDSG eingehalten werden. Verboten ist lediglich der Einsatz von Emotionserkennung am Arbeitsplatz und im Bewerbungsverfahren nach Art. 5 Abs. 1 lit. f AI Act.
Was passiert, wenn mein KI-Recruiting-Tool diskriminiert?
Sie haften als Arbeitgeber nach § 15 AGG -- unabhängig davon, ob Sie den Algorithmus selbst entwickelt oder von einem Drittanbieter bezogen haben. Diskriminierte Bewerber können eine angemessene Entschädigung verlangen (§ 15 Abs. 2 AGG, typischerweise bis zu drei Monatsgehälter). Zusätzlich drohen Bußgelder nach DSGVO und AI Act. Gegenüber dem Softwareanbieter können Regressansprüche bestehen, die Außenhaftung gegenüber dem Bewerber trifft aber den Arbeitgeber.
Muss ich Bewerbern mitteilen, dass KI eingesetzt wird?
Ja, und zwar aus mehreren Rechtsgrundlagen. Art. 50 Abs. 1 AI Act fordert, dass Personen, die mit einem KI-System interagieren, darüber informiert werden. Art. 13 und 14 DSGVO verlangen Informationen über die Logik automatisierter Entscheidungsfindung. Und Art. 22 Abs. 3 DSGVO gewährt betroffenen Personen das Recht auf Erläuterung der Entscheidung und das Recht auf menschliches Eingreifen.
Genügt es, das Geschlecht als Variable aus dem KI-Modell zu entfernen?
Nein. Wie der Amazon-Fall zeigt, kann ein KI-System auch ohne direkte Kenntnis des Geschlechts diskriminieren -- über Proxy-Variablen, die mit dem Geschlecht korrelieren (Sportvereine, Studienfach, sprachliche Formulierungen etc.). § 3 Abs. 2 AGG verbietet auch die mittelbare Diskriminierung durch scheinbar neutrale Kriterien. Ein umfassender Bias-Audit muss daher nicht nur direkte, sondern auch indirekte Diskriminierung prüfen.
Welche Fristen gelten für die Umsetzung?
Die Hochrisiko-Pflichten des AI Act gelten ab 2. August 2026 für neue KI-Systeme, die ab diesem Datum in Verkehr gebracht werden. Für bestehende Systeme, die nach dem 2. August 2025 wesentlich geändert werden, gelten die Pflichten ebenfalls. Das AGG und die DSGVO gelten bereits jetzt -- wer KI-Recruiting einsetzt, muss die Diskriminierungsverbote und Datenschutzanforderungen bereits heute einhalten.
So unterstützt KI Comply Sie
KI-Recruiting rechtssicher einzusetzen, erfordert Wissen an der Schnittstelle von Arbeitsrecht, Datenschutz und KI-Regulierung. Mit der KI Comply Schulungsplattform bereiten Sie Ihre HR-Abteilung, Rechtsabteilung und Führungskräfte gezielt auf die Anforderungen vor:
- Praxisnahe Schulungsmodule zu AGG-Konformität, AI Act Hochrisiko-Pflichten und Datenschutz im Recruiting
- Interaktive Fallbeispiele -- vom Amazon-Fall bis zu aktuellen BAG-Entscheidungen
- Compliance-Checklisten und Dokumentationsvorlagen für KI-Recruiting
- Zertifikate als Nachweis der KI-Kompetenz nach Art. 4 AI Act
Jetzt kostenlos testen und KI-Recruiting von Anfang an rechtssicher gestalten.
Rechtsquellen
- Hochrisiko Beschäftigung – Anhang III Nr. 4 VO (EU) 2024/1689 (Quelle)
- Diskriminierungsverbot – §§1-3, 7 AGG
- Beweislastumkehr – §22 AGG
- Beschäftigtendatenschutz – §26 BDSG
- Datenqualität – Art. 10 VO (EU) 2024/1689
Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.
Artikel teilen:
Weiterlesen
KI im Personalwesen: Rechtssicherer Einsatz von KI im HR
KI im Recruiting, bei Leistungsbewertung oder Personalplanung? HR-KI ist Hochrisiko nach dem AI Act. Was erlaubt ist und worauf Sie achten müssen.
Hochrisiko-KI-Systeme nach dem AI Act: Definition, Beispiele und Pflichten
Hochrisiko-KI-Systeme unterliegen den strengsten Regeln des AI Act. Wir erklären, was als Hochrisiko gilt, welche Beispiele es gibt und welche Pflichten Sie treffen.
SCHUFA-Scoring-Urteil des EuGH: Was es für KI-Nutzer bedeutet
Der EuGH hat entschieden: Automatisiertes Scoring wie bei der SCHUFA unterliegt Art. 22 DSGVO. Das Urteil hat weitreichende Folgen für alle KI-gestützten Entscheidungen.

Checkliste: DSFA für KI-Systeme durchführen
Praxisnahe Checkliste für die Datenschutz-Folgenabschätzung bei KI-Anwendungen. Schritt für Schritt durch alle Pflichtinhalte nach Art. 35 DSGVO -- mit Vorlage und Muster.

Ist KI-Output urheberrechtlich geschützt? Aktuelle Rechtslage
Warum rein maschinell erzeugte Inhalte in Deutschland keinen Werkschutz genießen, wo die Grenze zur schützfähigen KI-Assistenz verläuft und wie Unternehmen ihre Rechte an KI-gestütztem Content sichern.

KI-Software einkaufen: Rechtliche Prüfung vor dem Kauf
KI-Software kaufen ohne rechtliche Risiken: Wie Unternehmen Beschaffungsprozesse DSGVO-, BGB- und AI-Act-konform gestalten — mit Checkliste und Vertragsleitfaden.
Machen Sie Ihr Team KI-fit
Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.
Preise ansehen