Zurück zum Blog
Praxis
Arbeitsrecht

KI im Personalwesen: Rechtssicherer Einsatz von KI im HR

KI im Recruiting, bei Leistungsbewertung oder Personalplanung? HR-KI ist Hochrisiko nach dem AI Act. Was erlaubt ist und worauf Sie achten müssen.

KCT
KI Comply TeamKI-Compliance Experten
27. Januar 20255 Min. Lesezeit
KI im Personalwesen: Rechtssicherer Einsatz von KI im HR

Das Wichtigste in Kürze

  • KI-Systeme im Personalwesen fallen nach Anhang III Nr. 4 VO (EU) 2024/1689 (AI Act) in die Hochrisiko-Kategorie -- von Recruiting über Leistungsbewertung bis Personalplanung.
  • Neben dem AI Act gelten gleichzeitig das Allgemeine Gleichbehandlungsgesetz (AGG), die DSGVO (insb. Art. 22), das BDSG (§ 26 Beschäftigtendatenschutz) und das Betriebsverfassungsgesetz (Mitbestimmung nach § 87 Abs. 1 Nr. 6).
  • Für Betreiber von HR-KI bedeutet das: Risikomanagement, Datenqualitätsprüfung, menschliche Aufsicht, Transparenz und Dokumentation sind verpflichtend.
  • Der Betriebsrat hat bei KI-gestützter Überwachung und Leistungsbewertung ein zwingendes Mitbestimmungsrecht.
  • Bei Verstößen drohen Bußgelder nach dem AI Act (bis 15 Mio. Euro oder 3 % des Jahresumsatzes), DSGVO-Sanktionen (bis 20 Mio. Euro oder 4 % des Jahresumsatzes) und Schadensersatzansprüche nach dem AGG.

Künstliche Intelligenz verändert die Personalarbeit grundlegend. Ob automatisiertes CV-Screening, KI-gestützte Videointerviews oder prädiktive Fluktuationsanalysen -- kaum ein HR-Bereich bleibt unberührt. Die Versprechen sind verlockend: schnellere Prozesse, objektivere Entscheidungen, geringere Kosten. Doch gerade im Personalwesen treffen KI-Systeme auf einen hochsensiblen Bereich: die berufliche Existenz von Menschen.

Der europäische Gesetzgeber hat das erkannt. Der AI Act (VO (EU) 2024/1689) stuft KI im HR-Bereich explizit als Hochrisiko ein. Gleichzeitig greifen bestehende Regelwerke -- das AGG, die DSGVO, das BDSG und das Betriebsverfassungsgesetz. Für Unternehmen entsteht damit ein dichtes Pflichtennetz, das HR-Abteilungen, IT-Verantwortliche und Geschäftsführungen gleichermaßen betrifft.

Dieser Artikel erklärt, warum HR-KI als Hochrisiko gilt, welche konkreten Anwendungen betroffen sind, wo die größten Risiken liegen und wie Sie KI im Personalwesen rechtssicher einsetzen.

Warum HR-KI als Hochrisiko eingestuft wird

Der Regelungsrahmen: Anhang III Nr. 4 AI Act

Anhang III Nr. 4 VO (EU) 2024/1689 widmet sich dem Bereich „Beschäftigung, Personalmanagement und Zugang zu selbständiger Erwerbstätigkeit". Der Gesetzgeber stuft KI-Systeme in diesem Bereich als Hochrisiko ein, wenn sie bestimmungsgemäß für einen der folgenden Zwecke eingesetzt werden:

  1. Einstellung oder Auswahl natürlicher Personen -- insbesondere zur Schaltung gezielter Stellenanzeigen, zum Sichten oder Filtern von Bewerbungen oder zur Bewertung von Kandidaten in Vorstellungsgesprächen oder Prüfungen (Anhang III Nr. 4 lit. a).

  2. Entscheidungen über Beschäftigungsverhältnisse -- einschließlich Beförderung, Kündigung, Aufgabenzuweisung auf der Grundlage individueller Verhaltens- oder Persönlichkeitsmerkmale und Überwachung oder Bewertung der Leistung und des Verhaltens von Beschäftigten (Anhang III Nr. 4 lit. b).

Die Einstufung erfolgt über Art. 6 Abs. 2 AI Act: Ein KI-System ist Hochrisiko, wenn es in einem der in Anhang III genannten Bereiche eingesetzt wird -- unabhängig davon, ob es als eigenständige Software oder als Komponente eines größeren Systems betrieben wird.

Warum gerade der HR-Bereich?

Die Hochrisiko-Einstufung ist kein Zufall. Erwägungsgrund 57 der VO (EU) 2024/1689 begründet sie ausdrücklich:

  • Existenzielle Auswirkungen: Entscheidungen über Einstellung, Beförderung oder Kündigung betreffen die wirtschaftliche Lebensgrundlage von Menschen unmittelbar.
  • Machtasymmetrie: Im Beschäftigungsverhältnis besteht ein strukturelles Ungleichgewicht zwischen Arbeitgeber und Beschäftigtem. KI-Systeme können dieses Ungleichgewicht verschärfen.
  • Diskriminierungsgefahr: Historische Daten, auf denen KI-Modelle trainiert werden, spiegeln häufig bestehende gesellschaftliche Ungleichheiten wider. Ohne Gegenmaßnahmen können KI-Systeme Diskriminierung systematisieren und skalieren.
  • Mangelnde Transparenz: Bewerber und Beschäftigte können algorithmische Entscheidungen kaum nachvollziehen, was ihre Möglichkeiten zur Gegenwehr einschränkt.

Die Ausnahmeregel des Art. 6 Abs. 3

Art. 6 Abs. 3 AI Act sieht vor, dass ein in Anhang III genanntes KI-System nicht als Hochrisiko gilt, wenn es kein erhebliches Risiko darstellt und lediglich eine eng begrenzte Verfahrensaufgabe erfüllt, das Ergebnis einer zuvor getroffenen menschlichen Entscheidung verbessert (ohne sie zu ersetzen), ein rein vorbereitendes Ergebnis liefert oder eine Aufgabe lediglich in Muster erkennt, ohne menschliche Bewertungen zu ersetzen.

Wichtig: Diese Ausnahme ist eng auszulegen. Der Anbieter muss dokumentieren, warum das System kein erhebliches Risiko darstellt, und diese Bewertung vor dem Inverkehrbringen bei der zuständigen Aufsichtsbehörde registrieren. In der Praxis werden die meisten HR-KI-Anwendungen die Voraussetzungen der Ausnahme nicht erfüllen, da sie typischerweise direkte Auswirkungen auf Personalentscheidungen haben.

Typische KI-Anwendungen im HR

Die folgende Tabelle gibt einen Überblick über die häufigsten KI-Anwendungen im Personalwesen, ihre Risikoklasse und die wichtigsten Pflichten:

AnwendungBeispiel-ToolsRisikoklasseWichtigste Pflichten
CV-Screening / BewerbungsrankingHireVue, Textkernel, CVlizerHochrisiko (Anhang III Nr. 4 lit. a)Risikomanagement, Bias-Prüfung, menschliche Aufsicht, Transparenz gegenüber Bewerbern, DSFA
Video-Interview-AnalyseHireVue, myInterview, RetorioHochrisiko (Anhang III Nr. 4 lit. a) + ggf. Emotionserkennung (Art. 5 Abs. 1 lit. f)Alle Hochrisiko-Pflichten; Emotionserkennung am Arbeitsplatz ist verboten (Art. 5 Abs. 1 lit. f AI Act)
Chatbots im RecruitingMya, Paradox Olivia, JobPalBegrenztes Risiko / ggf. HochrisikoTransparenzpflicht (Art. 50 Abs. 1: Kennzeichnung als KI); Hochrisiko, wenn Chatbot Vorauswahl trifft
LeistungsbewertungBetterworks, Lattice, 15Five (mit KI-Modulen)Hochrisiko (Anhang III Nr. 4 lit. b)Risikomanagement, menschliche Aufsicht, Mitbestimmung Betriebsrat, DSFA
Personalplanung / FluktuationsvorhersageVisier, Peakon, Culture AmpHochrisiko (Anhang III Nr. 4 lit. b)Risikomanagement, Datenqualität, Dokumentation, DSFA
Gehaltsanalyse / VergütungsoptimierungPayscale, Gartner TalentNeuronHochrisiko, wenn zur individuellen Gehaltsfestlegung eingesetztBias-Prüfung (Gender Pay Gap), Transparenz, menschliche Aufsicht
ArbeitszeitplanungQuinyx, Shiftboard, ATOSSBegrenztes Risiko / ggf. HochrisikoHochrisiko bei leistungsbezogener Schichtplanung; Mitbestimmung nach § 87 Abs. 1 Nr. 2 und Nr. 6 BetrVG

Besonders kritisch: Emotionserkennung. Art. 5 Abs. 1 lit. f AI Act verbietet ausdrücklich den Einsatz von KI-Systemen zur Erkennung von Emotionen am Arbeitsplatz -- mit eng begrenzten Ausnahmen für medizinische und sicherheitsrelevante Zwecke. Video-Interview-Tools, die Mimik, Gestik oder Stimmlage analysieren, um Rückschlüsse auf Persönlichkeitseigenschaften oder die „Eignung" von Kandidaten zu ziehen, fallen unter dieses Verbot.

Diskriminierungsrisiko: AGG und Art. 10 AI Act

Das Problem: Algorithmische Diskriminierung

KI-Systeme im HR treffen Entscheidungen auf Grundlage statistischer Muster. Diese Muster stammen aus historischen Daten -- und historische Daten spiegeln historische Ungleichheiten wider. Die Folge: Ohne gezielte Gegenmaßnahmen können KI-Systeme bestehende Diskriminierung nicht nur fortschreiben, sondern systematisch verstärken.

Bekannte Beispiele:

  • Amazon musste 2018 ein KI-basiertes Recruiting-Tool abschalten, weil es weibliche Bewerberinnen systematisch benachteiligte. Das System war auf historischen Einstellungsdaten trainiert worden, die mehrheitlich männliche Kandidaten enthielten.
  • HireVue geriet in die Kritik, weil seine Video-Analyse-Software erwiesenermaßen bestimmte Akzente, Hautfarben und Gesichtszüge unterschiedlich bewertete.

Rechtlicher Rahmen: AGG §§ 1--3

Das Allgemeine Gleichbehandlungsgesetz (AGG) verbietet Benachteiligungen im Beschäftigungsverhältnis aufgrund von:

  • Rasse oder ethnischer Herkunft (§ 1 AGG)
  • Geschlecht (§ 1 AGG)
  • Religion oder Weltanschauung (§ 1 AGG)
  • Behinderung (§ 1 AGG)
  • Alter (§ 1 AGG)
  • Sexueller Identität (§ 1 AGG)

§ 7 Abs. 1 AGG stellt klar: Beschäftigte dürfen nicht wegen eines in § 1 genannten Grundes benachteiligt werden. Dies gilt auch dann, wenn die Benachteiligung durch ein technisches System erfolgt. Der Arbeitgeber kann sich nicht darauf berufen, dass „die KI entschieden hat" -- er bleibt als Betreiber verantwortlich.

§ 22 AGG enthält eine Beweislastumkehr: Wenn im Streitfall Indizien vorliegen, die eine Benachteiligung wegen eines in § 1 genannten Grundes vermuten lassen, trägt der Arbeitgeber die Beweislast dafür, dass kein Verstoß vorliegt. Bei KI-Systemen ist diese Darlegung besonders schwierig, wenn der Algorithmus nicht transparent ist.

Datenqualitätsanforderungen: Art. 10 AI Act

Art. 10 VO (EU) 2024/1689 stellt umfassende Anforderungen an die Datenqualität von Hochrisiko-KI-Systemen:

  • Trainings-, Validierungs- und Testdatensätze müssen relevant, hinreichend repräsentativ und möglichst fehlerfrei sein (Art. 10 Abs. 3).
  • Die Datensätze müssen die besonderen geografischen, kontextuellen, verhaltensmäßigen oder funktionalen Rahmenbedingungen berücksichtigen, unter denen das System bestimmungsgemäß eingesetzt werden soll (Art. 10 Abs. 4).
  • Anbieter müssen prüfen, ob die Datensätze möglicherweise Verzerrungen (Biases) enthalten, die zu diskriminierenden Ergebnissen führen könnten (Art. 10 Abs. 2 lit. f).
  • Soweit für die Bias-Erkennung erforderlich, dürfen besondere Kategorien personenbezogener Daten (Art. 9 DSGVO) unter strengen Auflagen verarbeitet werden (Art. 10 Abs. 5 AI Act).

Für HR-KI in der Praxis bedeutet das: Wer ein CV-Screening-Tool einsetzt, muss sicherstellen, dass der Anbieter die Trainingsdaten auf Repräsentativität und Verzerrungen geprüft hat. Werden etwa überwiegend Daten aus einem bestimmten Kulturkreis verwendet, kann das System Kandidaten mit anderem Hintergrund systematisch benachteiligen.

DSGVO-Anforderungen an HR-KI

Beschäftigtendatenschutz: § 26 BDSG

§ 26 Abs. 1 BDSG bildet die zentrale Rechtsgrundlage für die Verarbeitung personenbezogener Daten von Beschäftigten. Demnach dürfen personenbezogene Daten für Zwecke des Beschäftigungsverhältnisses verarbeitet werden, wenn dies für die Entscheidung über die Begründung eines Beschäftigungsverhältnisses, für dessen Durchführung oder Beendigung oder zur Ausübung oder Erfüllung von Rechten und Pflichten der Interessenvertretung der Beschäftigten erforderlich ist.

Für den KI-Einsatz im Recruiting heißt das: Bewerberdaten dürfen nur insoweit verarbeitet werden, als es für die Entscheidung über die Einstellung erforderlich ist. Die automatisierte Analyse von Social-Media-Profilen, die über öffentlich zugängliche berufliche Informationen hinausgeht, ist in der Regel nicht von § 26 BDSG gedeckt.

Verbot automatisierter Einzelentscheidungen: Art. 22 DSGVO

Art. 22 Abs. 1 DSGVO gibt betroffenen Personen das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlich erheblicher Weise beeinträchtigt.

Das bedeutet für HR-KI:

  • Eine vollautomatische Absage ohne jede menschliche Prüfung ist nach Art. 22 Abs. 1 DSGVO grundsätzlich unzulässig.
  • Auch eine rein formale menschliche Bestätigung genügt nicht. Der EuGH hat im SCHUFA-Scoring-Urteil (C-634/21, 7. Dezember 2023) klargestellt, dass die menschliche Entscheidung substanziell sein muss -- ein bloßes „Abnicken" eines algorithmischen Ergebnisses erfüllt die Anforderungen nicht.
  • Ausnahmen nach Art. 22 Abs. 2 DSGVO bestehen nur bei ausdrücklicher Einwilligung, zur Vertragserfüllung oder bei gesetzlicher Ermächtigung -- jeweils unter Einhaltung angemessener Schutzmaßnahmen.

Informationspflichten: Art. 13 und 14 DSGVO

Bei der Erhebung personenbezogener Daten müssen Bewerber und Beschäftigte nach Art. 13 Abs. 2 lit. f bzw. Art. 14 Abs. 2 lit. g DSGVO über den Einsatz automatisierter Entscheidungsfindung informiert werden. Das umfasst:

  • Aussagekräftige Informationen über die involvierte Logik des KI-Systems
  • Informationen über die Tragweite und angestrebten Auswirkungen der Verarbeitung
  • Das Recht auf Anfechtung der Entscheidung und auf Erläuterung durch einen Menschen

Datenschutz-Folgenabschätzung: Art. 35 DSGVO

Für praktisch jede HR-KI-Anwendung ist eine Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO erforderlich. Die DSK-Positivliste nennt KI-gestützte Verarbeitung personenbezogener Daten und automatisierte Entscheidungsfindung ausdrücklich als Auslöser. Die DSFA muss vor der Inbetriebnahme durchgeführt werden und mindestens folgende Elemente enthalten:

  • Systematische Beschreibung der Verarbeitungsvorgänge und ihrer Zwecke
  • Bewertung der Notwendigkeit und Verhältnismäßigkeit
  • Bewertung der Risiken für die Rechte und Freiheiten der Betroffenen
  • Geplante Abhilfemaßnahmen und Sicherheitsvorkehrungen

Für Hochrisiko-KI nach dem AI Act kommt zusätzlich die Grundrechte-Folgenabschätzung nach Art. 27 VO (EU) 2024/1689 hinzu, die der Betreiber vor der erstmaligen Nutzung durchführen muss.

Mitbestimmung des Betriebsrats

§ 87 Abs. 1 Nr. 6 BetrVG: Das zentrale Mitbestimmungsrecht

§ 87 Abs. 1 Nr. 6 BetrVG begründet ein zwingendes Mitbestimmungsrecht des Betriebsrats bei der Einführung und Anwendung von technischen Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen. Dies ist das in der Praxis wichtigste Mitbestimmungsrecht bei KI im Personalwesen.

Das Bundesarbeitsgericht (BAG) legt den Begriff der Überwachung weit aus: Es genügt, wenn die technische Einrichtung objektiv geeignet ist, Leistung oder Verhalten der Arbeitnehmer zu überwachen -- eine subjektive Überwachungsabsicht des Arbeitgebers ist nicht erforderlich (BAG, Beschluss vom 13.12.2016, 1 ABR 7/15).

Für HR-KI bedeutet das: Nahezu jedes KI-System, das personenbezogene Daten von Beschäftigten verarbeitet, ist zumindest objektiv zur Leistungs- oder Verhaltensüberwachung geeignet. Das Mitbestimmungsrecht wird daher in aller Regel ausgelöst.

Weitere Mitbestimmungstatbestände

Neben § 87 Abs. 1 Nr. 6 können weitere Mitbestimmungsrechte betroffen sein:

  • § 87 Abs. 1 Nr. 1 BetrVG: Fragen der Ordnung des Betriebs und des Verhaltens der Arbeitnehmer -- relevant bei KI-gestützten Verhaltensregeln oder Compliance-Monitoring.
  • § 87 Abs. 1 Nr. 2 BetrVG: Beginn und Ende der täglichen Arbeitszeit -- relevant bei KI-gestützter Arbeitszeitplanung.
  • § 87 Abs. 1 Nr. 10 BetrVG: Fragen der betrieblichen Lohngestaltung -- relevant bei KI-gestützter Gehaltsanalyse.
  • § 94 BetrVG: Personalfragebögen und Beurteilungsgrundsätze -- relevant bei KI-gestützter Leistungsbewertung mit standardisierten Kriterien.
  • § 95 BetrVG: Auswahlrichtlinien -- relevant bei KI-gestütztem Recruiting, wenn das System Auswahlkriterien anwendet.

Rechtsfolgen bei fehlender Mitbestimmung

Führt der Arbeitgeber ein KI-System ohne Zustimmung des Betriebsrats ein, obwohl ein Mitbestimmungsrecht besteht, kann der Betriebsrat:

  • Die Unterlassung der Nutzung verlangen (§ 23 Abs. 3 BetrVG)
  • Eine einstweilige Verfügung beim Arbeitsgericht beantragen
  • Die Einigungsstelle anrufen (§ 87 Abs. 2 BetrVG)

Auf einzelvertraglicher Ebene sind Maßnahmen, die auf dem mitbestimmungswidrig eingesetzten KI-System beruhen, unwirksam. Eine Kündigung, die auf Grundlage eines ohne Betriebsratszustimmung eingesetzten Leistungsbewertungssystems ausgesprochen wird, kann daher angreifbar sein.

Betriebsvereinbarung als Gestaltungsinstrument

In der Praxis empfiehlt sich der Abschluss einer Betriebsvereinbarung zum KI-Einsatz, die mindestens folgende Punkte regelt:

  • Welche KI-Systeme im HR eingesetzt werden (konkretes System, Anbieter, Zweck)
  • Welche Daten verarbeitet werden und wie lange sie gespeichert bleiben
  • Wie die menschliche Aufsicht sichergestellt wird
  • Welche Rechte die Beschäftigten haben (Auskunft, Widerspruch, Erklärung)
  • Wie die regelmäßige Überprüfung auf Diskriminierung erfolgt
  • Unter welchen Bedingungen das System abgeschaltet wird

Compliance-Checkliste für HR-KI

Wer KI im Personalwesen rechtssicher einsetzen möchte, sollte die folgenden acht Punkte systematisch abarbeiten:

1. Risikoklassifizierung durchführen Prüfen Sie für jedes KI-System, ob es unter Anhang III Nr. 4 AI Act fällt. Dokumentieren Sie die Einstufung und die zugrunde liegende Begründung. Kommt die Ausnahme nach Art. 6 Abs. 3 in Betracht, muss dies gegenüber der Aufsichtsbehörde registriert und nachgewiesen werden.

2. Anbieter-Due-Diligence Stellen Sie sicher, dass der Anbieter des KI-Systems seine Pflichten nach Art. 16 AI Act erfüllt: CE-Kennzeichnung, Konformitätsbewertung, technische Dokumentation, EU-Datenbank-Registrierung. Fordern Sie Nachweise über Bias-Tests, Datenqualität und Robustheitsprüfungen an.

3. Datenschutz-Folgenabschätzung erstellen Führen Sie eine DSFA nach Art. 35 DSGVO vor der Inbetriebnahme durch. Bei Hochrisiko-KI ist zusätzlich die Grundrechte-Folgenabschätzung nach Art. 27 AI Act durchzuführen. Beziehen Sie den Datenschutzbeauftragten gemäß Art. 35 Abs. 2 DSGVO beratend ein.

4. Menschliche Aufsicht sicherstellen Definieren Sie einen klaren Prozess, der sicherstellt, dass kein KI-System allein über Einstellung, Ablehnung, Beförderung oder Kündigung entscheidet. Die menschliche Prüfung muss substanziell sein -- kein bloßes Abnicken. Schulen Sie die zuständigen Mitarbeiter darin, algorithmische Empfehlungen kritisch zu hinterfragen.

5. Transparenz herstellen Informieren Sie Bewerber und Beschäftigte gemäß Art. 13/14 DSGVO und Art. 50 AI Act über den Einsatz von KI. Erklären Sie, welche Daten verarbeitet werden, welche Logik das System verwendet und welche Rechte die Betroffenen haben. Die Information muss vor der Datenerhebung erfolgen.

6. Diskriminierung systematisch prüfen Führen Sie regelmäßige Bias-Audits durch: Analysieren Sie die Ergebnisse des KI-Systems aufgeschlüsselt nach den Merkmalen des § 1 AGG. Prüfen Sie insbesondere, ob bestimmte Gruppen systematisch schlechter bewertet werden. Dokumentieren Sie die Ergebnisse und ergreifen Sie Korrekturmaßnahmen.

7. Betriebsrat einbinden Informieren Sie den Betriebsrat vor der Einführung eines HR-KI-Systems. Klären Sie, welche Mitbestimmungsrechte betroffen sind, und schließen Sie eine Betriebsvereinbarung ab. Geben Sie dem Betriebsrat gemäß § 80 Abs. 3 BetrVG die Möglichkeit, sachkundige Dritte hinzuzuziehen.

8. Laufende Überwachung einrichten KI-Compliance ist kein einmaliges Projekt. Richten Sie ein Post-Market-Monitoring ein: Überwachen Sie die Ergebnisse des KI-Systems kontinuierlich auf Verzerrungen, dokumentieren Sie Vorfälle (Art. 26 Abs. 5 AI Act) und aktualisieren Sie die DSFA bei wesentlichen Änderungen. Legen Sie klare Eskalationspfade und Abschaltkriterien fest.

Häufig gestellte Fragen (FAQ)

Darf ich KI im Recruiting einsetzen?

Ja, der Einsatz von KI im Recruiting ist grundsätzlich erlaubt -- aber an strenge Bedingungen geknüpft. KI-Systeme zur Bewerberauswahl sind nach Anhang III Nr. 4 lit. a AI Act als Hochrisiko eingestuft. Das bedeutet: Sie benötigen ein dokumentiertes Risikomanagement, müssen menschliche Aufsicht sicherstellen, Bewerber über den KI-Einsatz informieren und eine DSFA durchführen. Vollautomatische Absagen ohne substanzielle menschliche Prüfung sind nach Art. 22 DSGVO unzulässig.

Ist KI-gestützte Videoanalyse in Bewerbungsgesprächen erlaubt?

Hier ist größte Vorsicht geboten. Art. 5 Abs. 1 lit. f AI Act verbietet den Einsatz von Systemen zur Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen. Video-Interview-Tools, die Mimik, Gestik oder Stimmlage analysieren, um Rückschlüsse auf Emotionen oder Persönlichkeitseigenschaften zu ziehen, fallen unter dieses Verbot. Rein technische Videointerviews ohne Emotions- oder Persönlichkeitsanalyse bleiben zulässig, unterliegen aber den allgemeinen Transparenz- und Datenschutzpflichten.

Muss der Betriebsrat bei jeder HR-KI-Anwendung zustimmen?

Nicht bei jeder, aber bei den meisten. Das Mitbestimmungsrecht nach § 87 Abs. 1 Nr. 6 BetrVG greift, sobald ein KI-System objektiv geeignet ist, Leistung oder Verhalten von Arbeitnehmern zu überwachen. Da HR-KI-Systeme typischerweise personenbezogene Daten von Beschäftigten verarbeiten und auswerten, wird dieses Kriterium in der Regel erfüllt. Auch bei einfachen Chatbots im Recruiting kann das Mitbestimmungsrecht greifen, wenn der Chatbot Gesprächsdaten speichert und auswertet.

Wer haftet, wenn ein KI-System im HR diskriminiert?

Der Arbeitgeber als Betreiber des KI-Systems haftet nach § 7 AGG für Benachteiligungen -- unabhängig davon, ob die Diskriminierung von einem Menschen oder einem Algorithmus ausgeht. § 15 AGG gewährt betroffenen Bewerbern und Beschäftigten Ansprüche auf Schadensersatz und Entschädigung. Daneben drohen Bußgelder nach dem AI Act (Art. 99 Abs. 4: bis 15 Mio. Euro oder 3 % des Jahresumsatzes) und nach der DSGVO (Art. 83). Gegenüber dem KI-Anbieter können vertragliche Regressansprüche bestehen, wenn der Anbieter seinen Pflichten nach Art. 16 AI Act nicht nachgekommen ist.

Ab wann gelten die AI-Act-Pflichten für HR-KI?

Die Hochrisiko-Pflichten nach dem AI Act gelten ab dem 2. August 2026 (Art. 113 Abs. 3 VO (EU) 2024/1689). Das betrifft sowohl die Pflichten der Anbieter (Art. 16 ff.) als auch die Pflichten der Betreiber (Art. 26). Die bestehenden Pflichten nach AGG, DSGVO, BDSG und BetrVG gelten bereits jetzt und unabhängig vom AI Act. Unternehmen sollten die verbleibende Zeit nutzen, um ihre HR-KI-Systeme systematisch zu inventarisieren und auf Compliance zu prüfen.

Fazit: HR-KI braucht ein solides Compliance-Fundament

KI im Personalwesen bietet enormes Potenzial -- aber auch erhebliche rechtliche Risiken. Die Kombination aus AI Act, AGG, DSGVO, BDSG und BetrVG schafft ein dichtes Pflichtennetz, das Unternehmen nicht unterschätzen sollten. Wer HR-KI ohne ausreichende Compliance-Maßnahmen einsetzt, riskiert nicht nur empfindliche Bußgelder, sondern auch unwirksame Personalentscheidungen, Schadensersatzansprüche und Reputationsschäden.

Der Schlüssel liegt in einem systematischen Ansatz: KI-Systeme inventarisieren, klassifizieren, Risiken bewerten, Schutzmaßnahmen implementieren und laufend überwachen. Die acht Punkte der Compliance-Checkliste bieten dafür einen praxisnahen Einstieg.


Sie setzen KI im Personalwesen ein oder planen den Einsatz? KI Comply unterstützt Sie mit praxisnahen Schulungen zur KI-Kompetenz nach Art. 4 AI Act -- speziell zugeschnitten auf HR-Verantwortliche und Führungskräfte. Damit Ihr Team KI nicht nur effizient, sondern auch rechtssicher einsetzt. Jetzt kostenlos testen →

Rechtsquellen

  • Hochrisiko HR-KIAnhang III Nr. 4 VO (EU) 2024/1689 (Quelle)
  • Diskriminierungsverbot§§1-3 AGG
  • Beschäftigtendatenschutz§26 BDSG
  • Mitbestimmung§87 Abs. 1 Nr. 6 BetrVG
  • Automatisierte EntscheidungenArt. 22 DSGVO

Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.

Artikel teilen:

Machen Sie Ihr Team KI-fit

Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.

Preise ansehen