Zurück zum Blog
Arbeitsrecht
Regulierung

KI und Kündigung: Darf der Algorithmus über Entlassungen entscheiden?

Kann KI eine Kündigungsentscheidung treffen oder vorbereiten? Welche rechtlichen Grenzen gelten und warum menschliche Entscheidung unverzichtbar bleibt.

KCT
KI Comply TeamKI-Compliance Experten
11. Dezember 20255 Min. Lesezeit
KI und Kündigung: Darf der Algorithmus über Entlassungen entscheiden?

Das Wichtigste in Kürze

  • Eine rein durch KI getroffene Kündigungsentscheidung ist nach Art. 22 DSGVO unzulässig -- Kündigung ist eine Entscheidung mit rechtlicher Wirkung, die nicht vollautomatisiert erfolgen darf.
  • KI-Systeme, die bei der Beendigung von Arbeitsverhältnissen eingesetzt werden, sind nach Anhang III Nr. 4 lit. b VO (EU) 2024/1689 (AI Act) als Hochrisiko eingestuft -- mit umfangreichen Compliance-Pflichten.
  • Die Sozialauswahl nach §1 Abs. 3 KSchG erfordert eine Ermessensentscheidung -- KI kann die vier gesetzlichen Kriterien berechnen, aber das Abwägungsergebnis muss ein Mensch verantworten.
  • Der Betriebsrat ist nach §102 BetrVG vor jeder Kündigung anzuhören -- dazu gehört die Offenlegung, wenn KI-Systeme die Entscheidung vorbereitet haben.
  • Bei einer KI-gestützten Kündigung trägt der Arbeitgeber die volle Beweislast für die Richtigkeit der zugrunde liegenden Daten und die Nachvollziehbarkeit des algorithmischen Ergebnisses.

Restrukturierung, Personalabbau, betriebsbedingte Kündigung -- Entscheidungen, die Existenzen betreffen. Wenn Unternehmen heute über Personalabbau nachdenken, liegen auf dem Tisch nicht mehr nur Excel-Listen und Bauchgefühl, sondern zunehmend algorithmische Auswertungen: Fluktuationsprognosen, Performance-Scores, KI-gestützte Sozialauswahl-Berechnungen.

Die Idee klingt bestechend: Wer Kündigungsentscheidungen datenbasiert vorbereitet, handelt objektiver, schneller und weniger anfällig für persönliche Sympathien. Doch die Realität ist rechtlich komplex. Das deutsche Kündigungsschutzrecht, die DSGVO, der AI Act und das Betriebsverfassungsgesetz setzen klare Grenzen -- und machen eine rein algorithmische Kündigung schlicht rechtswidrig.

Dieser Artikel zeigt, welche KI-Anwendungen Unternehmen im Kündigungskontext bereits einsetzen, wo die rechtlichen Grenzen verlaufen und wie Sie KI-gestützte Personalentscheidungen rechtskonform gestalten.

Aktuelle Praxis: Wo KI im Kündigungskontext eingesetzt wird

Die folgenden Anwendungsfelder sind in der Praxis bereits verbreitet oder werden aktiv pilotiert:

AnwendungFunktionsweiseRegulatorische Einordnung
FluktuationsprognoseAlgorithmus bewertet anhand historischer Daten (Fehlzeiten, Abteilungswechsel, Teamklima-Indikatoren), welche Beschäftigte mit hoher Wahrscheinlichkeit kündigen oder gekündigt werdenHochrisiko (Anhang III Nr. 4 lit. b AI Act)
Performance-ScoringKI aggregiert KPIs, Projektabschlüsse, 360°-Feedback zu einem Gesamtscore, der in Personalabbauentscheidungen einfließtHochrisiko (Anhang III Nr. 4 lit. b AI Act) + §94 BetrVG
Sozialauswahl-BerechnungSoftware berechnet auf Basis der vier gesetzlichen Kriterien (Betriebszugehörigkeit, Lebensalter, Unterhaltspflichten, Schwerbehinderung) ein PunkteschemaHochrisiko (Anhang III Nr. 4 lit. b AI Act) + §1 Abs. 3 KSchG
Skill-Gap-AnalyseKI identifiziert Beschäftigte, deren Qualifikationsprofil von zukünftigen Anforderungen abweicht -- als Grundlage für betriebsbedingte KündigungenHochrisiko (Anhang III Nr. 4 lit. b AI Act)
KostenoptimierungAlgorithmus berechnet, welche Personalkonstellation die geringsten Kosten verursacht -- unter Berücksichtigung von Gehalt, Abfindungsrisiko und NachbesetzungskostenHochrisiko (Anhang III Nr. 4 lit. b AI Act)

Entscheidend: Keine dieser Anwendungen ist per se verboten. Aber jede einzelne unterliegt als Hochrisiko-System strengen Anforderungen -- und die Ergebnisse dürfen niemals ohne menschliche Prüfung und Entscheidung in eine Kündigung münden.

§1 KSchG: Sozialwidrigkeit und die Grenzen der Automatisierung

Das Grundprinzip

Nach §1 Abs. 1 KSchG ist eine Kündigung rechtsunwirksam, wenn sie sozial ungerechtfertigt ist. Eine Kündigung ist sozial ungerechtfertigt, wenn sie nicht durch Gründe bedingt ist, die in der Person oder in dem Verhalten des Arbeitnehmers liegen, oder durch dringende betriebliche Erfordernisse.

Was bedeutet das für den KI-Einsatz? Das KSchG verlangt eine wertende Gesamtbetrachtung -- keine bloße Datenauswertung. Der Arbeitgeber muss darlegen und beweisen, dass die Kündigung auf einem der drei anerkannten Kündigungsgründe basiert:

  • Betriebsbedingte Gründe: Wegfall des Arbeitsplatzes durch unternehmerische Entscheidung, keine Weiterbeschäftigungsmöglichkeit.
  • Personenbedingte Gründe: Dauerhafte Unfähigkeit, die geschuldete Arbeitsleistung zu erbringen (z. B. langfristige Erkrankung mit negativer Prognose).
  • Verhaltensbedingte Gründe: Erhebliche Vertragsverletzung trotz vorheriger Abmahnung.

KI als Datenlieferant -- nicht als Entscheider

KI kann in allen drei Kategorien Daten liefern:

  • Bei betriebsbedingten Kündigungen kann ein Algorithmus analysieren, welche Stellen aufgrund veränderter Marktbedingungen wegfallen, und Szenarien für den Personalabbau berechnen.
  • Bei personenbedingten Kündigungen kann KI Fehlzeitenmuster auswerten und Prognosen über die zukünftige Arbeitsfähigkeit erstellen.
  • Bei verhaltensbedingten Kündigungen kann KI Leistungsdaten aggregieren und Verstöße dokumentieren.

Aber: Die Subsumtion -- die rechtliche Bewertung, ob die konkreten Umstände einen Kündigungsgrund darstellen -- ist eine juristische Wertungsfrage, die menschliches Urteilsvermögen erfordert. Ein Algorithmus kann berechnen, dass die Fehlzeitenquote eines Mitarbeiters bei 38 % liegt. Ob das eine negative Gesundheitsprognose rechtfertigt, ob die Kündigung verhältnismäßig ist und ob mildere Mittel (Umsetzung, Änderungskündigung, betriebliches Eingliederungsmanagement nach §167 Abs. 2 SGB IX) ausgeschöpft wurden -- das kann nur ein Mensch verantwortungsvoll beurteilen.

Konsequenz: Eine Kündigung, die sich allein auf einen algorithmischen Output stützt, ohne dass ein Mensch die rechtliche Prüfung nach §1 KSchG eigenständig durchgeführt hat, ist mit hoher Wahrscheinlichkeit sozialwidrig und damit unwirksam.

§1 Abs. 3 KSchG: Sozialauswahl per Algorithmus?

Die vier gesetzlichen Kriterien

Bei betriebsbedingten Kündigungen verlangt §1 Abs. 3 KSchG eine Sozialauswahl unter vergleichbaren Arbeitnehmern. Der Arbeitgeber muss vier Kriterien ausreichend berücksichtigen:

  1. Dauer der Betriebszugehörigkeit
  2. Lebensalter
  3. Unterhaltspflichten
  4. Schwerbehinderung

Diese Kriterien sind numerisch darstellbar -- und damit auf den ersten Blick ideal für eine algorithmische Berechnung. Tatsächlich setzen viele Unternehmen bereits Software ein, die ein Punkteschema auf Basis dieser vier Kriterien erstellt.

Was der Algorithmus kann -- und was nicht

Was KI leisten kann:

  • Korrekte Erfassung und Gewichtung der vier Kriterien nach einem definierten Punkteschema.
  • Identifikation des Kreises vergleichbarer Arbeitnehmer auf Basis von Stellenbeschreibungen und Qualifikationsprofilen.
  • Schnelle Durchrechnung verschiedener Gewichtungsszenarien.
  • Flagging von Sonderfällen (z. B. Schwerbehinderte, Elternzeitberechtigte, Betriebsratsmitglieder mit Sonderkündigungsschutz).

Was KI nicht leisten kann:

  • Die Ermessensentscheidung über die Gewichtung der Kriterien zueinander. Das BAG hat wiederholt entschieden, dass dem Arbeitgeber bei der Gewichtung ein Beurteilungsspielraum zusteht (BAG, Urteil vom 29.01.2015 -- 2 AZR 164/14). Diesen Spielraum muss ein Mensch ausüben.
  • Die Prüfung, ob berechtigte betriebliche Interessen die Herausnahme bestimmter Arbeitnehmer aus der Sozialauswahl rechtfertigen (§1 Abs. 3 Satz 2 KSchG) -- etwa wegen besonderer Kenntnisse, Fähigkeiten oder Leistungen.
  • Die Berücksichtigung atypischer Härtefälle, die sich aus keiner Datenbank ablesen lassen: pflegebedürftige Angehörige, bevorstehende Renteneintritte, laufende Weiterbildungen.

Praxis-Tipp: Setzen Sie KI-gestützte Sozialauswahl-Tools als Vorbereitungsinstrument ein, nicht als Entscheidungsinstrument. Das algorithmische Ergebnis sollte als Entwurf behandelt werden, den die Personalabteilung -- idealerweise in Abstimmung mit der Rechtsabteilung -- individuell prüft und gegebenenfalls anpasst.

Art. 22 DSGVO: Das Verbot der automatisierten Kündigung

Der klare Rechtsrahmen

Art. 22 Abs. 1 DSGVO gibt jeder betroffenen Person das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden, die ihr gegenüber rechtliche Wirkung entfaltet oder sie in ähnlicher Weise erheblich beeinträchtigt.

Eine Kündigung ist der Prototyp einer Entscheidung mit rechtlicher Wirkung. Eine rein KI-gestützte Kündigung -- also eine Kündigung, bei der ein Algorithmus ohne substanzielle menschliche Prüfung entscheidet, wer gekündigt wird -- ist daher nach Art. 22 DSGVO grundsätzlich verboten.

Ausnahmen greifen bei Kündigungen praktisch nicht

Art. 22 Abs. 2 DSGVO nennt drei Ausnahmen, unter denen automatisierte Entscheidungen zulässig sein können:

  1. Erforderlichkeit für Vertragsschluss/-erfüllung (lit. a): Kündigungen sind keine Vertragserfüllung, sondern Vertragsbeendigung -- diese Ausnahme greift nicht.
  2. Gesetzliche Grundlage im EU-/Mitgliedstaatsrecht (lit. b): Eine solche gesetzliche Grundlage für algorithmische Kündigungen existiert im deutschen Recht nicht.
  3. Ausdrückliche Einwilligung (lit. c): Eine Einwilligung des Arbeitnehmers in seine eigene algorithmische Kündigung ist wegen des strukturellen Ungleichgewichts im Arbeitsverhältnis praktisch nie freiwillig (vgl. ErwGr. 43 DSGVO, Leitlinien der Art.-29-Datenschutzgruppe WP 251 rev.01).

Ergebnis: Keine der Ausnahmen des Art. 22 Abs. 2 DSGVO ist auf Kündigungsentscheidungen anwendbar. Die rein automatisierte Kündigung bleibt unzulässig.

Was „ausschließlich automatisiert" bedeutet

Entscheidend ist die Abgrenzung: Wann ist eine Entscheidung „ausschließlich" automatisiert, wann liegt eine substanzielle menschliche Beteiligung vor?

Die Art.-29-Datenschutzgruppe (jetzt EDSA) hat in ihren Leitlinien (WP 251 rev.01) klargestellt: Eine bloße Rubber-Stamping-Beteiligung -- also das unreflektierte Abnicken einer algorithmischen Empfehlung -- reicht nicht aus. Der Mensch muss:

  • Die algorithmische Empfehlung verstehen können (Transparenz des Outputs).
  • Eigene Ermessenserwägungen anstellen.
  • Die Möglichkeit haben, zu einem anderen Ergebnis zu kommen.
  • Die Autorität und Kompetenz haben, die Entscheidung tatsächlich zu übersteuern.

Für Kündigungsentscheidungen bedeutet das: Wer lediglich eine KI-generierte Liste von zu kündigenden Mitarbeitern absegnet, ohne die Einzelfälle eigenständig zu prüfen, handelt nach Art. 22 DSGVO rechtswidrig.

Anhang III Nr. 4 lit. b AI Act: Hochrisiko-System „Beendigung des Arbeitsverhältnisses"

Erfasste Systeme

Der AI Act stuft KI-Systeme, die bei der Beendigung von Arbeitsvertragsverhältnissen eingesetzt werden, als Hochrisiko ein. Anhang III Nr. 4 lit. b VO (EU) 2024/1689 erfasst KI-Systeme, die bestimmungsgemäß eingesetzt werden für:

„Entscheidungen, die die Bedingungen von Arbeitsverhältnissen, Beförderungsentscheidungen oder Kündigungen von Arbeitsvertragsverhältnissen betreffen [...]."

Das umfasst nicht nur Systeme, die eine Kündigung aussprechen, sondern auch solche, die eine Kündigung vorbereiten -- also Fluktuationsprognosen, Performance-Bewertungen für Personalabbau und automatisierte Sozialauswahl-Tools.

Pflichten für Arbeitgeber als Betreiber

Als Betreiber eines Hochrisiko-KI-Systems im Kündigungskontext müssen Unternehmen nach Art. 26 VO (EU) 2024/1689 insbesondere:

  • Menschliche Aufsicht nach Art. 14 sicherstellen: Die finale Kündigungsentscheidung muss bei einer kompetenten Person liegen, die das System versteht und übersteuern kann.
  • Transparenz nach Art. 13 und Art. 26 Abs. 7: Betroffene Beschäftigte und ihre Vertreter (Betriebsrat) sind vor der Inbetriebnahme über den Einsatz des Systems zu informieren.
  • Protokollierung nach Art. 12, 26 Abs. 5: Automatisch generierte Protokolle (Logs) müssen mindestens sechs Monate aufbewahrt werden -- bei Kündigungsstreitigkeiten empfiehlt sich eine Aufbewahrung bis zum Abschluss des Rechtsstreits.
  • Datenschutz-Folgenabschätzung nach Art. 26 Abs. 9 i.V.m. Art. 35 DSGVO durchführen.
  • Risikomanagement nach Art. 9 betreiben, das spezifisch die Risiken von Diskriminierung und fehlerhafter Datengrundlage adressiert.

Bußgeldrisiko

Bei Verstößen gegen die Betreiberpflichten für Hochrisiko-Systeme drohen Bußgelder von bis zu 15 Mio. Euro oder 3 % des weltweiten Jahresumsatzes (Art. 99 Abs. 4 VO (EU) 2024/1689). Bei verbotenen Praktiken -- etwa einer vollautomatisierten Kündigung ohne jede menschliche Aufsicht -- können es bis zu 35 Mio. Euro oder 7 % des Jahresumsatzes sein.

§102 BetrVG: Betriebsratsanhörung bei KI-gestützter Kündigung

Erweiterte Mitteilungspflicht

Nach §102 Abs. 1 BetrVG ist der Betriebsrat vor jeder Kündigung anzuhören. Die Anhörung muss die Gründe für die Kündigung umfassen. Wurde die Kündigungsentscheidung ganz oder teilweise durch ein KI-System vorbereitet, gehört zur vollständigen Anhörung:

  • Welches KI-System eingesetzt wurde und welchen Output es geliefert hat.
  • Auf welchen Daten die algorithmische Empfehlung basiert.
  • Wie die menschliche Entscheidungsträgerin den algorithmischen Output bewertet und in ihre Entscheidung einbezogen hat.
  • Warum gegebenenfalls vom algorithmischen Ergebnis abgewichen wurde -- oder warum dem Ergebnis gefolgt wurde.

Eine Kündigung, die ohne ordnungsgemäße Anhörung des Betriebsrats ausgesprochen wird, ist nach §102 Abs. 1 Satz 3 BetrVG unwirksam. Wenn der Arbeitgeber dem Betriebsrat verschweigt, dass ein KI-System die Entscheidung vorbereitet hat, ist die Anhörung unvollständig -- mit der Folge der Unwirksamkeit.

Mitbestimmung bei Einführung des KI-Systems

Zusätzlich zur Anhörung im Einzelfall hat der Betriebsrat ein Mitbestimmungsrecht bei der Einführung eines KI-Systems zur Kündigungsvorbereitung:

  • §87 Abs. 1 Nr. 6 BetrVG: Einführung technischer Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen.
  • §90 Abs. 1 Nr. 3 BetrVG: Unterrichtung bei Planung von Arbeitsverfahren und Arbeitsabläufen.
  • §80 Abs. 3 BetrVG: Der Betriebsrat kann sich bei der Beurteilung von KI-Systemen durch einen Sachverständigen unterstützen lassen.

Beweislast bei KI-gestützter Kündigung

Darlegungs- und Beweislast liegt beim Arbeitgeber

Im Kündigungsschutzprozess muss der Arbeitgeber nach §1 Abs. 2 Satz 4 KSchG die Tatsachen beweisen, die die Kündigung bedingen. Bei einer KI-gestützten Kündigung erweitert sich diese Beweislast faktisch erheblich:

  • Datenrichtigkeit: Der Arbeitgeber muss nachweisen, dass die dem Algorithmus zugrunde liegenden Daten korrekt, vollständig und aktuell waren.
  • Algorithmus-Nachvollziehbarkeit: Das Gericht muss verstehen können, wie der Algorithmus zum konkreten Ergebnis gelangt ist. Bei Black-Box-Modellen (z. B. Deep-Learning-Netzwerken) kann das faktisch unmöglich sein.
  • Diskriminierungsfreiheit: Der Arbeitgeber muss darlegen, dass der Algorithmus keine verbotene Diskriminierung nach §1 AGG (Geschlecht, Alter, ethnische Herkunft, Behinderung etc.) reproduziert hat.
  • Menschliche Prüfung: Es muss dokumentiert sein, dass ein Mensch die algorithmische Empfehlung eigenständig geprüft hat.

Das Explainability-Problem

Arbeitsgerichte sind an den Grundsatz der Unmittelbarkeit der Beweisaufnahme gebunden. Ein Arbeitgeber, der sich auf einen KI-Output beruft, muss diesen im Prozess erklären können. Wenn das eingesetzte Modell nicht erklärbar ist (fehlende Explainability/XAI), wird der Arbeitgeber seine Darlegungslast regelmäßig nicht erfüllen können.

Konsequenz: Nur erklärbare KI-Modelle (regelbasierte Systeme, Entscheidungsbäume, transparente Scoring-Modelle) sind für den Kündigungskontext praktikabel. Opake Modelle wie neuronale Netze eignen sich nicht als Grundlage für Kündigungsentscheidungen.

Praxis-Empfehlungen: KI im Kündigungskontext rechtskonform einsetzen

1. KI als Vorbereitungs-, nicht als Entscheidungstool definieren

Dokumentieren Sie klar, dass das KI-System ausschließlich der Entscheidungsvorbereitung dient. Die finale Kündigungsentscheidung trifft ein Mensch -- mit eigener Prüfung und dokumentierter Begründung.

2. Erklärbare Modelle verwenden

Setzen Sie auf transparente, regelbasierte Modelle oder Entscheidungsbäume. Vermeiden Sie Deep-Learning-Modelle, deren Ergebnisse im Kündigungsschutzprozess nicht nachvollziehbar erklärt werden können.

3. Datenschutz-Folgenabschätzung durchführen

Vor der Einführung eines KI-Systems im Kündigungskontext ist eine DSFA nach Art. 35 DSGVO zwingend. Dokumentieren Sie Risiken, Schutzmaßnahmen und die Ergebnisse der Verhältnismäßigkeitsprüfung.

4. Betriebsrat frühzeitig einbinden

Informieren Sie den Betriebsrat nicht erst bei der Einzelkündigung, sondern bereits bei der Planung und Einführung des KI-Systems. Schließen Sie eine Betriebsvereinbarung ab, die den Einsatz, die Grenzen und die Kontrollmechanismen regelt.

5. Bias-Audit vor dem Einsatz

Lassen Sie das System vor dem produktiven Einsatz auf algorithmische Verzerrungen prüfen -- insbesondere hinsichtlich Alter, Geschlecht und Behinderung. Dokumentieren Sie die Ergebnisse.

6. Menschliche Aufsicht operationalisieren

Stellen Sie sicher, dass die Personen, die KI-Empfehlungen prüfen, geschult sind, die algorithmischen Ergebnisse zu verstehen, zu hinterfragen und abzulehnen. Dokumentieren Sie die individuelle Prüfung für jeden Einzelfall.

7. Protokollierung für den Rechtsstreit

Bewahren Sie alle Logs, Eingabedaten und algorithmischen Ergebnisse auf -- mindestens bis zum Ablauf der Klagefrist nach §4 KSchG (drei Wochen nach Zugang der Kündigung), besser bis zum rechtskräftigen Abschluss eines möglichen Verfahrens.

Häufig gestellte Fragen (FAQ)

Darf ein Algorithmus entscheiden, wer gekündigt wird?

Nein. Art. 22 DSGVO verbietet ausschließlich automatisierte Entscheidungen mit rechtlicher Wirkung. Eine Kündigung ist der Prototyp einer solchen Entscheidung. Der Algorithmus darf Daten liefern und Empfehlungen aussprechen -- die Entscheidung muss ein Mensch treffen, der die Empfehlung eigenständig prüft und verantwortet.

Kann KI die Sozialauswahl nach §1 Abs. 3 KSchG durchführen?

Teilweise. KI kann die vier gesetzlichen Kriterien (Betriebszugehörigkeit, Lebensalter, Unterhaltspflichten, Schwerbehinderung) berechnen und ein Punkteschema erstellen. Die Gewichtung der Kriterien zueinander, die Herausnahme von Leistungsträgern und die Berücksichtigung atypischer Härtefälle erfordern jedoch menschliches Ermessen.

Muss der Betriebsrat über den KI-Einsatz informiert werden?

Ja, doppelt. Erstens bei der Einführung des KI-Systems (§87 Abs. 1 Nr. 6, §90 BetrVG). Zweitens bei jeder einzelnen Kündigung im Rahmen der Anhörung nach §102 BetrVG -- einschließlich der Information, dass und wie ein KI-System die Entscheidung vorbereitet hat.

Was passiert, wenn der Algorithmus diskriminiert?

Wenn ein KI-System bei der Kündigungsvorbereitung systematisch bestimmte Gruppen benachteiligt (z. B. ältere Beschäftigte, Teilzeitkräfte, Schwerbehinderte), liegt ein Verstoß gegen das AGG vor. Betroffene können Schadensersatz nach §15 AGG verlangen. Zusätzlich kann die Kündigung nach §134 BGB i.V.m. §7 AGG nichtig sein. Der Arbeitgeber haftet auch dann, wenn er die Diskriminierung nicht beabsichtigt hat -- algorithmische Diskriminierung entlastet nicht.

Welche Bußgelder drohen bei Verstößen?

Es drohen kumulative Sanktionen aus mehreren Rechtsregimen: Bis zu 15 Mio. Euro oder 3 % des Jahresumsatzes für Verstöße gegen AI-Act-Betreiberpflichten (Art. 99 Abs. 4 VO (EU) 2024/1689). Bis zu 20 Mio. Euro oder 4 % des Jahresumsatzes für DSGVO-Verstöße (Art. 83 Abs. 5 DSGVO). Hinzu kommen individuelle Schadensersatzansprüche der Betroffenen nach AGG, DSGVO und allgemeinem Zivilrecht.

Fazit: KI unterstützt -- der Mensch entscheidet

KI kann im Kündigungskontext einen echten Mehrwert liefern: schnellere Datenaufbereitung, konsistentere Berechnungen, bessere Dokumentation. Aber die rechtlichen Grenzen sind klar: Eine rein algorithmische Kündigung ist nach deutschem und europäischem Recht unzulässig -- aus gutem Grund. Kündigungen betreffen die wirtschaftliche Existenz von Menschen. Das erfordert menschliches Urteilsvermögen, individuelle Prüfung und die Übernahme persönlicher Verantwortung.

Unternehmen, die KI-Systeme im Personalabbau einsetzen, müssen sicherstellen, dass die Technik den Menschen unterstützt -- und nicht ersetzt. Wer diese Grenze beachtet und die Compliance-Anforderungen aus KSchG, DSGVO, AI Act und BetrVG erfüllt, kann von datengestützten Entscheidungen profitieren, ohne rechtliche Risiken einzugehen.


Sie setzen KI im Personalbereich ein oder planen den Einsatz bei Restrukturierungen? Wir unterstützen Sie bei der rechtskonformen Gestaltung -- von der Datenschutz-Folgenabschätzung über die Betriebsvereinbarung bis zur AI-Act-Compliance. Jetzt Beratungsgespräch vereinbaren.

Rechtsquellen

  • Kündigungsschutz§1 KSchG
  • Sozialauswahl§1 Abs. 3 KSchG
  • Automatisierte EntscheidungenArt. 22 DSGVO
  • Hochrisiko HR-KIAnhang III Nr. 4 lit. b VO (EU) 2024/1689 (Quelle)

Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.

Artikel teilen:

Machen Sie Ihr Team KI-fit

Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.

Preise ansehen