Zurück zum Blog
Haftung
Arbeitsrecht

Schadensersatz bei KI-Diskriminierung: Ansprüche nach dem AGG

Wenn KI diskriminiert, können Betroffene Schadensersatz verlangen. Wir erklären die Anspruchsgrundlagen, Beweislast und typische Fälle.

KCT
KI Comply TeamKI-Compliance Experten
10. Oktober 20255 Min. Lesezeit
Schadensersatz bei KI-Diskriminierung: Ansprüche nach dem AGG

Schadensersatz bei KI-Diskriminierung: Ansprüche nach dem AGG

Das Wichtigste in Kürze: Wenn ein KI-System diskriminiert -- sei es bei der Bewerberauswahl, Kreditvergabe oder Versicherungstarifierung -- haben Betroffene Anspruch auf Schadensersatz. Im Beschäftigungskontext regelt § 15 AGG den materiellen und immateriellen Schadensersatz, im allgemeinen Zivilrecht greift § 21 AGG. Besonders bedeutsam bei KI-Diskriminierung: Die Beweislastumkehr nach § 22 AGG senkt die Hürde für Betroffene erheblich -- statistische Auffälligkeiten oder nachweislich verzerrte Trainingsdaten können als Indizien genügen. Der AI Act (VO (EU) 2024/1689) verschärft die Lage zusätzlich, indem er konkrete Anforderungen an die Datenqualität stellt und Hochrisiko-Einstufungen für HR-Systeme vorsieht. Unternehmen, die KI einsetzen, müssen Diskriminierungsrisiken systematisch managen -- andernfalls drohen empfindliche Schadensersatzforderungen.


Inhaltsverzeichnis

  1. Warum KI-Diskriminierung ein reales Haftungsrisiko ist
  2. § 15 AGG: Schadensersatz im Beschäftigungskontext
  3. § 21 AGG: Schadensersatz im allgemeinen Zivilrecht
  4. § 22 AGG: Beweislastumkehr -- der Gamechanger bei KI
  5. Typische KI-Diskriminierungsfälle nach Branche
  6. Höhe des Schadensersatzes: BAG-Rechtsprechung und Maßstäbe
  7. AI Act als Schutzgesetz: Neue Haftungsebene?
  8. Präventionsmaßnahmen für Unternehmen
  9. Häufig gestellte Fragen (FAQ)
  10. Nächste Schritte

Warum KI-Diskriminierung ein reales Haftungsrisiko ist {#warum-haftungsrisiko}

KI-Systeme treffen heute Entscheidungen, die unmittelbar die Lebenschancen von Menschen beeinflussen: Wer bekommt den Job? Wer erhält den Kredit? Wer zahlt welchen Versicherungstarif? Diese Entscheidungen basieren auf Daten -- und wenn diese Daten historische Diskriminierungsmuster enthalten, reproduziert die KI diese Muster in industriellem Maßstab.

Das Problem: Algorithmen diskriminieren nicht offensichtlich. Sie verwenden keine verbotenen Merkmale wie Geschlecht oder Herkunft direkt, sondern nutzen Proxy-Variablen -- Postleitzahl, Vorname, Sprachmuster, Lücken im Lebenslauf --, die hochgradig mit geschützten Merkmalen korrelieren. Das Ergebnis ist dasselbe: systematische Benachteiligung bestimmter Gruppen. Nur der Mechanismus ist verschleiert.

Für das Recht ist diese Verschleierung unerheblich. Das Allgemeine Gleichbehandlungsgesetz (AGG) verbietet nicht nur die unmittelbare, sondern ausdrücklich auch die mittelbare Diskriminierung (§ 3 Abs. 2 AGG). Eine dem Anschein nach neutrale Vorschrift, ein Kriterium oder ein Verfahren -- und damit auch ein Algorithmus -- das Personen wegen eines geschützten Merkmals gegenüber anderen in besonderer Weise benachteiligt, ist unzulässig, sofern es nicht durch ein rechtmäßiges Ziel sachlich gerechtfertigt ist.

Für Unternehmen bedeutet das: Wer KI einsetzt, haftet für deren diskriminierende Ergebnisse -- unabhängig davon, ob die Diskriminierung beabsichtigt war. Das Verschuldensprinzip wird durch die spezielle Haftungsordnung des AGG durchbrochen.


§ 15 AGG: Schadensersatz im Beschäftigungskontext {#paragraph-15}

Der zentrale Anspruch für Diskriminierung im Arbeitsleben findet sich in § 15 AGG. Er unterscheidet zwei Schadensarten, die kumulativ geltend gemacht werden können.

Materieller Schadensersatz (§ 15 Abs. 1 AGG)

Nach § 15 Abs. 1 AGG ist der Arbeitgeber verpflichtet, den durch die Benachteiligung entstandenen materiellen Schaden zu ersetzen. Dies setzt ein Verschulden (Vorsatz oder Fahrlässigkeit) des Arbeitgebers voraus. Im KI-Kontext ist Fahrlässigkeit schnell gegeben: Wer ein KI-System zur Bewerberauswahl einsetzt, ohne es auf diskriminierende Auswirkungen geprüft zu haben, handelt fahrlässig.

Der materielle Schaden umfasst typischerweise:

  • Entgangenes Gehalt bei diskriminierender Nichteinstellung (strittig: nur bei hypothetischer Besteinstellung)
  • Kosten der Bewerbung (Reisekosten, Vorbereitung)
  • Kosten der Rechtsverfolgung
  • Entgangene Karrierechancen, soweit bezifferbar

Wichtige Einschränkung: Nach § 15 Abs. 6 AGG besteht bei Verstoß gegen das Benachteiligungsverbot kein Anspruch auf Begründung eines Beschäftigungsverhältnisses. Der abgelehnte Bewerber kann also nicht erzwingen, eingestellt zu werden -- wohl aber Schadensersatz für die entgangene Chance verlangen.

Immaterielle Entschädigung (§ 15 Abs. 2 AGG)

Deutlich praxisrelevanter ist § 15 Abs. 2 AGG: Der Arbeitgeber schuldet eine angemessene Entschädigung in Geld für den Schaden, der nicht Vermögensschaden ist. Dieser Anspruch besteht verschuldensunabhängig -- es genügt die objektive Benachteiligung.

Für KI-Diskriminierung ist das entscheidend: Das Unternehmen kann sich nicht darauf berufen, nichts von der diskriminierenden Wirkung seiner KI gewusst zu haben. Die bloße Tatsache, dass das System diskriminiert hat, reicht für den Entschädigungsanspruch.

Fristen beachten

§ 15 Abs. 4 AGG setzt eine Ausschlussfrist von zwei Monaten für die schriftliche Geltendmachung des Anspruchs. Die Frist beginnt mit Zugang der Ablehnung. Anschließend muss die Klage innerhalb von drei Monaten nach der schriftlichen Geltendmachung erhoben werden (§ 61b Abs. 1 ArbGG). Diese kurzen Fristen sind bei KI-Diskriminierung besonders problematisch, da Betroffene die Diskriminierung oft erst spät erkennen.


§ 21 AGG: Schadensersatz im allgemeinen Zivilrecht {#paragraph-21}

Außerhalb des Beschäftigungskontexts -- also bei Kreditvergabe, Versicherungstarifierung, Wohnungsvermietung oder Dienstleistungen -- greift § 21 AGG als Anspruchsgrundlage.

Ansprüche nach § 21 AGG

AnspruchVoraussetzungTypischer KI-Fall
Beseitigung (§ 21 Abs. 1)Andauernde BeeinträchtigungKI-System lehnt Kreditantrag ab -- Betroffener verlangt erneute Prüfung ohne diskriminierendes Kriterium
Unterlassung (§ 21 Abs. 1)WiederholungsgefahrVersicherer verwendet weiterhin diskriminierendes Scoring
Materieller Schadensersatz (§ 21 Abs. 2)VerschuldenEntgangener Kredit, höhere Prämien, Mietkosten
Immaterielle Entschädigung (§ 21 Abs. 2 S. 3)Kein Verschulden nötigDiskriminierende Ablehnung bei Wohnungssuche

Im Unterschied zu § 15 AGG gibt es bei § 21 AGG keine gesetzliche Ausschlussfrist. Es gilt die reguläre Verjährung nach §§ 195, 199 BGB -- also eine dreijährige Verjährungsfrist ab Kenntnis der anspruchsbegründenden Umstände. Das gibt Betroffenen deutlich mehr Zeit, ihre Ansprüche geltend zu machen.

Besonderheit Massenverfahren

Da KI-Systeme per Definition skaliert arbeiten, betrifft eine diskriminierende KI selten nur eine Person. Wenn ein Kreditscoring-Algorithmus systematisch Frauen benachteiligt, sind potenziell Tausende Kreditanträge betroffen. Das Risiko von Massenverfahren oder gar Musterfeststellungsklagen nach § 606 ZPO macht KI-Diskriminierung zu einem existenziellen Haftungsrisiko.


§ 22 AGG: Beweislastumkehr -- der Gamechanger bei KI {#paragraph-22}

Die vielleicht bedeutsamste Norm des AGG für KI-Diskriminierung ist § 22 AGG. Sie regelt die Beweislast und verschiebt diese zugunsten der Betroffenen:

Wenn im Streitfall die eine Partei Indizien beweist, die eine Benachteiligung wegen eines in § 1 genannten Grundes vermuten lassen, trägt die andere Partei die Beweislast dafür, dass kein Verstoß gegen die Bestimmungen zum Schutz vor Benachteiligung vorgelegen hat.

Warum § 22 AGG bei KI besonders relevant ist

Bei klassischer Diskriminierung -- etwa einer sexistischen Bemerkung im Bewerbungsgespräch -- ist die Beweisführung relativ klar. Bei KI-Diskriminierung hingegen ist der Entscheidungsprozess eine Black Box. Betroffene können in der Regel nicht nachvollziehen, warum ein Algorithmus sie abgelehnt hat.

§ 22 AGG kompensiert dieses Informationsgefälle: Es genügen Indizien, die eine Diskriminierung vermuten lassen. Im KI-Kontext können solche Indizien sein:

  • Statistische Auffälligkeiten: Wenn nachweisbar ist, dass ein KI-System Frauen signifikant häufiger ablehnt als Männer mit vergleichbarer Qualifikation, begründet das eine Vermutung nach § 22 AGG.
  • Bekannte Bias-Probleme: Wenn das eingesetzte KI-System oder vergleichbare Systeme bereits wegen Bias-Problemen aufgefallen sind (z. B. durch Medienberichte, Studien oder Aufsichtsbehörden).
  • Fehlende Bias-Prüfung: Wenn das Unternehmen keine dokumentierte Prüfung auf diskriminierende Auswirkungen vorgenommen hat, kann dies als Indiz für das Vorliegen von Diskriminierung gewertet werden.
  • Proxy-Variablen: Wenn das System nachweislich Merkmale verwendet, die hochgradig mit geschützten Merkmalen korrelieren (z. B. Postleitzahl als Proxy für ethnische Herkunft).
  • Fehlende Transparenz: Wenn das Unternehmen auf Auskunftsverlangen nicht erklären kann, auf welcher Grundlage die Entscheidung getroffen wurde.

Beweislast liegt dann beim Unternehmen

Sobald die betroffene Person Indizien vorgelegt hat, muss das Unternehmen den vollen Beweis erbringen, dass die Benachteiligung nicht auf einem geschützten Merkmal beruht. Das ist bei KI-Systemen extrem schwierig: Wie beweist man, dass ein komplexer Algorithmus nicht diskriminiert hat, wenn man seine Entscheidungsfindung selbst nicht vollständig erklären kann?

Die Kombination aus algorithmischer Intransparenz und Beweislastumkehr macht § 22 AGG zur größten juristischen Herausforderung für KI-einsetzende Unternehmen. Wer kein dokumentiertes Fairness-Monitoring vorweisen kann, wird den Entlastungsbeweis im Regelfall nicht führen können.


Typische KI-Diskriminierungsfälle nach Branche {#typische-faelle}

KI-Diskriminierung tritt branchenübergreifend auf. Die folgende Tabelle zeigt die häufigsten Szenarien, die betroffenen geschützten Merkmale und die einschlägigen Anspruchsgrundlagen.

BrancheKI-AnwendungTypische DiskriminierungGeschütztes Merkmal (§ 1 AGG)Anspruchsgrundlage
RecruitingCV-Screening, Video-AnalyseFrauen werden seltener zum Gespräch eingeladen; ältere Bewerber systematisch aussortiertGeschlecht, Alter§ 15 AGG
KreditvergabeScoring-AlgorithmusPersonen aus bestimmten Stadtteilen erhalten schlechtere Scores; Frauen bekommen niedrigere KreditlimitsEthische Herkunft, Geschlecht§ 21 AGG
VersicherungRisikobewertung, TarifierungHöhere Prämien für bestimmte Postleitzahlen, die mit ethnischer Zugehörigkeit korrelierenEthnische Herkunft§ 21 AGG, § 19 AGG (zivilrechtlich)
WohnungsmarktMieter-ScoringAutomatisierte Ablehnung von Bewerbern mit ausländisch klingenden Namen oder aus bestimmten HerkunftsländernEthnische Herkunft, Religion§ 21 AGG, § 19 AGG
KundenserviceChatbot, PriorisierungAnfragen in gebrochenem Deutsch werden niedriger priorisiert; bestimmte Kunden erhalten schlechtere AngeboteEthnische Herkunft, Sprache§ 21 AGG

Recruiting als Hochrisikobereich

Besonders kritisch ist der Bereich Personalauswahl. Der AI Act stuft KI-Systeme, die für die Einstellung oder Auswahl natürlicher Personen eingesetzt werden, explizit als Hochrisiko-Systeme ein (Anhang III Nr. 4 lit. a VO (EU) 2024/1689). Das bedeutet: Für diese Systeme gelten die strengsten Anforderungen an Datenqualität (Art. 10), Transparenz (Art. 13), menschliche Aufsicht (Art. 14) und Genauigkeit (Art. 15).

Unternehmen, die KI im Recruiting einsetzen, ohne diese Hochrisiko-Anforderungen zu erfüllen, verstoßen nicht nur gegen den AI Act, sondern liefern gleichzeitig starke Indizien für eine Diskriminierung im Sinne von § 22 AGG.


Höhe des Schadensersatzes: BAG-Rechtsprechung und Maßstäbe {#hoehe-schadensersatz}

Die Höhe des Schadensersatzes bei Diskriminierung ist durch die Rechtsprechung des Bundesarbeitsgerichts (BAG) konkretisiert worden. Die folgenden Leitlinien lassen sich auf KI-Diskriminierung übertragen.

Immaterielle Entschädigung nach § 15 Abs. 2 AGG

Das BAG hat in seiner Rechtsprechung eine Untergrenze etabliert: Die Entschädigung muss eine abschreckende Wirkung haben (vgl. Art. 17 Richtlinie 2000/78/EG). Eine rein symbolische Entschädigung genügt nicht.

Konkret hat das BAG in verschiedenen Entscheidungen folgende Orientierungswerte herausgearbeitet:

  • Nichteinstellung wegen Diskriminierung: In der Regel 1,5 bis 3 Bruttomonatsgehälter der ausgeschriebenen Stelle. Bei besonders schwerwiegenden Fällen auch darüber (BAG, Urteil vom 22.01.2009, Az. 8 AZR 906/07).
  • Obergrenze bei fehlender Besteinstellung: Wenn die betroffene Person auch bei diskriminierungsfreier Auswahl nicht eingestellt worden wäre, darf die Entschädigung nach § 15 Abs. 2 S. 2 AGG drei Monatsgehälter nicht übersteigen.
  • Keine Obergrenze bei Besteinstellung: Wäre die Person ohne Diskriminierung eingestellt worden, gibt es keine gesetzliche Obergrenze.

Faktoren für die Bemessung

Die Gerichte berücksichtigen bei der Bemessung insbesondere:

  • Schwere der Benachteiligung: Einmalige Ablehnung vs. systematische Diskriminierung
  • Art und Dauer: Offene Diskriminierung wiegt schwerer als unbewusste
  • Folgen für die betroffene Person: Existenzielle Auswirkungen (z. B. Langzeitarbeitslosigkeit)
  • Wirtschaftliche Leistungsfähigkeit des Arbeitgebers: Großunternehmen zahlen mehr
  • Grad des Verschuldens: Vorsätzliche Diskriminierung wird höher sanktioniert

Besonderheit bei KI: Skalierung des Schadens

Bei KI-Diskriminierung kommt ein Faktor hinzu, der in der bisherigen Rechtsprechung kaum berücksichtigt wurde: die Skalierung. Wenn ein Algorithmus 10.000 Bewerberinnen diskriminiert, entstehen 10.000 einzelne Entschädigungsansprüche. Bei einer durchschnittlichen Entschädigung von 3.000 Euro pro Fall ergibt sich ein Gesamtrisiko von 30 Millionen Euro -- allein für die immaterielle Entschädigung.

Diese Skalierbarkeit des Schadens macht KI-Diskriminierung zu einem völlig anderen Haftungsrisiko als klassische Einzelfalldiskriminierung. Unternehmen müssen dieses Risiko in ihren Compliance-Kalkulationen berücksichtigen.


AI Act als Schutzgesetz: Neue Haftungsebene? {#ai-act-schutzgesetz}

Eine rechtlich hochspannende Frage ist, ob die Vorschriften des AI Act als Schutzgesetze im Sinne von § 823 Abs. 2 BGB einzuordnen sind. Wenn ja, würde ein Verstoß gegen den AI Act einen eigenständigen deliktischen Schadensersatzanspruch begründen -- zusätzlich zu den AGG-Ansprüchen.

Voraussetzungen eines Schutzgesetzes

Nach der Rechtsprechung des BGH ist ein Schutzgesetz eine Rechtsnorm, die zumindest auch dem Schutz individueller Interessen dienen soll und nicht nur dem Schutz der Allgemeinheit. Entscheidend ist, ob der Gesetzgeber einen Individualschutz beabsichtigt hat.

Für den AI Act lässt sich argumentieren:

  • Art. 10 VO (EU) 2024/1689 (Datenqualitätsanforderungen) zielt ausdrücklich darauf ab, Diskriminierung durch verzerrte Trainingsdaten zu verhindern. Er dient damit auch dem Schutz der betroffenen Individuen.
  • Art. 14 VO (EU) 2024/1689 (menschliche Aufsicht) soll sicherstellen, dass KI-Entscheidungen menschlich kontrolliert werden -- gerade zum Schutz der von der Entscheidung betroffenen Person.
  • Erwägungsgrund 47 betont den Schutz der Grundrechte natürlicher Personen als Ziel der Verordnung.

Die Frage ist noch nicht höchstrichterlich geklärt, aber es spricht viel dafür, dass zumindest die Hochrisiko-Vorschriften des AI Act als Schutzgesetze einzuordnen sind. Für Unternehmen bedeutet das: Ein Verstoß gegen die Datenqualitätsanforderungen des Art. 10 oder die Transparenzpflichten des Art. 13 könnte einen eigenständigen Schadensersatzanspruch auslösen -- mit der regulären dreijährigen Verjährungsfrist und ohne die Beweislastbeschränkungen des AGG.

Zusammenspiel mit der KI-Haftungsrichtlinie

Der Entwurf der KI-Haftungsrichtlinie (COM(2022) 496) sieht zudem eine Beweiserleichterung für KI-spezifische Schäden vor. Sobald diese Richtlinie in deutsches Recht umgesetzt wird, erhalten Betroffene zusätzliche Instrumente: insbesondere einen Offenlegungsanspruch gegenüber Betreibern von Hochrisiko-KI-Systemen, um Beweismittel zu sichern.


Präventionsmaßnahmen für Unternehmen {#praevention}

Angesichts der Haftungsrisiken ist Prävention der einzige nachhaltige Schutz. Die folgenden Maßnahmen bilden ein belastbares Schutzkonzept.

1. Bias-Audit vor dem Einsatz

Jedes KI-System, das Entscheidungen über Personen trifft, muss vor dem produktiven Einsatz auf diskriminierende Auswirkungen geprüft werden. Das Audit sollte die Ergebnisse des Systems auf statistische Parität, Equal Opportunity und Predictive Parity über alle geschützten Gruppen hinweg analysieren.

2. Kontinuierliches Fairness-Monitoring

Ein einmaliges Audit genügt nicht. KI-Systeme können sich durch neue Daten oder veränderte Einsatzbedingungen verändern. Art. 72 Abs. 3 VO (EU) 2024/1689 verpflichtet Betreiber von Hochrisiko-Systemen zur kontinuierlichen Überwachung. Dokumentieren Sie die Monitoring-Ergebnisse lückenlos -- sie sind im Streitfall Ihr wichtigstes Beweismittel für den Entlastungsbeweis nach § 22 AGG.

3. Transparenz und Erklärbarkeit

Sorgen Sie dafür, dass Sie die Entscheidungen Ihrer KI-Systeme erklären können. Art. 13 VO (EU) 2024/1689 verlangt für Hochrisiko-Systeme eine hinreichend transparente Gestaltung. Im AGG-Prozess wird die Fähigkeit, die Entscheidungslogik offenzulegen, zum entscheidenden Faktor für den Entlastungsbeweis.

4. Menschliche Aufsicht implementieren

Art. 14 VO (EU) 2024/1689 verlangt, dass Hochrisiko-KI-Systeme so gestaltet werden, dass sie von natürlichen Personen wirksam beaufsichtigt werden können. Im Diskriminierungskontext bedeutet das: Bei Entscheidungen mit erheblichen Auswirkungen (Einstellung, Kreditvergabe, Versicherungsprämien) muss ein Mensch die KI-Empfehlung prüfen und im Einzelfall überstimmen können.

5. Schulung der Verantwortlichen

Mitarbeitende, die KI-Systeme einsetzen oder deren Ergebnisse umsetzen, müssen in der Erkennung von Diskriminierungsmustern geschult werden. Die KI-Kompetenzpflicht nach Art. 4 VO (EU) 2024/1689 umfasst auch das Verständnis möglicher Verzerrungen und deren Auswirkungen auf betroffene Personen.

6. Datenschutz-Folgenabschätzung (DSFA)

Für KI-Systeme, die personenbezogene Daten verarbeiten und Diskriminierungsrisiken bergen, ist eine DSFA nach Art. 35 DSGVO regelmäßig verpflichtend. Die DSFA zwingt zur systematischen Risikoanalyse und Dokumentation -- beides stärkt auch die Position im AGG-Verfahren.


Häufig gestellte Fragen (FAQ) {#faq}

Kann ich Schadensersatz verlangen, wenn mich eine KI bei der Bewerbung benachteiligt hat?

Ja. Wenn ein KI-System Sie wegen eines geschützten Merkmals (Geschlecht, Alter, ethnische Herkunft, Religion, Behinderung, sexuelle Identität) benachteiligt hat, steht Ihnen ein Anspruch auf immaterielle Entschädigung nach § 15 Abs. 2 AGG zu -- und bei Verschulden des Arbeitgebers zusätzlich materieller Schadensersatz nach § 15 Abs. 1 AGG. Beachten Sie die zweimonatige Geltendmachungsfrist ab Zugang der Ablehnung (§ 15 Abs. 4 AGG).

Wie beweise ich, dass eine KI mich diskriminiert hat?

Dank der Beweislastumkehr nach § 22 AGG müssen Sie keine volle Beweisführung erbringen. Es genügen Indizien, die eine Diskriminierung vermuten lassen. Solche Indizien können sein: statistische Auffälligkeiten (z. B. signifikant geringere Einladungsquoten für Frauen), bekannte Bias-Probleme des eingesetzten Systems, Ihre Zugehörigkeit zu einer geschützten Gruppe in Kombination mit der Ablehnung trotz objektiver Qualifikation. Das Unternehmen muss dann den vollen Beweis erbringen, dass es nicht diskriminiert hat.

Wie hoch fällt der Schadensersatz bei KI-Diskriminierung aus?

Die Höhe hängt vom Einzelfall ab. Im Beschäftigungskontext hat das BAG bei diskriminierender Nichteinstellung regelmäßig 1,5 bis 3 Bruttomonatsgehälter als Entschädigung angesetzt. Bei besonders schwerwiegenden oder vorsätzlichen Diskriminierungen kann die Entschädigung auch höher ausfallen. Im zivilrechtlichen Bereich (Kreditvergabe, Versicherung) orientieren sich die Gerichte am konkreten Schaden und der Schwere der Beeinträchtigung.

Haftet das Unternehmen auch dann, wenn es die Diskriminierung nicht beabsichtigt hat?

Ja, zumindest für die immaterielle Entschädigung. Nach § 15 Abs. 2 AGG (Beschäftigung) und § 21 Abs. 2 S. 3 AGG (Zivilrecht) ist die immaterielle Entschädigung verschuldensunabhängig. Das Unternehmen kann sich nicht darauf berufen, die diskriminierende Wirkung seiner KI nicht gekannt zu haben. Für den materiellen Schadensersatz nach § 15 Abs. 1 AGG ist allerdings Verschulden erforderlich -- wobei fahrlässiges Handeln (z. B. fehlende Bias-Prüfung) genügt.

Können mehrere Betroffene gemeinsam klagen?

Ja. Da KI-Systeme skaliert arbeiten und potenziell viele Personen gleichzeitig betreffen, kommen verschiedene kollektive Rechtsschutzinstrumente in Betracht: Musterfeststellungsklage nach § 606 ZPO durch qualifizierte Verbraucherverbände, Abhilfeklage nach dem Verbraucherrechtedurchsetzungsgesetz (VDuG) oder parallele Einzelklagen. Gerade bei systematischer KI-Diskriminierung in der Kreditvergabe oder Versicherungsbranche ist mit kollektiven Verfahren zu rechnen.


Nächste Schritte {#naechste-schritte}

KI-Diskriminierung ist kein theoretisches Risiko -- es ist ein konkretes Haftungsthema, das Unternehmen jeder Größe betrifft. Die Kombination aus Beweislastumkehr nach § 22 AGG, Skalierbarkeit algorithmischer Entscheidungen und den neuen AI Act-Anforderungen schafft eine Haftungslandschaft, die proaktives Handeln erfordert.

Für Unternehmen gilt:

  • Prüfen Sie Ihre KI-Systeme auf Diskriminierungsrisiken -- insbesondere im Recruiting, bei der Kreditvergabe und in der Versicherungstarifierung.
  • Implementieren Sie ein dokumentiertes Bias-Monitoring, das im Streitfall als Entlastungsbeweis dient.
  • Schulen Sie Ihre Mitarbeitenden im Erkennen von KI-Diskriminierung und im rechtssicheren Umgang mit algorithmischen Entscheidungen.

KI Comply unterstützt Sie dabei: Unsere Schulungen vermitteln die rechtlichen Grundlagen der KI-Diskriminierung und befähigen Ihre Teams, Risiken frühzeitig zu erkennen und zu managen -- bevor sie zum Haftungsfall werden.

Jetzt KI-Schulung für Ihr Team anfragen

Rechtsquellen

  • Schadensersatz AGG§§15, 21 AGG
  • Beweislastumkehr§22 AGG
  • DatenqualitätArt. 10 VO (EU) 2024/1689 (Quelle)
  • Hochrisiko HRAnhang III Nr. 4 VO (EU) 2024/1689

Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.

Artikel teilen:

Machen Sie Ihr Team KI-fit

Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.

Preise ansehen