Verbotene KI-Praktiken: Was der AI Act untersagt
Der AI Act verbietet bestimmte KI-Anwendungen vollständig. Von Social Scoring bis Emotionserkennung — wir erklären alle Verbote nach Art. 5.
Verbotene KI-Praktiken: Was der AI Act untersagt
Das Wichtigste in Kürze
- Der AI Act (VO (EU) 2024/1689) verbietet in Art. 5 acht Kategorien von KI-Praktiken vollständig.
- Diese Verbote gelten seit dem 2. Februar 2025 -- sie sind also bereits heute anwendbar (Art. 113 Abs. 2 lit. a).
- Betroffen sind unter anderem Social Scoring, unterschwellige Manipulation, Emotionserkennung am Arbeitsplatz und bestimmte Formen biometrischer Überwachung.
- Bei Verstößen drohen Bußgelder von bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes (Art. 99 Abs. 3).
- Die Verbote gelten für alle Akteure -- Anbieter, Betreiber und Importeure gleichermaßen.
- Einige wenige, eng definierte Ausnahmen existieren ausschließlich für Strafverfolgungsbehörden.
Nicht jede KI-Anwendung darf in der EU betrieben werden. Die europäische KI-Verordnung -- der AI Act -- zieht in Art. 5 eine klare rote Linie: Bestimmte KI-Praktiken sind so grundrechtswidrig, dass sie ohne Wenn und Aber verboten sind. Anders als die Pflichten für Hochrisiko-KI-Systeme, die erst ab August 2026 greifen, sind die Verbote nach Art. 5 bereits seit dem 2. Februar 2025 in Kraft. Wer sie missachtet, riskiert die höchste Bußgeldstufe der Verordnung.
Dieser Artikel erklärt alle acht verbotenen KI-Praktiken im Detail: Was genau ist verboten? Warum? Welche Praxisbeispiele gibt es? Und wo existieren Ausnahmen?
Warum der AI Act bestimmte KI-Praktiken komplett verbietet
Die KI-Verordnung folgt einem risikobasierten Ansatz. KI-Systeme werden in vier Risikoklassen eingeteilt: minimales Risiko, begrenztes Risiko, hohes Risiko -- und unannehmbares Risiko. Letztere Kategorie umfasst Anwendungen, die europäische Grundwerte wie Menschenwürde, Nichtdiskriminierung und Privatheit so fundamental gefährden, dass kein Regulierungsrahmen sie angemessen einhegen könnte. Für diese Systeme gibt es deshalb nur eine Konsequenz: ein vollständiges Verbot.
Der Gesetzgeber hat sich bei der Festlegung der verbotenen Praktiken an konkreten Bedrohungsszenarien orientiert -- von staatlichem Social Scoring nach chinesischem Vorbild bis zur heimlichen Massenüberwachung durch Gesichtserkennung. Das Ergebnis sind acht klar definierte Verbotstatbestände in Art. 5 Abs. 1 lit. a bis h VO (EU) 2024/1689.
Die acht verbotenen KI-Praktiken im Detail
1. Unterschwellige Manipulationstechniken -- Art. 5 Abs. 1 lit. a
Was genau ist verboten?
KI-Systeme, die Techniken der unterschwelligen Beeinflussung einsetzen, die über das Bewusstsein einer Person hinausgehen, oder die absichtlich manipulative oder täuschende Techniken verwenden. Ziel oder Wirkung muss sein, das Verhalten einer Person oder Gruppe wesentlich zu verzerren, sodass dieser Person oder Dritten ein erheblicher Schaden entsteht oder mit hinreichender Wahrscheinlichkeit entstehen wird.
Warum ist das verboten?
Unterschwellige Manipulation untergräbt die Entscheidungsfreiheit und Autonomie des Einzelnen. Wenn ein KI-System gezielt unterhalb der Wahrnehmungsschwelle operiert, kann sich die betroffene Person nicht dagegen wehren. Das verletzt die Menschenwürde in ihrem Kern.
Praxisbeispiel:
Ein Online-Händler setzt eine KI ein, die mithilfe personalisierten Webdesigns -- etwa durch kaum wahrnehmbare Farbwechsel, Blinkeffekte oder unterschwellig eingeblendete Botschaften -- das Kaufverhalten der Nutzer steuert. Die betroffenen Personen treffen Kaufentscheidungen, die sie bei bewusster Wahrnehmung nicht getroffen hätten, und erleiden dadurch finanziellen Schaden.
Ausnahmen:
Keine. Dieses Verbot gilt absolut. Hinweis: Herkömmliches Nudging oder Persuasive Design fällt nicht unter das Verbot, solange es nicht unterschwellig oder absichtlich manipulativ im Sinne der Verordnung ist und keinen erheblichen Schaden verursacht.
2. Ausnutzung von Schwächen -- Art. 5 Abs. 1 lit. b
Was genau ist verboten?
KI-Systeme, die gezielt Schwächen von Personen ausnutzen, die auf deren Alter, Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Lage beruhen. Auch hier muss das System das Verhalten der Person wesentlich verzerren und dadurch einen erheblichen Schaden verursachen oder wahrscheinlich verursachen.
Warum ist das verboten?
Besonders schutzbedürftige Gruppen -- Kinder, ältere Menschen, Menschen mit Behinderungen, sozioökonomisch Benachteiligte -- verdienen besonderen Schutz. KI darf nicht dazu missbraucht werden, ihre spezifischen Vulnerabilitäten auszubeuten.
Praxisbeispiel:
Eine Finanz-App erkennt über Nutzungsmuster, dass ein Kunde unter einer kognitiven Einschränkung leidet. Die KI passt daraufhin die Benutzeroberfläche so an, dass der Kunde systematisch zu risikoreichen und überteuerten Finanzprodukten gelenkt wird, die er bei voller Entscheidungsfähigkeit niemals abgeschlossen hätte.
Ausnahmen:
Keine. Auch dieses Verbot gilt absolut. Allerdings muss der kausale Zusammenhang zwischen der Ausnutzung der Schwäche und dem erheblichen Schaden nachweisbar sein.
3. Social Scoring durch Behörden -- Art. 5 Abs. 1 lit. c
Was genau ist verboten?
KI-Systeme, die von Behörden oder in deren Auftrag eingesetzt werden, um natürliche Personen über einen bestimmten Zeitraum anhand ihres Sozialverhaltens oder persönlicher Eigenschaften zu bewerten oder zu klassifizieren. Das Verbot greift, wenn die resultierende Bewertung zu einer Schlechterstellung in Kontexten führt, die in keinem Zusammenhang mit dem ursprünglichen Erhebungskontext stehen, oder wenn die Behandlung unverhältnismäßig oder ungerechtfertigt ist.
Warum ist das verboten?
Social Scoring nach dem Vorbild des chinesischen Sozialkreditsystems ist mit europäischen Grundrechten unvereinbar. Es führt zu einer permanenten Überwachung und Bewertung des gesamten Lebens einer Person und schafft ein Klima der Einschüchterung.
Praxisbeispiel:
Eine Stadtverwaltung führt ein KI-System ein, das Bürger anhand ihres Verhaltens bei der Mülltrennung, ihrer Bibliotheksnutzung und ihrer Steuermoral bewertet. Wer einen niedrigen Score erhält, wird bei der Vergabe von Kitaplätzen oder Sozialwohnungen benachteiligt.
Ausnahmen:
Keine. Soweit es um die beschriebene Form der behördlichen Sozialbewertung geht, gibt es keine Ausnahme. Einzelne, kontextgebundene Bewertungen (etwa eine Bonitätsprüfung durch eine Bank) fallen nicht unter diesen Tatbestand, sofern sie sachlich gerechtfertigt und verhältnismäßig sind.
4. Vorhersage von Straftaten auf Basis von Profiling -- Art. 5 Abs. 1 lit. d
Was genau ist verboten?
KI-Systeme, die eine Risikobewertung natürlicher Personen in Bezug auf die Begehung von Straftaten ausschließlich auf der Grundlage von Profiling oder der Bewertung von Persönlichkeitsmerkmalen vornehmen. Verboten ist also die Vorhersage, ob eine konkrete Person eine Straftat begehen wird, allein basierend auf deren Profil.
Warum ist das verboten?
Predictive Policing auf Personenebene verstößt gegen die Unschuldsvermutung. Eine Person darf nicht allein aufgrund statistischer Wahrscheinlichkeiten als potenzieller Straftäter behandelt werden. Die Gefahr von Diskriminierung -- insbesondere gegenüber Minderheiten -- ist bei solchen Systemen besonders hoch.
Praxisbeispiel:
Eine Polizeibehörde setzt ein KI-System ein, das anhand von Wohnort, Einkommen, Bildungsstand und Familienstand einzelner Personen berechnet, wie wahrscheinlich diese in den nächsten zwölf Monaten straffällig werden. Personen mit hohem Risikoscore werden vorsorglich verstärkt kontrolliert.
Ausnahmen:
Das Verbot gilt nicht für KI-Systeme, die eine objektive, verifizierbare Bewertung auf der Grundlage von Fakten unterstützen, die in unmittelbarem Zusammenhang mit einer kriminellen Aktivität stehen. KI-gestützte Analyse von Tatortmustern oder Kriminalitäts-Hotspot-Analysen auf räumlicher Ebene (ohne Bezug zu individuellen Profilen) sind weiterhin zulässig.
5. Ungezielte Gesichtsbilder-Datenbanken -- Art. 5 Abs. 1 lit. e
Was genau ist verboten?
Das Erstellen oder Erweitern von Gesichtserkennungs-Datenbanken durch ungezieltes Scraping von Gesichtsbildern aus dem Internet oder aus Überwachungskameras. Verboten ist also die Praxis, massenhaft Fotos aus sozialen Netzwerken, Webseiten oder CCTV-Aufnahmen zu sammeln, um damit eine biometrische Datenbank aufzubauen.
Warum ist das verboten?
Diese Praxis verletzt das Recht auf Privatsphäre und den Schutz personenbezogener Daten in besonders schwerwiegender Weise. Betroffene wissen nicht, dass ihre biometrischen Daten erfasst werden, und haben keine Möglichkeit, dem zu widersprechen. Das Unternehmen Clearview AI, das genau dieses Geschäftsmodell betrieben hat, war einer der zentralen Anlässe für dieses Verbot.
Praxisbeispiel:
Ein Unternehmen scrapt systematisch Profilfotos von LinkedIn, Facebook und Instagram, um eine Datenbank mit mehreren Milliarden Gesichtsbildern aufzubauen. Diese Datenbank wird dann als Dienstleistung an Dritte vermarktet, die damit beliebige Personen identifizieren können.
Ausnahmen:
Keine. Das Verbot gilt sowohl für öffentliche als auch für private Akteure und unabhängig vom Verwendungszweck.
6. Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen -- Art. 5 Abs. 1 lit. f
Was genau ist verboten?
KI-Systeme zur Erkennung von Emotionen natürlicher Personen am Arbeitsplatz und in Bildungseinrichtungen. Erfasst werden Systeme, die anhand von biometrischen Daten -- etwa Gesichtsausdruck, Stimme oder Körperhaltung -- den emotionalen Zustand einer Person ableiten.
Warum ist das verboten?
Emotionserkennung im Arbeits- und Bildungskontext erzeugt einen massiven Überwachungsdruck. Beschäftigte und Lernende befinden sich in einem strukturellen Abhängigkeitsverhältnis und können sich der Erfassung praktisch nicht entziehen. Zudem ist die wissenschaftliche Grundlage der automatisierten Emotionserkennung umstritten -- die Ableitung von Emotionen aus Gesichtsausdrücken ist kulturell und individuell äußerst variabel.
Praxisbeispiel:
Ein Unternehmen installiert eine Webcam-basierte Software, die während Videokonferenzen die Gesichtsausdrücke aller Teilnehmenden analysiert. Die KI erstellt für jeden Mitarbeitenden ein „Engagement-Profil", das in die Leistungsbeurteilung einfließt. Ein ähnliches System in einer Universität überwacht die Aufmerksamkeit von Studierenden während Online-Vorlesungen.
Ausnahmen:
Das Verbot gilt nicht, wenn die Emotionserkennung aus medizinischen oder sicherheitsrelevanten Gründen eingesetzt wird. Beispiel: Ein System, das bei Piloten oder Kraftfahrern Anzeichen von Müdigkeit erkennt und einen Alarm auslöst, bleibt zulässig.
7. Biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum -- Art. 5 Abs. 1 lit. h
Was genau ist verboten?
Der Einsatz von KI-Systemen zur biometrischen Echtzeit-Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen zu Zwecken der Strafverfolgung. „Echtzeit" bedeutet, dass die Identifizierung ohne nennenswerte Verzögerung erfolgt -- also das klassische Szenario einer Gesichtserkennung per Videoüberwachung, die Passanten sofort mit einer Datenbank abgleicht.
Warum ist das verboten?
Flächendeckende biometrische Echtzeitüberwachung im öffentlichen Raum erzeugt ein Gefühl der ständigen Beobachtung, das die Ausübung von Grundrechten -- insbesondere Versammlungsfreiheit und freie Meinungsäußerung -- nachhaltig beeinträchtigt. Erwägungsgrund 33 der VO (EU) 2024/1689 betont ausdrücklich die besondere Eingriffsintensität.
Praxisbeispiel:
Eine Polizeibehörde installiert an allen Bahnhöfen einer Großstadt Kameras mit Echtzeit-Gesichtserkennung. Jeder Passant wird automatisch mit einer Fahndungsdatenbank abgeglichen -- ohne konkreten Anlass und ohne richterliche Anordnung.
Ausnahmen:
Dies ist das einzige Verbot mit nennenswerten Ausnahmen. Art. 5 Abs. 2 bis 7 VO (EU) 2024/1689 lassen den Einsatz unter strengen Voraussetzungen zu, nämlich wenn er unbedingt erforderlich ist für:
- Die gezielte Suche nach Opfern von Entführung, Menschenhandel oder sexueller Ausbeutung
- Die Abwehr einer konkreten, gegenwärtigen Bedrohung für das Leben oder die körperliche Unversehrtheit von Personen oder einer terroristischen Bedrohung
- Die Lokalisierung oder Identifizierung einer Person, die im Verdacht steht, eine schwere Straftat begangen zu haben (Katalogstraftaten)
In jedem Fall ist eine vorherige richterliche oder unabhängige behördliche Genehmigung erforderlich. In dringenden Fällen kann der Einsatz begonnen werden, die Genehmigung muss dann aber innerhalb von 24 Stunden nachgeholt werden -- wird sie versagt, ist der Einsatz sofort einzustellen und sämtliche Daten sind zu löschen.
8. Biometrische Kategorisierung nach sensiblen Merkmalen -- Art. 5 Abs. 1 lit. g
Was genau ist verboten?
KI-Systeme, die natürliche Personen auf der Grundlage ihrer biometrischen Daten kategorisieren, um Rückschlüsse auf sensible Merkmale zu ziehen. Konkret genannt werden: Rasse, politische Meinungen, Gewerkschaftszugehörigkeit, religiöse oder weltanschauliche Überzeugungen, Sexualleben und sexuelle Orientierung.
Warum ist das verboten?
Die automatisierte Zuordnung von Personen zu sensiblen Kategorien anhand ihres Aussehens, ihrer Stimme oder anderer biometrischer Merkmale ist ein massiver Eingriff in die Persönlichkeitsrechte. Solche Systeme reproduzieren und verstärken gesellschaftliche Diskriminierungsmuster.
Praxisbeispiel:
Ein Sicherheitsunternehmen entwickelt eine KI, die anhand von Gesichtsmerkmalen die ethnische Zugehörigkeit oder die religiöse Überzeugung von Passanten bestimmt. An Flughäfen soll das System dazu dienen, „verdächtige" Reisende automatisch zu identifizieren.
Ausnahmen:
Das Verbot gilt nicht für die Kennzeichnung oder Filterung von biometrischen Datensätzen im Bereich der Strafverfolgung -- etwa wenn Bildmaterial eines konkreten Verdächtigen nach bereits vorhandenen Merkmalen durchsucht wird.
Übersichtstabelle: Alle Verbote auf einen Blick
| Verbot | Artikel | Ausnahmen | Max. Strafe |
|---|---|---|---|
| Unterschwellige Manipulation | Art. 5 Abs. 1 lit. a | Keine | 35 Mio. € / 7 % Umsatz |
| Ausnutzung von Schwächen | Art. 5 Abs. 1 lit. b | Keine | 35 Mio. € / 7 % Umsatz |
| Social Scoring | Art. 5 Abs. 1 lit. c | Keine | 35 Mio. € / 7 % Umsatz |
| Predictive Policing (Profiling) | Art. 5 Abs. 1 lit. d | Faktenbasierte Bewertungen | 35 Mio. € / 7 % Umsatz |
| Gesichtsbilder-Scraping | Art. 5 Abs. 1 lit. e | Keine | 35 Mio. € / 7 % Umsatz |
| Emotionserkennung (Arbeit/Bildung) | Art. 5 Abs. 1 lit. f | Medizin, Sicherheit | 35 Mio. € / 7 % Umsatz |
| Biometrische Echtzeit-Fernidentifizierung | Art. 5 Abs. 1 lit. h | Strafverfolgung (eng begrenzt) | 35 Mio. € / 7 % Umsatz |
| Biometrische Kategorisierung | Art. 5 Abs. 1 lit. g | Strafverfolgung (eng begrenzt) | 35 Mio. € / 7 % Umsatz |
Was droht bei Verstoß?
Verstöße gegen die Verbote des Art. 5 werden mit der höchsten Bußgeldstufe des AI Act geahndet. Art. 99 Abs. 3 VO (EU) 2024/1689 sieht vor:
- Bis zu 35 Millionen Euro, oder
- Bis zu 7 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres
Maßgeblich ist der jeweils höhere Betrag. Für ein Unternehmen mit 500 Millionen Euro Jahresumsatz bedeutet das ein maximales Bußgeld von 35 Millionen Euro. Bei einem Konzern mit 2 Milliarden Euro Umsatz wären es bereits 140 Millionen Euro.
Zusätzliche Konsequenzen
Neben dem Bußgeld drohen weitere Maßnahmen:
- Anordnung der Rücknahme des KI-Systems vom Markt
- Reputationsschäden durch Bekanntmachung der Sanktion (Naming and Shaming)
- Zivilrechtliche Schadensersatzansprüche betroffener Personen
- Strafrechtliche Konsequenzen nach nationalem Recht der Mitgliedstaaten
Für KMU und Start-ups sieht Art. 99 Abs. 6 eine Verhältnismäßigkeitsregel vor. Die Bußgelder müssen angemessen und abschreckend sein, dürfen aber die wirtschaftliche Lebensfähigkeit des Unternehmens nicht gefährden. Die absoluten Höchstbeträge gelten dennoch.
Praxischeck: Betrifft mich das?
Viele Unternehmen glauben, von den Verboten des Art. 5 nicht betroffen zu sein, weil sie keine offensichtlich missbräuchlichen KI-Systeme einsetzen. In der Praxis sind die Grenzen jedoch fließender, als man denkt. Hier fünf realistische Szenarien:
Szenario 1: Emotionserkennung im Bewerbungsgespräch
Ihr HR-Team nutzt ein KI-gestütztes Videointerview-Tool, das die Mimik und Stimmlage von Bewerbern analysiert und daraus Persönlichkeitsprofile erstellt.
Bewertung: Potenziell verboten nach Art. 5 Abs. 1 lit. f (Emotionserkennung in einem Kontext, der dem Arbeitsplatz nahesteht). Auch ein Verstoß gegen Art. 5 Abs. 1 lit. a (manipulative Techniken) könnte vorliegen, wenn Bewerber nicht über die Analyse informiert werden. Handeln Sie sofort.
Szenario 2: KI-gestützte Preisgestaltung für vulnerable Gruppen
Ihr E-Commerce-System erkennt, dass bestimmte Nutzer aufgrund ihres Alters oder ihrer digitalen Kompetenz weniger preissensibel sind, und zeigt ihnen höhere Preise an.
Bewertung: Potenziell verboten nach Art. 5 Abs. 1 lit. b (Ausnutzung von Schwächen aufgrund des Alters). Entscheidend ist, ob ein erheblicher Schaden entsteht und ob die Schwäche gezielt ausgenutzt wird. Lassen Sie das System prüfen.
Szenario 3: Mitarbeiter-Monitoring mit Stimmungsanalyse
Sie setzen ein Tool ein, das die Zufriedenheit Ihres Teams anhand von Chat-Nachrichten, E-Mails und Kalendereinträgen analysiert -- angeblich anonymisiert.
Bewertung: Wenn das System Emotionen einzelner Personen erkennt, ist es nach Art. 5 Abs. 1 lit. f verboten -- unabhängig davon, ob die Ergebnisse anonymisiert werden. Bereits die Erfassung am Arbeitsplatz ist der relevante Anknüpfungspunkt. Stellen Sie den Einsatz ein.
Szenario 4: Gesichtserkennung für Zutrittskontrollen
Ihr Unternehmen nutzt ein biometrisches Zugangssystem, das Mitarbeitende per Gesichtserkennung identifiziert.
Bewertung: Grundsätzlich nicht verboten nach Art. 5, da es sich nicht um eine Echtzeit-Fernidentifizierung im öffentlichen Raum handelt und die Identifizierung in einem geschlossenen, nicht öffentlich zugänglichen Bereich stattfindet. Allerdings gelten strenge DSGVO-Anforderungen an die Verarbeitung biometrischer Daten. Prüfen Sie die DSGVO-Konformität.
Szenario 5: KI-gestützte Kreditscoring-Software
Ihre Bank setzt ein KI-System zur Bonitätsprüfung ein, das auch Social-Media-Daten der Antragsteller auswertet.
Bewertung: Nicht direkt durch Art. 5 Abs. 1 lit. c verboten, da es sich nicht um behördliches Social Scoring handelt. Allerdings könnte die Einbeziehung kontextfremder Daten ein Hochrisiko-Thema nach Art. 6 sein, und der DSGVO-Grundsatz der Datenminimierung dürfte der Auswertung von Social-Media-Daten entgegenstehen. Überprüfen Sie die Rechtsgrundlage.
Häufig gestellte Fragen (FAQ)
Seit wann gelten die Verbote des Art. 5?
Die Verbote sind seit dem 2. Februar 2025 anwendbar. Dies ergibt sich aus Art. 113 Abs. 2 lit. a VO (EU) 2024/1689, der eine sechsmonatige Übergangsfrist nach Inkrafttreten der Verordnung am 1. August 2024 vorsieht. Unternehmen müssen also bereits heute sicherstellen, dass sie keine verbotenen KI-Praktiken einsetzen.
Gelten die Verbote nur für Unternehmen in der EU?
Nein. Wie bei der DSGVO gilt das Marktortprinzip. Die Verbote gelten für alle Akteure, die KI-Systeme in der EU in Verkehr bringen, in Betrieb nehmen oder deren Output in der EU nutzen -- unabhängig davon, wo das Unternehmen seinen Sitz hat. Ein US-amerikanisches Unternehmen, das ein Social-Scoring-System für europäische Kunden anbietet, unterliegt Art. 5 VO (EU) 2024/1689.
Wer überwacht die Einhaltung der Verbote?
Die Überwachung obliegt den nationalen Marktüberwachungsbehörden der Mitgliedstaaten. In Deutschland wird diese Aufgabe voraussichtlich der Bundesnetzagentur zufallen, die als nationale KI-Aufsichtsbehörde vorgesehen ist. Zusätzlich überwacht das Europäische Amt für Künstliche Intelligenz (AI Office) die Einhaltung auf EU-Ebene.
Können auch Mitarbeitende oder Privatpersonen Verstöße melden?
Ja. Art. 87 VO (EU) 2024/1689 sieht vor, dass natürliche und juristische Personen bei der zuständigen Marktüberwachungsbehörde Beschwerden einreichen können, wenn sie der Auffassung sind, dass ein Verstoß gegen die Verordnung vorliegt. Ein Arbeitnehmer, der feststellt, dass sein Arbeitgeber Emotionserkennung einsetzt, kann dies direkt der Behörde melden.
Was ist der Unterschied zwischen verbotener KI und Hochrisiko-KI?
Verbotene KI-Praktiken (Art. 5) dürfen unter keinen Umständen eingesetzt werden -- sie sind komplett unzulässig. Hochrisiko-KI-Systeme (Art. 6, Anhang III) sind dagegen grundsätzlich erlaubt, unterliegen aber strengen Anforderungen an Transparenz, Qualitätsmanagement, menschliche Aufsicht und Dokumentation. Die Verbote gelten bereits seit Februar 2025, die Hochrisiko-Pflichten erst ab August 2026.
So stellen Sie sicher, dass Ihr Unternehmen compliant ist
Die Verbote des Art. 5 AI Act betreffen nicht nur offensichtliche Extremfälle. Wie die Praxisszenarien zeigen, können auch scheinbar harmlose KI-Anwendungen -- etwa Stimmungsanalyse-Tools oder personalisierte Preisgestaltung -- in den Verbotsbereich fallen. Unternehmen sollten daher jetzt handeln:
- Bestandsaufnahme durchführen: Identifizieren Sie alle KI-Systeme in Ihrem Unternehmen und prüfen Sie, ob sie unter eine der acht Verbotskategorien fallen könnten.
- Rechtsberatung einholen: Lassen Sie Grenzfälle juristisch bewerten -- insbesondere bei Emotionserkennung, personalisierten Systemen und biometrischen Anwendungen.
- Mitarbeitende schulen: Stellen Sie sicher, dass alle Beteiligten wissen, welche KI-Praktiken verboten sind. KI-Kompetenz ist nach Art. 4 VO (EU) 2024/1689 ohnehin Pflicht.
- Prozesse etablieren: Implementieren Sie Prüfprozesse für die Beschaffung und den Einsatz neuer KI-Systeme, die eine Prüfung nach Art. 5 einschließen.
- Dokumentation sicherstellen: Halten Sie fest, warum ein System als nicht verboten eingestuft wurde -- diese Dokumentation kann im Fall einer behördlichen Prüfung entscheidend sein.
Die Verbote des AI Act sind kein abstraktes Zukunftsthema. Sie gelten jetzt. Wer sie ignoriert, riskiert nicht nur Bußgelder in Millionenhöhe, sondern auch einen erheblichen Vertrauensverlust bei Kunden, Mitarbeitenden und Geschäftspartnern.
Rechtsquellen
- Verbotene KI-Praktiken – Art. 5 VO (EU) 2024/1689 (Quelle)
- Bußgelder für Verstöße – Art. 99 Abs. 3 VO (EU) 2024/1689
- Inkrafttreten der Verbote – Art. 113 Abs. 2 lit. a VO (EU) 2024/1689
Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.
Artikel teilen:
Machen Sie Ihr Team KI-fit
Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.
Preise ansehen