KI-Kennzeichnungspflicht: Wann muss KI-Einsatz offengelegt werden?
Der AI Act schreibt vor, dass KI-Interaktionen gekennzeichnet werden müssen. Wir erklären die Transparenzpflichten nach Art. 50 — mit konkreten Beispielen.
KI-Kennzeichnungspflicht: Wann muss KI-Einsatz offengelegt werden?
Das Wichtigste in Kürze
- Der AI Act (VO (EU) 2024/1689) verpflichtet in Art. 50 Anbieter und Betreiber bestimmter KI-Systeme zur Offenlegung des KI-Einsatzes gegenüber betroffenen Personen.
- Die Transparenzpflichten gelten für vier Anwendungsbereiche: KI-Interaktionssysteme (Chatbots), Emotionserkennung/Biometrie, KI-generierte Inhalte und Deepfakes.
- Diese Pflichten gelten ab dem 2. August 2026 -- zusammen mit den Hochrisiko-Pflichten (Art. 113 Abs. 2 lit. b).
- Die Kennzeichnung muss klar, verständlich und rechtzeitig erfolgen -- also bevor oder spätestens während die Person mit dem KI-System interagiert.
- Bei Verstößen drohen Bußgelder von bis zu 15 Mio. Euro oder 3 % des weltweiten Jahresumsatzes (Art. 99 Abs. 4).
- Ergänzend greifen die Informationspflichten der DSGVO (Art. 13-14 VO (EU) 2016/679), wenn personenbezogene Daten verarbeitet werden.
Wer KI einsetzt, muss das offenlegen -- zumindest in bestimmten Fällen. Der EU AI Act schafft mit Art. 50 erstmals einen einheitlichen Rechtsrahmen für die KI-Kennzeichnungspflicht in der Europäischen Union. Die Grundidee: Menschen sollen immer wissen, wann sie mit einer Maschine interagieren und wann Inhalte maschinell erzeugt oder verändert wurden.
In der Praxis betrifft das weit mehr Unternehmen, als viele denken. Ob Chatbot auf der Website, KI-generierte Produktbeschreibungen oder automatisierte E-Mails -- die Transparenzpflichten nach Art. 50 AI Act haben konkrete Auswirkungen auf den Geschäftsalltag. Dieser Artikel erklärt die vier Transparenzpflichten im Detail, zeigt Praxisbeispiele und liefert Formulierungsvorschläge für die Umsetzung.
Warum KI-Transparenz gesetzlich geregelt wird
Transparenz ist ein Grundpfeiler des AI Act. Die Verordnung folgt der Überzeugung, dass informierte Bürger besser geschützt sind als uninformierte. Wer weiß, dass ein Chatbot antwortet und kein Mensch, kann die Antwort anders einordnen. Wer erkennt, dass ein Bild KI-generiert ist, fällt seltener auf Desinformation herein.
Erwägungsgrund 132 der KI-Verordnung formuliert es klar: Die Transparenzpflichten sollen sicherstellen, dass Personen über den Einsatz von KI-Systemen informiert werden, damit sie fundierte Entscheidungen treffen und ihre Rechte wirksam ausüben können. Dabei geht es nicht darum, KI-Einsatz zu verhindern -- sondern darum, Vertrauen durch Offenheit zu schaffen.
Die Transparenzpflichten des Art. 50 betreffen KI-Systeme mit begrenztem Risiko -- also jene Systeme, die in der Risikopyramide des AI Act unterhalb der Hochrisiko-Schwelle liegen. Sie ergänzen die deutlich umfangreicheren Pflichten für Hochrisiko-KI-Systeme (Art. 6 ff.) und die Verbote für KI mit unannehmbarem Risiko (Art. 5).
Die 4 Transparenzpflichten nach Art. 50
1. Art. 50 Abs. 1: KI-Systeme für die Interaktion mit Personen
Was ist geregelt?
Anbieter müssen sicherstellen, dass KI-Systeme, die für die direkte Interaktion mit natürlichen Personen bestimmt sind, so konzipiert und entwickelt werden, dass die betroffenen Personen darüber informiert werden, dass sie mit einem KI-System interagieren. Die Information muss rechtzeitig, klar und verständlich erfolgen -- es sei denn, dies ergibt sich bereits offensichtlich aus den Umständen und dem Kontext der Nutzung.
Wen betrifft das?
In erster Linie Anbieter (also Entwickler und Hersteller) von Chatbots, virtuellen Assistenten, KI-Telefonbots und ähnlichen Systemen. Aber auch Betreiber -- also Unternehmen, die solche Systeme einsetzen -- tragen Verantwortung: Sie müssen sicherstellen, dass die vom Anbieter vorgesehene Kennzeichnung tatsächlich angezeigt wird und nicht etwa im Rahmen der Integration entfernt oder verdeckt wird.
Praxisrelevanz:
Das betrifft praktisch jeden Chatbot auf einer Unternehmenswebsite. Wenn ein Kunde mit einem KI-gestützten Support-Chat interagiert, muss er wissen, dass er mit einer KI spricht. Ein einfacher Hinweis wie „Sie kommunizieren mit einem KI-Assistenten" genügt.
2. Art. 50 Abs. 2: Emotionserkennung und biometrische Kategorisierung
Was ist geregelt?
Anbieter von KI-Systemen zur Emotionserkennung oder zur biometrischen Kategorisierung müssen die betroffenen Personen über den Betrieb des Systems informieren. Außerdem müssen sie personenbezogene Daten im Einklang mit der DSGVO, der Richtlinie (EU) 2016/680 und der Verordnung (EU) 2018/1725 verarbeiten und speichern.
Wen betrifft das?
Unternehmen, die KI einsetzen, um aus Gesichtsausdrücken, Stimmlage, Körperhaltung oder physiologischen Signalen Emotionen zu erkennen -- etwa Stress, Freude oder Desinteresse. Ebenso betroffen sind Systeme, die Personen anhand biometrischer Daten in Kategorien einordnen, zum Beispiel nach Geschlecht, Alter oder ethnischer Zugehörigkeit.
Wichtig: Art. 5 Abs. 1 lit. f verbietet Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen bereits vollständig (seit dem 2. Februar 2025). Die Transparenzpflicht nach Art. 50 Abs. 2 gilt für die verbleibenden, erlaubten Anwendungsfälle -- etwa Emotionserkennung in der Marktforschung oder im Gesundheitsbereich.
3. Art. 50 Abs. 3: KI-generierte oder KI-manipulierte Inhalte
Was ist geregelt?
Anbieter von KI-Systemen, die synthetische Inhalte in Form von Bild, Audio, Video oder Text erzeugen, müssen sicherstellen, dass die Ausgaben des Systems in einem maschinenlesbaren Format als KI-generiert oder KI-manipuliert gekennzeichnet und erkennbar sind. Die technische Umsetzung muss so wirksam, interoperabel, robust und zuverlässig wie möglich sein, wobei die Art des Inhalts, die Implementierungskosten und der allgemein anerkannte Stand der Technik zu berücksichtigen sind.
Betreiber, die solche Systeme nutzen, um Inhalte zu erzeugen oder zu manipulieren, die als Deepfake einzustufen sind, müssen zusätzlich offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde (siehe Pflicht 4).
Wen betrifft das?
Alle Anbieter von generativer KI: Textgeneratoren, Bildgeneratoren, Text-to-Speech-Systeme, Video-KI. Konkret bedeutet das: Wer ein KI-System anbietet, das Texte, Bilder, Audio oder Video erzeugt, muss technische Maßnahmen implementieren -- typischerweise Wasserzeichen oder Metadaten -- die eine maschinelle Erkennung des KI-Ursprungs ermöglichen.
Für Betreiber heißt das: Wer KI-generierte Texte, Bilder oder Videos veröffentlicht, sollte sicherstellen, dass die vom Anbieter eingebetteten Kennzeichnungen nicht entfernt werden. Zusätzlich empfiehlt sich eine sichtbare Kennzeichnung für Endnutzer.
4. Art. 50 Abs. 4: Deepfakes -- besondere Kennzeichnungspflicht
Was ist geregelt?
Betreiber von KI-Systemen, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren, die einen Deepfake darstellen, müssen offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde. Die Offenlegung muss in einer klaren und erkennbaren Weise erfolgen, spätestens bei der ersten Veröffentlichung oder Verbreitung.
Die Verordnung definiert Deepfakes in Art. 3 Nr. 60 als KI-generierte oder KI-manipulierte Bild-, Audio- oder Videoinhalte, die realen Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen ähneln und einer Person fälschlich als echt erscheinen würden.
Wen betrifft das?
Alle, die Deepfake-Inhalte erstellen oder verbreiten -- ob Unternehmen, Medien, Agenturen oder Einzelpersonen. Die Pflicht trifft den Betreiber, also denjenigen, der das KI-System zur Erstellung des Deepfakes nutzt.
Übersicht: Pflichten auf einen Blick
| Anwendungsfall | Pflicht nach Art. 50 | Wie kennzeichnen? | Ausnahmen |
|---|---|---|---|
| Chatbot / KI-Assistent | Abs. 1: Information über KI-Interaktion | Klarer Hinweis vor/bei Interaktion (z. B. Banner, Pop-up, Hinweistext) | Offensichtlicher KI-Kontext (z. B. Sprachassistent mit synthetischer Stimme) |
| Emotionserkennung | Abs. 2: Information der betroffenen Personen | Individuelle Benachrichtigung vor Einsatz, Datenschutzhinweis | Strafrechtliche Zwecke (unter strengen Bedingungen) |
| KI-generierte Texte, Bilder, Audio, Video | Abs. 3: Maschinenlesbare Kennzeichnung | Wasserzeichen, Metadaten, Content-Credentials | Rein unterstützende Funktion ohne wesentliche Veränderung des Inhalts (z. B. Rechtschreibprüfung) |
| Deepfakes | Abs. 4: Offenlegung bei Veröffentlichung | Sichtbarer Hinweis „KI-generiert" oder „KI-manipuliert" | Künstlerische, satirische oder fiktionale Werke (mit Label-Pflicht, siehe Ausnahmen) |
| KI-generierte Texte zu öffentlichem Interesse | Abs. 4 Unterabs. 2: Offenlegung bei Veröffentlichung | Kennzeichnung als KI-generiert | Redaktionelle Überprüfung durch natürliche Person, die Verantwortung trägt |
Praxisbeispiele: 6 Szenarien aus dem Unternehmensalltag
Szenario 1: Chatbot auf der Unternehmenswebsite
Ein mittelständisches Unternehmen setzt einen KI-gestützten Chatbot ein, der Kundenanfragen zu Produkten und Versandzeiten beantwortet.
Pflicht: Art. 50 Abs. 1 -- Der Chatbot muss kenntlich machen, dass der Nutzer mit einer KI interagiert. Ein Hinweis wie „Ich bin ein KI-Assistent und unterstütze Sie gerne" zu Beginn des Gesprächs genügt. Der Hinweis sollte nicht erst nach mehreren Nachrichten erscheinen, sondern sofort sichtbar sein.
Szenario 2: KI-generierte Marketing-Texte
Eine Agentur nutzt einen KI-Textgenerator, um Produktbeschreibungen für einen Online-Shop zu erstellen. Die Texte werden anschließend von einem Redakteur geprüft und leicht angepasst.
Pflicht: Art. 50 Abs. 3 -- Der Anbieter des KI-Textgenerators muss technische Kennzeichnung (Metadaten) ermöglichen. Für den Betreiber (die Agentur) stellt sich die Frage, ob eine sichtbare Kennzeichnung erforderlich ist. Nach Art. 50 Abs. 4 Unterabs. 2 entfällt die Offenlegungspflicht bei KI-generierten Texten, wenn eine natürliche Person die redaktionelle Verantwortung übernimmt und den Inhalt überprüft hat. Wenn der Redakteur die Texte substanziell prüft und verantwortet, ist eine sichtbare Kennzeichnung daher nicht zwingend -- die maschinenlesbare Kennzeichnung bleibt aber bestehen.
Szenario 3: KI-Bilder in Social Media
Ein Unternehmen erstellt mit einem Bildgenerator Illustrationen für Instagram-Posts. Die Bilder zeigen keine realen Personen, sondern stilisierte Darstellungen.
Pflicht: Art. 50 Abs. 3 -- Die Bilder müssen maschinenlesbar als KI-generiert gekennzeichnet sein (Wasserzeichen/Metadaten). Zusätzlich empfiehlt sich ein sichtbarer Hinweis (z. B. „Bild: KI-generiert" in der Bildunterschrift oder im Alt-Text), auch wenn dies bei Bildern, die offensichtlich keine Fotos sind, nicht zwingend vorgeschrieben ist. Sobald die Bilder realen Szenen ähneln könnten, wird eine sichtbare Kennzeichnung dringend empfohlen.
Szenario 4: Automatisierte E-Mails mit KI-generierten Inhalten
Ein SaaS-Unternehmen nutzt KI, um personalisierte Onboarding-E-Mails zu generieren. Die E-Mails werden ohne menschliche Prüfung direkt an neue Kunden versendet.
Pflicht: Art. 50 Abs. 3 und ggf. Abs. 4 Unterabs. 2 -- Da keine redaktionelle Überprüfung durch eine natürliche Person stattfindet, die die inhaltliche Verantwortung übernimmt, besteht eine Kennzeichnungspflicht. Ein Hinweis wie „Diese E-Mail wurde mit Unterstützung von KI erstellt" im Footer der E-Mail ist angemessen. Zudem greifen die Informationspflichten nach Art. 13 DSGVO bei der Verarbeitung personenbezogener Daten.
Szenario 5: KI-generierte Zusammenfassungen interner Dokumente
Ein Unternehmen setzt intern ein KI-Tool ein, das Protokolle von Meetings automatisch zusammenfasst. Die Zusammenfassungen werden nur intern genutzt.
Pflicht: Art. 50 Abs. 1 greift, wenn Mitarbeiter direkt mit dem KI-System interagieren -- sie sollten wissen, dass die Zusammenfassung maschinell erstellt wurde. Die Kennzeichnungspflichten nach Art. 50 Abs. 3 und 4 richten sich primär an extern veröffentlichte Inhalte. Intern empfiehlt sich dennoch eine Kennzeichnung (z. B. „KI-generierte Zusammenfassung -- bitte auf Richtigkeit prüfen"), um Haftungsrisiken zu minimieren und die KI-Kompetenz der Mitarbeiter zu fördern (vgl. Art. 4 AI Act).
Szenario 6: Deepfake-Satire in der Unternehmenskommunikation
Eine Kreativagentur erstellt ein satirisches Video, in dem eine KI-generierte Version eines fiktiven CEO eine humorvolle Ansprache hält. Das Video wird auf YouTube veröffentlicht.
Pflicht: Art. 50 Abs. 4 -- Auch satirische Deepfakes unterliegen der Kennzeichnungspflicht. Allerdings sieht Art. 50 Abs. 4 eine Erleichterung vor: Bei offensichtlich künstlerischen, kreativen, satirischen oder fiktionalen Werken beschränkt sich die Pflicht darauf, das Vorhandensein von KI-generierten Inhalten in einer geeigneten Weise offenzulegen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt. Konkret: Ein Hinweis in der Videobeschreibung oder im Abspann genügt -- ein störendes Overlay ist nicht erforderlich.
Wie kennzeichnen? Formulierungsvorschläge und Best Practices
Für Chatbots und KI-Assistenten (Art. 50 Abs. 1)
Platzierung: Zu Beginn der Interaktion, gut sichtbar.
Formulierungsvorschläge:
- „Sie kommunizieren mit einem KI-Assistenten. Bei komplexen Anliegen können Sie jederzeit an einen menschlichen Mitarbeiter weitergeleitet werden."
- „Hinweis: Dieser Chat wird von einer künstlichen Intelligenz betrieben."
- „Ich bin ein KI-gestützter Assistent von [Firmenname]. Meine Antworten werden maschinell generiert."
Für KI-generierte Texte (Art. 50 Abs. 3-4)
Platzierung: Am Ende des Textes oder in einem Hinweisfeld.
Formulierungsvorschläge:
- „Dieser Text wurde mit Unterstützung von KI erstellt."
- „Hinweis: Teile dieses Beitrags wurden mithilfe künstlicher Intelligenz generiert und anschließend redaktionell geprüft."
- „KI-generierter Inhalt -- redaktionell überarbeitet von [Name/Redaktion]."
Für KI-generierte Bilder und Videos (Art. 50 Abs. 3-4)
Platzierung: In der Bildunterschrift, im Alt-Text oder als visuelles Label.
Formulierungsvorschläge:
- „Bild: KI-generiert"
- „Diese Grafik wurde mithilfe künstlicher Intelligenz erstellt."
- „KI-generiertes Video -- enthält keine realen Aufnahmen."
Für Deepfakes (Art. 50 Abs. 4)
Platzierung: Gut sichtbar bei der Veröffentlichung -- in der Videobeschreibung, als Overlay oder im Abspann.
Formulierungsvorschläge:
- „Dieses Video enthält KI-generierte Darstellungen. Es handelt sich nicht um reale Aufnahmen."
- „Hinweis: Die in diesem Video gezeigten Personen/Szenen wurden mithilfe künstlicher Intelligenz erzeugt."
- „KI-manipulierter Inhalt -- zu satirischen Zwecken erstellt."
Allgemeine Best Practices
- Frühzeitig informieren: Die Kennzeichnung sollte vor oder spätestens bei Beginn der Interaktion erfolgen -- nicht nachträglich.
- Verständlich formulieren: Vermeiden Sie Fachjargon. Nutzen Sie klare, alltagssprachliche Formulierungen.
- Nicht verstecken: Die Kennzeichnung darf nicht in allgemeinen Geschäftsbedingungen oder Datenschutzerklärungen vergraben werden.
- Konsistenz: Verwenden Sie unternehmensweit einheitliche Kennzeichnungen.
- Technische Kennzeichnung nicht vergessen: Neben der sichtbaren Kennzeichnung müssen Anbieter maschinenlesbare Formate implementieren (z. B. C2PA-Standard, IPTC-Metadaten).
Ausnahmen von der Kennzeichnungspflicht
Der AI Act sieht in Art. 50 einige eng definierte Ausnahmen vor:
Offensichtlicher KI-Kontext (Art. 50 Abs. 1)
Die Informationspflicht bei KI-Interaktion entfällt, wenn der KI-Einsatz aus den Umständen und dem Kontext der Nutzung bereits offensichtlich ist. Beispiel: Ein Sprachassistent mit synthetischer Stimme, der als „KI-Assistent" vermarktet wird, muss nicht zusätzlich darauf hinweisen, dass er eine KI ist. In der Praxis sollten Unternehmen diese Ausnahme jedoch eng auslegen -- im Zweifel ist eine Kennzeichnung immer sicherer.
Künstlerische, satirische und fiktionale Werke (Art. 50 Abs. 4)
Deepfakes in offensichtlich künstlerischen, kreativen, satirischen oder fiktionalen Werken genießen eine Erleichterung: Die Kennzeichnung muss in einer Weise erfolgen, die die Darstellung oder den Genuss des Werks nicht beeinträchtigt. Ein dezenter Hinweis in der Beschreibung oder im Abspann genügt. Die Pflicht zur Kennzeichnung an sich entfällt aber nicht -- sie wird lediglich flexibler gestaltet.
Redaktionelle Verantwortung bei KI-Texten (Art. 50 Abs. 4 Unterabs. 2)
Bei KI-generierten Texten, die zu Themen von öffentlichem Interesse veröffentlicht werden, entfällt die Offenlegungspflicht, wenn eine natürliche oder juristische Person die redaktionelle Verantwortung für die Veröffentlichung übernimmt und der Inhalt einer menschlichen Überprüfung und Kontrolle unterzogen wurde. Diese Ausnahme zielt auf den journalistischen Bereich: Redaktionen dürfen KI als Werkzeug nutzen, ohne jeden Artikel als „KI-generiert" zu kennzeichnen, solange ein Redakteur den Inhalt verantwortet.
Unterstützende KI-Funktionen (Art. 50 Abs. 3)
Die Kennzeichnungspflicht für KI-generierte Inhalte gilt nicht, wenn das KI-System eine rein unterstützende Funktion für die Standardbearbeitung ausübt oder den vom Betreiber bereitgestellten Input nicht wesentlich verändert. Rechtschreibprüfungen, automatische Grammatikkorrektur oder Layout-Assistenten sind daher von der Kennzeichnungspflicht ausgenommen.
Strafverfolgung (Art. 50 Abs. 2 und 4)
Für Emotionserkennung und Deepfakes im Bereich der Strafverfolgung und nationalen Sicherheit gelten Sonderregelungen, die eine Offenlegung einschränken können. Diese Ausnahmen sind eng begrenzt und an strenge Voraussetzungen geknüpft.
Zusammenspiel mit der DSGVO: Art. 13 und 14
Die Transparenzpflichten des AI Act stehen nicht allein. Wenn ein KI-System personenbezogene Daten verarbeitet, greifen parallel die Informationspflichten der DSGVO (VO (EU) 2016/679):
Art. 13 DSGVO (Datenerhebung bei der betroffenen Person) verpflichtet den Verantwortlichen, bei der Erhebung personenbezogener Daten unter anderem folgende Informationen bereitzustellen:
- Den Zweck der Verarbeitung und die Rechtsgrundlage (Art. 13 Abs. 1 lit. c)
- Gegebenenfalls das Bestehen einer automatisierten Entscheidungsfindung einschließlich Profiling gemäß Art. 22 DSGVO -- mit aussagekräftigen Informationen über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen (Art. 13 Abs. 2 lit. f)
Art. 14 DSGVO (Daten nicht bei der betroffenen Person erhoben) enthält entsprechende Pflichten für den Fall, dass personenbezogene Daten aus anderen Quellen stammen.
Was bedeutet das in der Praxis?
Unternehmen, die KI-Systeme mit personenbezogenen Daten betreiben, müssen beide Regelwerke gleichzeitig erfüllen:
- AI Act Art. 50: Kennzeichnung der KI-Interaktion / des KI-generierten Inhalts
- DSGVO Art. 13-14: Information über die Datenverarbeitung, Zweck, Rechtsgrundlage, Betroffenenrechte
- DSGVO Art. 22: Besondere Pflichten bei automatisierten Einzelentscheidungen
Die Datenschutzhinweise und die KI-Kennzeichnung können gebündelt erfolgen, sollten aber jeweils klar erkennbar sein. Es empfiehlt sich, die bestehende Datenschutzerklärung um einen Abschnitt zur KI-Nutzung zu ergänzen und die KI-Kennzeichnung nach Art. 50 AI Act separat dort vorzunehmen, wo die Interaktion stattfindet.
Häufig gestellte Fragen (FAQ)
Muss jeder KI-generierte Text gekennzeichnet werden?
Nicht zwingend. Die Kennzeichnungspflicht nach Art. 50 Abs. 3 richtet sich primär an Anbieter von KI-Systemen, die eine maschinenlesbare Kennzeichnung implementieren müssen. Für Betreiber (Nutzer des KI-Systems) greift die sichtbare Offenlegungspflicht nach Art. 50 Abs. 4 insbesondere bei Deepfakes und bei Texten zu Themen von öffentlichem Interesse. Wenn ein Redakteur den Text substanziell überprüft und die inhaltliche Verantwortung übernimmt, kann die sichtbare Kennzeichnung entfallen. Die maschinenlesbare Kennzeichnung (Metadaten) bleibt jedoch bestehen.
Ab wann gelten die Transparenzpflichten?
Die Transparenzpflichten nach Art. 50 AI Act gelten ab dem 2. August 2026 (Art. 113 Abs. 2 lit. b VO (EU) 2024/1689). Unternehmen sollten die verbleibende Zeit nutzen, um ihre Prozesse anzupassen, Kennzeichnungsrichtlinien zu erstellen und Mitarbeiter zu schulen. Die DSGVO-Informationspflichten nach Art. 13-14 gelten bereits heute und unabhängig vom AI Act.
Was passiert, wenn ich KI-Kennzeichnungen von generierten Inhalten entferne?
Das Entfernen oder Unwirksammachen von maschinenlesbaren KI-Kennzeichnungen ist nach dem AI Act problematisch. Art. 50 Abs. 3 verpflichtet Anbieter, die Kennzeichnung so robust wie möglich zu gestalten. Betreiber, die diese Kennzeichnungen bewusst entfernen, um die KI-Herkunft zu verschleiern, handeln dem Geist der Verordnung zuwider und riskieren Bußgelder. Zudem können sie sich schadensersatzpflichtig machen, wenn durch die fehlende Kennzeichnung Dritte geschädigt werden.
Gilt die Kennzeichnungspflicht auch für interne KI-Nutzung?
Die Transparenzpflichten nach Art. 50 sind primär auf die Interaktion mit und die Information von natürlichen Personen ausgerichtet. Bei rein internem Einsatz -- etwa KI-gestützte Datenanalyse ohne direkte Nutzerinteraktion -- greift Art. 50 Abs. 1 nicht unmittelbar. Allerdings: Wenn Mitarbeiter mit einem KI-System interagieren (z. B. interner Chatbot), sind auch sie „natürliche Personen" im Sinne der Verordnung. Zudem verpflichtet Art. 4 AI Act zur Sicherstellung der KI-Kompetenz aller Beschäftigten, die mit KI-Systemen arbeiten -- was eine interne Kennzeichnung und Schulung impliziert.
Wie unterscheidet sich die KI-Kennzeichnungspflicht von bestehenden Werbekennzeichnungspflichten?
Die KI-Kennzeichnungspflicht nach Art. 50 AI Act ist unabhängig von bestehenden Werbe- und Medienkennzeichnungspflichten (z. B. nach dem UWG oder dem Medienstaatsvertrag). Sie ergänzt diese. Ein KI-generierter Werbetext muss also sowohl als Werbung (nach UWG/MStV) als auch als KI-generiert (nach Art. 50 AI Act) gekennzeichnet werden, sofern die jeweiligen Voraussetzungen vorliegen. Die Kennzeichnungen können kombiniert werden, müssen aber jeweils klar erkennbar sein.
Nächste Schritte: So bereiten Sie Ihr Unternehmen vor
Die KI-Kennzeichnungspflicht kommt -- und sie betrifft weit mehr Unternehmen, als vielen bewusst ist. Jeder Chatbot, jedes KI-generierte Bild und jede automatisierte E-Mail fällt potenziell in den Anwendungsbereich von Art. 50 AI Act.
Was Sie jetzt tun sollten:
- KI-Inventar erstellen: Verschaffen Sie sich einen Überblick über alle KI-Systeme in Ihrem Unternehmen und prüfen Sie, welche unter die Transparenzpflichten fallen.
- Kennzeichnungsrichtlinie entwickeln: Definieren Sie unternehmensweit einheitliche Formulierungen und Platzierungen für KI-Hinweise.
- Datenschutzerklärung aktualisieren: Ergänzen Sie Ihre Datenschutzhinweise um Informationen zur KI-Nutzung.
- Mitarbeiter schulen: Sensibilisieren Sie Ihr Team für die Kennzeichnungspflichten -- insbesondere Marketing, Kundenservice und Kommunikation.
- Technische Kennzeichnung prüfen: Stellen Sie sicher, dass Ihre KI-Anbieter maschinenlesbare Kennzeichnungen implementiert haben.
KI Comply unterstützt Sie dabei. Unsere Plattform bietet KI-Schulungen, Compliance-Checklisten und ein KI-Inventar-Tool, mit dem Sie die Transparenzpflichten systematisch umsetzen können. Starten Sie jetzt Ihre kostenlose Testphase und machen Sie Ihr Unternehmen fit für den AI Act.
Rechtsquellen
- Transparenzpflichten – Art. 50 VO (EU) 2024/1689 (Quelle)
- Informationspflichten DSGVO – Art. 13-14 VO (EU) 2016/679
- Deepfake-Kennzeichnung – Art. 50 Abs. 4 VO (EU) 2024/1689
Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.
Artikel teilen:
Weiterlesen
Was ist der AI Act? Einfach erklärt für Unternehmen
Der EU AI Act ist das weltweit erste KI-Gesetz. Wir erklären die KI-Verordnung verständlich: Was sie regelt, wen sie betrifft und was Unternehmen jetzt tun müssen.
Verbotene KI-Praktiken: Was der AI Act untersagt
Der AI Act verbietet bestimmte KI-Anwendungen vollständig. Von Social Scoring bis Emotionserkennung — wir erklären alle Verbote nach Art. 5.
ChatGPT und Datenschutz: DSGVO-Leitfaden für Unternehmen
ChatGPT im Unternehmen einsetzen und dabei die DSGVO einhalten? Dieser Leitfaden erklärt alle datenschutzrechtlichen Anforderungen — von der Rechtsgrundlage bis zur DSFA.
AI Act vs. DSGVO: Wie die beiden Regulierungen zusammenspielen
AI Act und DSGVO — zwei EU-Verordnungen, ein Ziel: verantwortungsvolle KI. Wir erklären die Unterschiede, Überschneidungen und was Unternehmen beachten müssen.

Checkliste: DSFA für KI-Systeme durchführen
Praxisnahe Checkliste für die Datenschutz-Folgenabschätzung bei KI-Anwendungen. Schritt für Schritt durch alle Pflichtinhalte nach Art. 35 DSGVO -- mit Vorlage und Muster.

Ist KI-Output urheberrechtlich geschützt? Aktuelle Rechtslage
Warum rein maschinell erzeugte Inhalte in Deutschland keinen Werkschutz genießen, wo die Grenze zur schützfähigen KI-Assistenz verläuft und wie Unternehmen ihre Rechte an KI-gestütztem Content sichern.
Machen Sie Ihr Team KI-fit
Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.
Preise ansehen