Privacy by Design bei KI-Systemen: Umsetzungsleitfaden
Art. 25 DSGVO fordert Datenschutz durch Technikgestaltung — auch bei KI. Wie Sie Privacy by Design bei KI-Projekten von Anfang an umsetzen.
Privacy by Design bei KI-Systemen: Umsetzungsleitfaden
Das Wichtigste in Kürze: Art. 25 DSGVO verpflichtet Verantwortliche, Datenschutz von Anfang an in die technische Gestaltung und die Voreinstellungen ihrer Systeme einzubauen -- das gilt ausdrücklich auch für KI-Anwendungen. Wer Privacy by Design erst beim Go-Live berücksichtigt, riskiert Bußgelder nach Art. 83 Abs. 4 DSGVO (bis zu 10 Mio. Euro) und steht vor dem Problem, nachträgliche Änderungen an trainierten Modellen nur mit enormem Aufwand umsetzen zu können. Dieser Leitfaden zeigt Ihnen, wie Sie die sieben Grundsätze nach Ann Cavoukian auf KI-Projekte übertragen, welche KI-spezifischen Herausforderungen bestehen und wie Sie Privacy by Design in fünf Schritten implementieren.
KI-Systeme stellen den Datenschutz vor besondere Herausforderungen: Sie benötigen große Mengen an Trainingsdaten, lernen Muster aus diesen Daten und können unter Umständen personenbezogene Informationen im Modell speichern. Genau deshalb ist Privacy by Design bei KI kein „Nice-to-have", sondern eine rechtliche Pflicht -- und eine strategische Notwendigkeit.
Unternehmen, die Datenschutz von der ersten Projektidee an mitdenken, sparen langfristig Kosten, vermeiden aufwändige Nachbesserungen und schaffen Vertrauen bei Kunden, Beschäftigten und Aufsichtsbehörden. Dieser Leitfaden gibt Ihnen das Werkzeug an die Hand, um Privacy by Design bei KI-Projekten systematisch umzusetzen.
Was ist Privacy by Design?
Der rechtliche Rahmen: Art. 25 DSGVO
Art. 25 Abs. 1 DSGVO (Datenschutz durch Technikgestaltung) verpflichtet den Verantwortlichen, sowohl zum Zeitpunkt der Festlegung der Verarbeitungsmittel als auch zum Zeitpunkt der Verarbeitung selbst geeignete technische und organisatorische Maßnahmen zu treffen. Diese Maßnahmen müssen darauf ausgelegt sein, die Datenschutzgrundsätze (Art. 5 DSGVO) wirksam umzusetzen und die notwendigen Garantien in die Verarbeitung aufzunehmen.
Dabei berücksichtigt das Gesetz ausdrücklich den Stand der Technik, die Implementierungskosten, die Art, den Umfang, die Umstände und die Zwecke der Verarbeitung sowie die unterschiedlichen Eintrittswahrscheinlichkeiten und Schwere der Risiken für die Rechte und Freiheiten natürlicher Personen.
Art. 25 Abs. 2 DSGVO (Datenschutz durch datenschutzfreundliche Voreinstellungen) ergänzt: Der Verantwortliche muss sicherstellen, dass durch Voreinstellungen nur solche personenbezogenen Daten verarbeitet werden, die für den jeweiligen Verarbeitungszweck erforderlich sind. Das gilt für die Menge der erhobenen Daten, den Umfang ihrer Verarbeitung, ihre Speicherfrist und ihre Zugänglichkeit.
Für KI-Systeme bedeutet das konkret: Die datenschutzfreundlichste Konfiguration muss die Standardeinstellung sein -- nicht die datenintensivste.
Abgrenzung zu verwandten Pflichten
Privacy by Design steht nicht allein. Es ergänzt insbesondere:
- Art. 32 DSGVO (Sicherheit der Verarbeitung): Technische und organisatorische Maßnahmen (TOM) zum Schutz personenbezogener Daten
- Art. 35 DSGVO (Datenschutz-Folgenabschätzung): Die DSFA identifiziert Risiken, Privacy by Design adressiert sie konstruktiv
- Art. 5 Abs. 1 lit. c DSGVO (Datenminimierung): Der zentrale Grundsatz, den Privacy by Design technisch umsetzt
Während Art. 32 sich auf die Absicherung bestehender Verarbeitungen konzentriert, greift Art. 25 früher: Er verlangt, dass Datenschutz bereits in der Konzeptionsphase berücksichtigt wird.
Die 7 Grundprinzipien nach Cavoukian -- angewandt auf KI
Die kanadische Datenschutzbeauftragte Ann Cavoukian formulierte 2009 sieben Grundprinzipien für Privacy by Design, die heute als internationaler Standard gelten. Für KI-Systeme lassen sie sich wie folgt übersetzen:
1. Proaktiv statt reaktiv -- vorbeugend statt abhelfend
Datenschutzrisiken werden bereits in der Planungsphase eines KI-Projekts identifiziert und adressiert -- nicht erst nach einem Vorfall. Bevor das erste Trainingsdatum geladen wird, muss eine Risikoanalyse stattfinden.
KI-Bezug: Führen Sie vor dem Training eine Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO durch. Definieren Sie bereits im Projektantrag, welche Daten benötigt werden und welche Alternativen (synthetische Daten, anonymisierte Datensätze) in Frage kommen.
2. Datenschutz als Standardeinstellung
Die datenschutzfreundlichste Option ist immer die Voreinstellung. Nutzer müssen aktiv mehr Datenverarbeitung einschalten -- nicht umgekehrt.
KI-Bezug: Ein KI-gestützter Chatbot sollte standardmäßig keine Gesprächsverläufe speichern. Ein Empfehlungssystem sollte zunächst nur mit aggregierten, nicht mit individuellen Nutzerprofilen arbeiten.
3. Datenschutz eingebettet in das Design
Datenschutz ist kein nachträgliches Add-on, sondern integraler Bestandteil der Systemarchitektur.
KI-Bezug: Datenschutzmaßnahmen wie Differential Privacy oder Federated Learning werden als Architekturentscheidung in die ML-Pipeline integriert -- nicht als Filter nachgeschaltet.
4. Volle Funktionalität -- Positivsumme statt Nullsumme
Privacy by Design bedeutet nicht, dass Funktionalität geopfert werden muss. Das Ziel ist eine Win-Win-Lösung.
KI-Bezug: Durch Techniken wie Differential Privacy lassen sich Modelle trainieren, die sowohl leistungsfähig als auch datenschutzkonform sind. Datenminimierung kann sogar die Modellqualität verbessern, indem irrelevante Features entfernt werden und Overfitting reduziert wird.
5. Durchgängige Sicherheit -- Schutz über den gesamten Lebenszyklus
Personenbezogene Daten werden von der Erhebung bis zur Löschung geschützt -- das umfasst bei KI den gesamten ML-Lebenszyklus.
KI-Bezug: Der Schutz erstreckt sich auf Rohdaten, Trainingsdaten, Validierungsdaten, das trainierte Modell selbst, Inferenz-Logs und Modell-Artefakte. Löschkonzepte müssen auch die Frage adressieren, ob und wie trainierte Modelle „verlernen" können (Machine Unlearning).
6. Sichtbarkeit und Transparenz
Alle Beteiligten können nachvollziehen, welche Daten wie verarbeitet werden. Die Verarbeitung ist überprüfbar.
KI-Bezug: Dokumentieren Sie die Datenherkunft (Data Lineage), die Feature-Auswahl, die Trainingsparameter und die Modellversionen. Art. 13, 14 DSGVO verlangen zudem Informationen über das Bestehen einer automatisierten Entscheidungsfindung einschließlich aussagekräftiger Informationen über die involvierte Logik.
7. Respekt vor der Privatsphäre der Nutzer
Die Interessen der betroffenen Personen stehen im Mittelpunkt. Betroffenenrechte (Art. 15--22 DSGVO) müssen technisch umsetzbar sein.
KI-Bezug: Betroffene müssen ihr Auskunftsrecht (Art. 15 DSGVO) auch gegenüber KI-Systemen ausüben können. Das Recht auf Löschung (Art. 17 DSGVO) erstreckt sich grundsätzlich auch auf Trainingsdaten -- eine technisch anspruchsvolle Aufgabe.
KI-spezifische Herausforderungen für Privacy by Design
KI-Systeme bringen Herausforderungen mit sich, die bei klassischer Software nicht existieren. Drei Bereiche verdienen besondere Aufmerksamkeit:
Trainingsdaten
Maschinelles Lernen benötigt große Datenmengen. Häufig enthalten diese Datensätze personenbezogene Informationen -- sei es in Textkorpora (Namen, Adressen, Gesundheitsdaten), Bilddaten (Gesichter, Kennzeichen) oder strukturierten Datensätzen (Kundendaten, Beschäftigtendaten).
Herausforderungen:
- Datenminimierung (Art. 5 Abs. 1 lit. c DSGVO) steht im Spannungsfeld mit dem Bedarf an großen Datensätzen
- Die Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO) wird problematisch, wenn Datensätze für andere Zwecke erhoben wurden
- Löschpflichten nach Art. 17 DSGVO lassen sich bei bereits trainierten Modellen nur schwer umsetzen
Lösungsansätze: Anonymisierung und Pseudonymisierung vor dem Training, Nutzung synthetischer Daten, klare Rechtsgrundlagen für die Zweitverwendung (Art. 6 Abs. 4 DSGVO).
Modell-Memorisierung
Neuronale Netze können Trainingsdaten „auswendig lernen" (Memorisierung). Unter bestimmten Umständen lassen sich durch gezielte Abfragen (Membership Inference Attacks, Model Inversion Attacks) personenbezogene Daten aus dem trainierten Modell extrahieren.
Herausforderungen:
- Das Modell selbst kann als personenbezogenes Datum gelten, wenn sich Trainingsdaten rekonstruieren lassen
- Traditionelle Löschung greift nicht, wenn Daten im Modellgewicht kodiert sind
- Die Grenze zwischen „gelerntem Muster" und „gespeichertem Datum" ist fließend
Lösungsansätze: Differential Privacy beim Training (DP-SGD), Regularisierungstechniken gegen Overfitting, regelmäßige Tests auf Memorisierung, Machine Unlearning bei Löschanfragen.
Feature Engineering und Inferenz
Selbst wenn keine direkt personenbezogenen Daten verwendet werden, können abgeleitete Features (z. B. Nutzungszeiten, Klickmuster, Standortdaten) Rückschlüsse auf Einzelpersonen ermöglichen. Zudem können KI-Systeme aus scheinbar harmlosen Daten sensible Informationen ableiten -- etwa den Gesundheitszustand aus dem Einkaufsverhalten.
Herausforderungen:
- Indirekte Identifizierbarkeit durch Feature-Kombination
- Ableitung besonderer Kategorien personenbezogener Daten (Art. 9 DSGVO) aus nicht-sensiblen Eingabedaten
- Proxy-Diskriminierung durch scheinbar neutrale Features
Lösungsansätze: Privacy-Impact-Analyse für jedes Feature, Entfernung hochkorrelierter Proxy-Variablen, regelmäßige Fairness-Audits, Begrenzung der Feature-Granularität.
Maßnahmen-Tabelle: Cavoukian-Prinzipien auf KI angewandt
| Prinzip | KI-Maßnahme | Beispiel |
|---|---|---|
| 1. Proaktiv | DSFA vor Projektstart; Risiko-Assessment der Trainingsdaten | Vor dem Training eines Scoring-Modells werden alle Datenquellen auf personenbezogene Inhalte geprüft |
| 2. Standardeinstellung | Minimale Datenerhebung als Default; Opt-in für erweiterte Personalisierung | KI-Chatbot speichert standardmäßig keine Konversationen; Nutzer können Verlauf optional aktivieren |
| 3. Eingebettet ins Design | Differential Privacy in der Trainings-Pipeline; Federated Learning als Architekturentscheidung | DP-SGD wird als fester Bestandteil der ML-Pipeline implementiert, nicht als optionaler Schritt |
| 4. Positivsumme | Feature Selection zur gleichzeitigen Verbesserung von Datenschutz und Modellqualität | Entfernung redundanter personenbezogener Features reduziert Overfitting und verbessert Generalisierung |
| 5. Lebenszyklus-Schutz | Verschlüsselung der Trainingsdaten, Zugriffskontrollen auf Modelle, Löschkonzept inkl. Machine Unlearning | Trainingsdaten werden nach Abschluss des Trainings gelöscht; Modell-Artefakte sind verschlüsselt gespeichert |
| 6. Transparenz | Model Cards, Data Sheets, Audit-Trails für Trainingsläufe | Für jedes produktive Modell existiert eine Model Card mit Angaben zu Trainingsdaten, Metriken und bekannten Einschränkungen |
| 7. Nutzerzentrierung | Technische Umsetzung der Betroffenenrechte; verständliche Erklärung der KI-Logik | Dashboard, über das Betroffene ihre Daten einsehen, exportieren und löschen können -- inkl. Antrag auf Machine Unlearning |
Zusammenspiel mit dem AI Act (Art. 10 VO (EU) 2024/1689)
Der AI Act (VO (EU) 2024/1689) ergänzt die DSGVO um KI-spezifische Anforderungen. Besonders relevant für Privacy by Design ist Art. 10, der Anforderungen an die Daten- und Daten-Governance für Hochrisiko-KI-Systeme formuliert.
Art. 10 im Überblick
Art. 10 Abs. 2 verlangt, dass Trainings-, Validierungs- und Testdatensätze einer Reihe von Qualitätskriterien genügen. Die Datensätze müssen relevant, hinreichend repräsentativ, möglichst fehlerfrei und vollständig sein. Sie müssen die statistischen Eigenschaften aufweisen, die dem Kontext entsprechen, in dem das KI-System eingesetzt werden soll.
Art. 10 Abs. 5 gestattet unter strengen Voraussetzungen die Verarbeitung besonderer Kategorien personenbezogener Daten (Art. 9 DSGVO) für die Erkennung und Korrektur von Bias -- allerdings nur unter geeigneten Schutzmaßnahmen, einschließlich Pseudonymisierung und Verschlüsselung.
Synergien zwischen DSGVO und AI Act
| DSGVO-Pflicht | AI-Act-Pflicht | Synergie |
|---|---|---|
| Datenminimierung (Art. 5 Abs. 1 lit. c) | Datenqualität (Art. 10 Abs. 2) | Weniger, aber qualitativ hochwertige Daten erfüllen beide Anforderungen |
| Privacy by Design (Art. 25) | Risikomanagement (Art. 9) | Datenschutzmaßnahmen fließen in das KI-Risikomanagement ein |
| DSFA (Art. 35) | Konformitätsbewertung (Art. 43) | Die DSFA kann als Baustein der Konformitätsbewertung dienen |
| TOM (Art. 32) | Cybersecurity (Art. 15) | Sicherheitsmaßnahmen schützen gleichzeitig Daten und KI-System |
Praxistipp: Unternehmen, die Privacy by Design konsequent umsetzen, erfüllen gleichzeitig wesentliche Anforderungen des AI Act. Die Dokumentation der Daten-Governance nach Art. 10 AI Act und die Dokumentation der TOM nach Art. 25 / Art. 32 DSGVO können in einem integrierten Dokumentationssystem zusammengeführt werden.
Privacy by Design bei KI-Projekten implementieren: 5 Schritte
Schritt 1: Datenschutz-Anforderungsanalyse
Bevor das erste Modell entworfen wird, klären Sie die datenschutzrechtlichen Rahmenbedingungen:
- Rechtsgrundlage bestimmen: Auf welcher Grundlage (Art. 6 DSGVO) werden personenbezogene Daten verarbeitet? Ist eine Einwilligung erforderlich oder greift ein berechtigtes Interesse?
- Datenkategorien identifizieren: Welche Kategorien personenbezogener Daten sind betroffen? Sind besondere Kategorien (Art. 9 DSGVO) involviert?
- DSFA-Pflicht prüfen: Ist eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO erforderlich? Bei KI-Systemen mit Profiling oder automatisierter Entscheidungsfindung ist dies regelmäßig der Fall.
- AI-Act-Risikoklasse bestimmen: Handelt es sich um ein Hochrisiko-KI-System nach Anhang III VO (EU) 2024/1689?
Ergebnis: Ein Datenschutz-Anforderungsdokument, das als verbindliche Vorgabe für alle weiteren Projektphasen dient.
Schritt 2: Daten-Pipeline datenschutzkonform gestalten
Die Daten-Pipeline ist das Herzstück jedes KI-Systems. Hier werden die wichtigsten Privacy-by-Design-Entscheidungen getroffen:
- Datenerhebung: Nur die für den definierten Zweck erforderlichen Daten erheben (Datenminimierung, Art. 5 Abs. 1 lit. c DSGVO)
- Anonymisierung/Pseudonymisierung: Personenbezogene Daten so früh wie möglich in der Pipeline anonymisieren oder pseudonymisieren
- Synthetische Daten: Prüfen, ob synthetische Daten das Training ergänzen oder ersetzen können
- Zugriffskontrollen: Rollenbasierter Zugriff auf Trainingsdaten nach dem Need-to-know-Prinzip
- Datenqualität: Dokumentation der Datenherkunft und -qualität gemäß Art. 10 VO (EU) 2024/1689
Schritt 3: Modellarchitektur und Training absichern
In der Trainingsphase werden die technischen Datenschutzmaßnahmen implementiert:
- Differential Privacy (DP-SGD): Rauschen wird den Gradienten während des Trainings hinzugefügt, um die Memorisierung einzelner Datenpunkte zu verhindern
- Federated Learning: Das Modell wird dezentral trainiert; die Rohdaten verlassen die lokale Umgebung nicht
- Regularisierung: Techniken wie Dropout und L2-Regularisierung reduzieren Overfitting und damit das Memorisierungsrisiko
- Modell-Audits: Regelmäßige Tests auf Membership Inference und Model Inversion
- Versionierung: Alle Trainingsläufe, Hyperparameter und Datensatzversionen werden dokumentiert
Schritt 4: Deployment mit datenschutzfreundlichen Voreinstellungen
Beim Deployment wird Art. 25 Abs. 2 DSGVO (Privacy by Default) besonders relevant:
- Minimale Voreinstellungen: Das System verarbeitet im Standardmodus nur die unbedingt erforderlichen Daten
- Opt-in statt Opt-out: Erweiterte Datenverarbeitungen (z. B. Personalisierung, Speicherung von Verläufen) werden nur nach aktiver Zustimmung aktiviert
- Transparenz: Nutzer werden klar und verständlich über die KI-gestützte Verarbeitung informiert
- Betroffenenrechte: Technische Schnittstellen für Auskunft, Berichtigung, Löschung und Widerspruch sind implementiert
- Logging: Inference-Anfragen werden nur im erforderlichen Umfang protokolliert; Logs unterliegen einem Löschkonzept
Schritt 5: Kontinuierliche Überwachung und Verbesserung
Privacy by Design endet nicht mit dem Go-Live. Art. 25 Abs. 1 DSGVO verlangt Maßnahmen auch „zum Zeitpunkt der Verarbeitung selbst":
- Monitoring: Laufende Überwachung auf Data Drift, Modell-Degradation und neue Datenschutzrisiken
- Regelmäßige Audits: Mindestens jährliche Überprüfung der Datenschutzmaßnahmen
- DSFA-Aktualisierung: Bei wesentlichen Änderungen am System oder den Verarbeitungsbedingungen ist die DSFA zu aktualisieren (Art. 35 Abs. 11 DSGVO)
- Incident Response: Prozess für Datenschutzverletzungen im KI-Kontext (Art. 33, 34 DSGVO)
- Löschung und Unlearning: Regelmäßige Prüfung, ob Trainingsdaten gelöscht werden können, und Verfahren für Machine Unlearning bei berechtigten Löschanfragen
Häufige Fragen (FAQ)
Ist Privacy by Design bei jedem KI-Projekt Pflicht?
Ja. Art. 25 DSGVO gilt für jede Verarbeitung personenbezogener Daten -- unabhängig von der Risikoklasse des KI-Systems. Sobald Ihr KI-System personenbezogene Daten verarbeitet (auch indirekt, z. B. über Trainingsdaten), müssen Sie Datenschutz durch Technikgestaltung und datenschutzfreundliche Voreinstellungen gewährleisten. Die Intensität der Maßnahmen richtet sich nach dem konkreten Risiko, aber die Pflicht als solche besteht immer.
Wie verhält sich Privacy by Design zum AI Act?
Der AI Act (VO (EU) 2024/1689) und die DSGVO sind komplementär. Der AI Act regelt in Art. 10 die Daten-Governance für Hochrisiko-KI-Systeme und stellt Anforderungen an Datenqualität und Bias-Erkennung. Privacy by Design nach Art. 25 DSGVO adressiert den Schutz personenbezogener Daten. In der Praxis überschneiden sich die Anforderungen erheblich: Wer Privacy by Design konsequent umsetzt, erfüllt viele Anforderungen des Art. 10 AI Act automatisch mit.
Kann Differential Privacy die Modellqualität beeinträchtigen?
Differential Privacy fügt dem Trainingsprozess kontrolliertes Rauschen hinzu, was zu einem gewissen Verlust an Modellgenauigkeit führen kann (Privacy-Utility-Tradeoff). In der Praxis ist dieser Verlust bei moderaten Privacy-Budgets (Epsilon-Werten) jedoch oft gering. Zudem zeigt die Forschung, dass DP-trainierte Modelle häufig besser generalisieren, weil Overfitting reduziert wird. Die Wahl des geeigneten Epsilon-Werts sollte dokumentiert und begründet werden.
Wie setze ich das Recht auf Löschung bei KI-Modellen um?
Das Recht auf Löschung nach Art. 17 DSGVO erstreckt sich grundsätzlich auch auf Trainingsdaten. Die Umsetzung ist bei bereits trainierten Modellen technisch anspruchsvoll. Drei Ansätze sind etabliert: (1) Neutraining des Modells ohne die betroffenen Daten, (2) Machine Unlearning -- spezialisierte Verfahren, die den Einfluss bestimmter Datenpunkte aus dem Modell entfernen, (3) SISA Training (Sharded, Isolated, Sliced, and Aggregated), das Modelle so trainiert, dass einzelne Daten-Shards entfernt und nur Teilmodelle neu trainiert werden müssen. Die gewählte Strategie sollte bereits bei der Systemgestaltung festgelegt werden -- ein Kernaspekt von Privacy by Design.
Welche Dokumentation verlangt Art. 25 DSGVO?
Art. 25 DSGVO selbst enthält keine explizite Dokumentationspflicht. Allerdings ergibt sich aus der Rechenschaftspflicht (Art. 5 Abs. 2 DSGVO), dass Sie die Einhaltung nachweisen können müssen. Dokumentieren Sie daher: die durchgeführte Risikoanalyse, die getroffenen technischen und organisatorischen Maßnahmen, die Begründung für die Auswahl der Maßnahmen (insbesondere unter Berücksichtigung des Stands der Technik und der Implementierungskosten), die datenschutzfreundlichen Voreinstellungen und die regelmäßigen Überprüfungen. Bei Hochrisiko-KI-Systemen nach dem AI Act ergänzt die technische Dokumentation nach Art. 11 VO (EU) 2024/1689 diese Nachweise.
Fazit: Datenschutz als Designprinzip -- nicht als Hindernis
Privacy by Design bei KI-Systemen ist mehr als eine regulatorische Pflicht. Es ist ein Qualitätsmerkmal, das Vertrauen schafft und langfristig Kosten spart. Unternehmen, die Datenschutz von Anfang an in ihre KI-Projekte einbauen, vermeiden teure Nachbesserungen, reduzieren regulatorische Risiken und positionieren sich als verantwortungsvolle Innovatoren.
Die Verbindung von DSGVO (Art. 25) und AI Act (Art. 10) zeigt: Der europäische Gesetzgeber erwartet, dass Datenschutz und KI-Sicherheit zusammen gedacht werden. Wer ein integriertes Konzept verfolgt, erfüllt beide Regelwerke effizienter als Unternehmen, die DSGVO und AI Act isoliert betrachten.
Der Schlüssel liegt in der frühzeitigen Integration: Privacy by Design funktioniert am besten, wenn es von Tag eins an Teil der KI-Strategie ist. Die fünf Schritte in diesem Leitfaden geben Ihnen eine erprobte Struktur, um genau das umzusetzen.
Sie möchten Privacy by Design in Ihren KI-Projekten systematisch umsetzen? KI Comply unterstützt Ihr Team mit praxisnahen Schulungen zu Datenschutz, AI Act und KI-Governance -- damit Ihre Mitarbeiter die Anforderungen verstehen und im Projektalltag anwenden können. Jetzt Schulung anfragen
Rechtsquellen
- Privacy by Design – Art. 25 VO (EU) 2016/679 (Quelle)
- Datenminimierung – Art. 5 Abs. 1 lit. c DSGVO
- KI-Datenqualität – Art. 10 VO (EU) 2024/1689
- TOM – Art. 32 DSGVO
Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.
Artikel teilen:
Machen Sie Ihr Team KI-fit
Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.
Preise ansehen