Zurück zum Blog
Datenschutz
Praxis

Privacy by Design bei KI-Systemen: Umsetzungsleitfaden

Art. 25 DSGVO fordert Datenschutz durch Technikgestaltung — auch bei KI. Wie Sie Privacy by Design bei KI-Projekten von Anfang an umsetzen.

KCT
KI Comply TeamKI-Compliance Experten
1. November 20255 Min. Lesezeit
Privacy by Design bei KI-Systemen: Umsetzungsleitfaden

Privacy by Design bei KI-Systemen: Umsetzungsleitfaden

Das Wichtigste in Kürze: Art. 25 DSGVO verpflichtet Verantwortliche, Datenschutz von Anfang an in die technische Gestaltung und die Voreinstellungen ihrer Systeme einzubauen -- das gilt ausdrücklich auch für KI-Anwendungen. Wer Privacy by Design erst beim Go-Live berücksichtigt, riskiert Bußgelder nach Art. 83 Abs. 4 DSGVO (bis zu 10 Mio. Euro) und steht vor dem Problem, nachträgliche Änderungen an trainierten Modellen nur mit enormem Aufwand umsetzen zu können. Dieser Leitfaden zeigt Ihnen, wie Sie die sieben Grundsätze nach Ann Cavoukian auf KI-Projekte übertragen, welche KI-spezifischen Herausforderungen bestehen und wie Sie Privacy by Design in fünf Schritten implementieren.

KI-Systeme stellen den Datenschutz vor besondere Herausforderungen: Sie benötigen große Mengen an Trainingsdaten, lernen Muster aus diesen Daten und können unter Umständen personenbezogene Informationen im Modell speichern. Genau deshalb ist Privacy by Design bei KI kein „Nice-to-have", sondern eine rechtliche Pflicht -- und eine strategische Notwendigkeit.

Unternehmen, die Datenschutz von der ersten Projektidee an mitdenken, sparen langfristig Kosten, vermeiden aufwändige Nachbesserungen und schaffen Vertrauen bei Kunden, Beschäftigten und Aufsichtsbehörden. Dieser Leitfaden gibt Ihnen das Werkzeug an die Hand, um Privacy by Design bei KI-Projekten systematisch umzusetzen.

Was ist Privacy by Design?

Der rechtliche Rahmen: Art. 25 DSGVO

Art. 25 Abs. 1 DSGVO (Datenschutz durch Technikgestaltung) verpflichtet den Verantwortlichen, sowohl zum Zeitpunkt der Festlegung der Verarbeitungsmittel als auch zum Zeitpunkt der Verarbeitung selbst geeignete technische und organisatorische Maßnahmen zu treffen. Diese Maßnahmen müssen darauf ausgelegt sein, die Datenschutzgrundsätze (Art. 5 DSGVO) wirksam umzusetzen und die notwendigen Garantien in die Verarbeitung aufzunehmen.

Dabei berücksichtigt das Gesetz ausdrücklich den Stand der Technik, die Implementierungskosten, die Art, den Umfang, die Umstände und die Zwecke der Verarbeitung sowie die unterschiedlichen Eintrittswahrscheinlichkeiten und Schwere der Risiken für die Rechte und Freiheiten natürlicher Personen.

Art. 25 Abs. 2 DSGVO (Datenschutz durch datenschutzfreundliche Voreinstellungen) ergänzt: Der Verantwortliche muss sicherstellen, dass durch Voreinstellungen nur solche personenbezogenen Daten verarbeitet werden, die für den jeweiligen Verarbeitungszweck erforderlich sind. Das gilt für die Menge der erhobenen Daten, den Umfang ihrer Verarbeitung, ihre Speicherfrist und ihre Zugänglichkeit.

Für KI-Systeme bedeutet das konkret: Die datenschutzfreundlichste Konfiguration muss die Standardeinstellung sein -- nicht die datenintensivste.

Abgrenzung zu verwandten Pflichten

Privacy by Design steht nicht allein. Es ergänzt insbesondere:

  • Art. 32 DSGVO (Sicherheit der Verarbeitung): Technische und organisatorische Maßnahmen (TOM) zum Schutz personenbezogener Daten
  • Art. 35 DSGVO (Datenschutz-Folgenabschätzung): Die DSFA identifiziert Risiken, Privacy by Design adressiert sie konstruktiv
  • Art. 5 Abs. 1 lit. c DSGVO (Datenminimierung): Der zentrale Grundsatz, den Privacy by Design technisch umsetzt

Während Art. 32 sich auf die Absicherung bestehender Verarbeitungen konzentriert, greift Art. 25 früher: Er verlangt, dass Datenschutz bereits in der Konzeptionsphase berücksichtigt wird.

Die 7 Grundprinzipien nach Cavoukian -- angewandt auf KI

Die kanadische Datenschutzbeauftragte Ann Cavoukian formulierte 2009 sieben Grundprinzipien für Privacy by Design, die heute als internationaler Standard gelten. Für KI-Systeme lassen sie sich wie folgt übersetzen:

1. Proaktiv statt reaktiv -- vorbeugend statt abhelfend

Datenschutzrisiken werden bereits in der Planungsphase eines KI-Projekts identifiziert und adressiert -- nicht erst nach einem Vorfall. Bevor das erste Trainingsdatum geladen wird, muss eine Risikoanalyse stattfinden.

KI-Bezug: Führen Sie vor dem Training eine Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO durch. Definieren Sie bereits im Projektantrag, welche Daten benötigt werden und welche Alternativen (synthetische Daten, anonymisierte Datensätze) in Frage kommen.

2. Datenschutz als Standardeinstellung

Die datenschutzfreundlichste Option ist immer die Voreinstellung. Nutzer müssen aktiv mehr Datenverarbeitung einschalten -- nicht umgekehrt.

KI-Bezug: Ein KI-gestützter Chatbot sollte standardmäßig keine Gesprächsverläufe speichern. Ein Empfehlungssystem sollte zunächst nur mit aggregierten, nicht mit individuellen Nutzerprofilen arbeiten.

3. Datenschutz eingebettet in das Design

Datenschutz ist kein nachträgliches Add-on, sondern integraler Bestandteil der Systemarchitektur.

KI-Bezug: Datenschutzmaßnahmen wie Differential Privacy oder Federated Learning werden als Architekturentscheidung in die ML-Pipeline integriert -- nicht als Filter nachgeschaltet.

4. Volle Funktionalität -- Positivsumme statt Nullsumme

Privacy by Design bedeutet nicht, dass Funktionalität geopfert werden muss. Das Ziel ist eine Win-Win-Lösung.

KI-Bezug: Durch Techniken wie Differential Privacy lassen sich Modelle trainieren, die sowohl leistungsfähig als auch datenschutzkonform sind. Datenminimierung kann sogar die Modellqualität verbessern, indem irrelevante Features entfernt werden und Overfitting reduziert wird.

5. Durchgängige Sicherheit -- Schutz über den gesamten Lebenszyklus

Personenbezogene Daten werden von der Erhebung bis zur Löschung geschützt -- das umfasst bei KI den gesamten ML-Lebenszyklus.

KI-Bezug: Der Schutz erstreckt sich auf Rohdaten, Trainingsdaten, Validierungsdaten, das trainierte Modell selbst, Inferenz-Logs und Modell-Artefakte. Löschkonzepte müssen auch die Frage adressieren, ob und wie trainierte Modelle „verlernen" können (Machine Unlearning).

6. Sichtbarkeit und Transparenz

Alle Beteiligten können nachvollziehen, welche Daten wie verarbeitet werden. Die Verarbeitung ist überprüfbar.

KI-Bezug: Dokumentieren Sie die Datenherkunft (Data Lineage), die Feature-Auswahl, die Trainingsparameter und die Modellversionen. Art. 13, 14 DSGVO verlangen zudem Informationen über das Bestehen einer automatisierten Entscheidungsfindung einschließlich aussagekräftiger Informationen über die involvierte Logik.

7. Respekt vor der Privatsphäre der Nutzer

Die Interessen der betroffenen Personen stehen im Mittelpunkt. Betroffenenrechte (Art. 15--22 DSGVO) müssen technisch umsetzbar sein.

KI-Bezug: Betroffene müssen ihr Auskunftsrecht (Art. 15 DSGVO) auch gegenüber KI-Systemen ausüben können. Das Recht auf Löschung (Art. 17 DSGVO) erstreckt sich grundsätzlich auch auf Trainingsdaten -- eine technisch anspruchsvolle Aufgabe.

KI-spezifische Herausforderungen für Privacy by Design

KI-Systeme bringen Herausforderungen mit sich, die bei klassischer Software nicht existieren. Drei Bereiche verdienen besondere Aufmerksamkeit:

Trainingsdaten

Maschinelles Lernen benötigt große Datenmengen. Häufig enthalten diese Datensätze personenbezogene Informationen -- sei es in Textkorpora (Namen, Adressen, Gesundheitsdaten), Bilddaten (Gesichter, Kennzeichen) oder strukturierten Datensätzen (Kundendaten, Beschäftigtendaten).

Herausforderungen:

  • Datenminimierung (Art. 5 Abs. 1 lit. c DSGVO) steht im Spannungsfeld mit dem Bedarf an großen Datensätzen
  • Die Zweckbindung (Art. 5 Abs. 1 lit. b DSGVO) wird problematisch, wenn Datensätze für andere Zwecke erhoben wurden
  • Löschpflichten nach Art. 17 DSGVO lassen sich bei bereits trainierten Modellen nur schwer umsetzen

Lösungsansätze: Anonymisierung und Pseudonymisierung vor dem Training, Nutzung synthetischer Daten, klare Rechtsgrundlagen für die Zweitverwendung (Art. 6 Abs. 4 DSGVO).

Modell-Memorisierung

Neuronale Netze können Trainingsdaten „auswendig lernen" (Memorisierung). Unter bestimmten Umständen lassen sich durch gezielte Abfragen (Membership Inference Attacks, Model Inversion Attacks) personenbezogene Daten aus dem trainierten Modell extrahieren.

Herausforderungen:

  • Das Modell selbst kann als personenbezogenes Datum gelten, wenn sich Trainingsdaten rekonstruieren lassen
  • Traditionelle Löschung greift nicht, wenn Daten im Modellgewicht kodiert sind
  • Die Grenze zwischen „gelerntem Muster" und „gespeichertem Datum" ist fließend

Lösungsansätze: Differential Privacy beim Training (DP-SGD), Regularisierungstechniken gegen Overfitting, regelmäßige Tests auf Memorisierung, Machine Unlearning bei Löschanfragen.

Feature Engineering und Inferenz

Selbst wenn keine direkt personenbezogenen Daten verwendet werden, können abgeleitete Features (z. B. Nutzungszeiten, Klickmuster, Standortdaten) Rückschlüsse auf Einzelpersonen ermöglichen. Zudem können KI-Systeme aus scheinbar harmlosen Daten sensible Informationen ableiten -- etwa den Gesundheitszustand aus dem Einkaufsverhalten.

Herausforderungen:

  • Indirekte Identifizierbarkeit durch Feature-Kombination
  • Ableitung besonderer Kategorien personenbezogener Daten (Art. 9 DSGVO) aus nicht-sensiblen Eingabedaten
  • Proxy-Diskriminierung durch scheinbar neutrale Features

Lösungsansätze: Privacy-Impact-Analyse für jedes Feature, Entfernung hochkorrelierter Proxy-Variablen, regelmäßige Fairness-Audits, Begrenzung der Feature-Granularität.

Maßnahmen-Tabelle: Cavoukian-Prinzipien auf KI angewandt

PrinzipKI-MaßnahmeBeispiel
1. ProaktivDSFA vor Projektstart; Risiko-Assessment der TrainingsdatenVor dem Training eines Scoring-Modells werden alle Datenquellen auf personenbezogene Inhalte geprüft
2. StandardeinstellungMinimale Datenerhebung als Default; Opt-in für erweiterte PersonalisierungKI-Chatbot speichert standardmäßig keine Konversationen; Nutzer können Verlauf optional aktivieren
3. Eingebettet ins DesignDifferential Privacy in der Trainings-Pipeline; Federated Learning als ArchitekturentscheidungDP-SGD wird als fester Bestandteil der ML-Pipeline implementiert, nicht als optionaler Schritt
4. PositivsummeFeature Selection zur gleichzeitigen Verbesserung von Datenschutz und ModellqualitätEntfernung redundanter personenbezogener Features reduziert Overfitting und verbessert Generalisierung
5. Lebenszyklus-SchutzVerschlüsselung der Trainingsdaten, Zugriffskontrollen auf Modelle, Löschkonzept inkl. Machine UnlearningTrainingsdaten werden nach Abschluss des Trainings gelöscht; Modell-Artefakte sind verschlüsselt gespeichert
6. TransparenzModel Cards, Data Sheets, Audit-Trails für TrainingsläufeFür jedes produktive Modell existiert eine Model Card mit Angaben zu Trainingsdaten, Metriken und bekannten Einschränkungen
7. NutzerzentrierungTechnische Umsetzung der Betroffenenrechte; verständliche Erklärung der KI-LogikDashboard, über das Betroffene ihre Daten einsehen, exportieren und löschen können -- inkl. Antrag auf Machine Unlearning

Zusammenspiel mit dem AI Act (Art. 10 VO (EU) 2024/1689)

Der AI Act (VO (EU) 2024/1689) ergänzt die DSGVO um KI-spezifische Anforderungen. Besonders relevant für Privacy by Design ist Art. 10, der Anforderungen an die Daten- und Daten-Governance für Hochrisiko-KI-Systeme formuliert.

Art. 10 im Überblick

Art. 10 Abs. 2 verlangt, dass Trainings-, Validierungs- und Testdatensätze einer Reihe von Qualitätskriterien genügen. Die Datensätze müssen relevant, hinreichend repräsentativ, möglichst fehlerfrei und vollständig sein. Sie müssen die statistischen Eigenschaften aufweisen, die dem Kontext entsprechen, in dem das KI-System eingesetzt werden soll.

Art. 10 Abs. 5 gestattet unter strengen Voraussetzungen die Verarbeitung besonderer Kategorien personenbezogener Daten (Art. 9 DSGVO) für die Erkennung und Korrektur von Bias -- allerdings nur unter geeigneten Schutzmaßnahmen, einschließlich Pseudonymisierung und Verschlüsselung.

Synergien zwischen DSGVO und AI Act

DSGVO-PflichtAI-Act-PflichtSynergie
Datenminimierung (Art. 5 Abs. 1 lit. c)Datenqualität (Art. 10 Abs. 2)Weniger, aber qualitativ hochwertige Daten erfüllen beide Anforderungen
Privacy by Design (Art. 25)Risikomanagement (Art. 9)Datenschutzmaßnahmen fließen in das KI-Risikomanagement ein
DSFA (Art. 35)Konformitätsbewertung (Art. 43)Die DSFA kann als Baustein der Konformitätsbewertung dienen
TOM (Art. 32)Cybersecurity (Art. 15)Sicherheitsmaßnahmen schützen gleichzeitig Daten und KI-System

Praxistipp: Unternehmen, die Privacy by Design konsequent umsetzen, erfüllen gleichzeitig wesentliche Anforderungen des AI Act. Die Dokumentation der Daten-Governance nach Art. 10 AI Act und die Dokumentation der TOM nach Art. 25 / Art. 32 DSGVO können in einem integrierten Dokumentationssystem zusammengeführt werden.

Privacy by Design bei KI-Projekten implementieren: 5 Schritte

Schritt 1: Datenschutz-Anforderungsanalyse

Bevor das erste Modell entworfen wird, klären Sie die datenschutzrechtlichen Rahmenbedingungen:

  • Rechtsgrundlage bestimmen: Auf welcher Grundlage (Art. 6 DSGVO) werden personenbezogene Daten verarbeitet? Ist eine Einwilligung erforderlich oder greift ein berechtigtes Interesse?
  • Datenkategorien identifizieren: Welche Kategorien personenbezogener Daten sind betroffen? Sind besondere Kategorien (Art. 9 DSGVO) involviert?
  • DSFA-Pflicht prüfen: Ist eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO erforderlich? Bei KI-Systemen mit Profiling oder automatisierter Entscheidungsfindung ist dies regelmäßig der Fall.
  • AI-Act-Risikoklasse bestimmen: Handelt es sich um ein Hochrisiko-KI-System nach Anhang III VO (EU) 2024/1689?

Ergebnis: Ein Datenschutz-Anforderungsdokument, das als verbindliche Vorgabe für alle weiteren Projektphasen dient.

Schritt 2: Daten-Pipeline datenschutzkonform gestalten

Die Daten-Pipeline ist das Herzstück jedes KI-Systems. Hier werden die wichtigsten Privacy-by-Design-Entscheidungen getroffen:

  • Datenerhebung: Nur die für den definierten Zweck erforderlichen Daten erheben (Datenminimierung, Art. 5 Abs. 1 lit. c DSGVO)
  • Anonymisierung/Pseudonymisierung: Personenbezogene Daten so früh wie möglich in der Pipeline anonymisieren oder pseudonymisieren
  • Synthetische Daten: Prüfen, ob synthetische Daten das Training ergänzen oder ersetzen können
  • Zugriffskontrollen: Rollenbasierter Zugriff auf Trainingsdaten nach dem Need-to-know-Prinzip
  • Datenqualität: Dokumentation der Datenherkunft und -qualität gemäß Art. 10 VO (EU) 2024/1689

Schritt 3: Modellarchitektur und Training absichern

In der Trainingsphase werden die technischen Datenschutzmaßnahmen implementiert:

  • Differential Privacy (DP-SGD): Rauschen wird den Gradienten während des Trainings hinzugefügt, um die Memorisierung einzelner Datenpunkte zu verhindern
  • Federated Learning: Das Modell wird dezentral trainiert; die Rohdaten verlassen die lokale Umgebung nicht
  • Regularisierung: Techniken wie Dropout und L2-Regularisierung reduzieren Overfitting und damit das Memorisierungsrisiko
  • Modell-Audits: Regelmäßige Tests auf Membership Inference und Model Inversion
  • Versionierung: Alle Trainingsläufe, Hyperparameter und Datensatzversionen werden dokumentiert

Schritt 4: Deployment mit datenschutzfreundlichen Voreinstellungen

Beim Deployment wird Art. 25 Abs. 2 DSGVO (Privacy by Default) besonders relevant:

  • Minimale Voreinstellungen: Das System verarbeitet im Standardmodus nur die unbedingt erforderlichen Daten
  • Opt-in statt Opt-out: Erweiterte Datenverarbeitungen (z. B. Personalisierung, Speicherung von Verläufen) werden nur nach aktiver Zustimmung aktiviert
  • Transparenz: Nutzer werden klar und verständlich über die KI-gestützte Verarbeitung informiert
  • Betroffenenrechte: Technische Schnittstellen für Auskunft, Berichtigung, Löschung und Widerspruch sind implementiert
  • Logging: Inference-Anfragen werden nur im erforderlichen Umfang protokolliert; Logs unterliegen einem Löschkonzept

Schritt 5: Kontinuierliche Überwachung und Verbesserung

Privacy by Design endet nicht mit dem Go-Live. Art. 25 Abs. 1 DSGVO verlangt Maßnahmen auch „zum Zeitpunkt der Verarbeitung selbst":

  • Monitoring: Laufende Überwachung auf Data Drift, Modell-Degradation und neue Datenschutzrisiken
  • Regelmäßige Audits: Mindestens jährliche Überprüfung der Datenschutzmaßnahmen
  • DSFA-Aktualisierung: Bei wesentlichen Änderungen am System oder den Verarbeitungsbedingungen ist die DSFA zu aktualisieren (Art. 35 Abs. 11 DSGVO)
  • Incident Response: Prozess für Datenschutzverletzungen im KI-Kontext (Art. 33, 34 DSGVO)
  • Löschung und Unlearning: Regelmäßige Prüfung, ob Trainingsdaten gelöscht werden können, und Verfahren für Machine Unlearning bei berechtigten Löschanfragen

Häufige Fragen (FAQ)

Ist Privacy by Design bei jedem KI-Projekt Pflicht?

Ja. Art. 25 DSGVO gilt für jede Verarbeitung personenbezogener Daten -- unabhängig von der Risikoklasse des KI-Systems. Sobald Ihr KI-System personenbezogene Daten verarbeitet (auch indirekt, z. B. über Trainingsdaten), müssen Sie Datenschutz durch Technikgestaltung und datenschutzfreundliche Voreinstellungen gewährleisten. Die Intensität der Maßnahmen richtet sich nach dem konkreten Risiko, aber die Pflicht als solche besteht immer.

Wie verhält sich Privacy by Design zum AI Act?

Der AI Act (VO (EU) 2024/1689) und die DSGVO sind komplementär. Der AI Act regelt in Art. 10 die Daten-Governance für Hochrisiko-KI-Systeme und stellt Anforderungen an Datenqualität und Bias-Erkennung. Privacy by Design nach Art. 25 DSGVO adressiert den Schutz personenbezogener Daten. In der Praxis überschneiden sich die Anforderungen erheblich: Wer Privacy by Design konsequent umsetzt, erfüllt viele Anforderungen des Art. 10 AI Act automatisch mit.

Kann Differential Privacy die Modellqualität beeinträchtigen?

Differential Privacy fügt dem Trainingsprozess kontrolliertes Rauschen hinzu, was zu einem gewissen Verlust an Modellgenauigkeit führen kann (Privacy-Utility-Tradeoff). In der Praxis ist dieser Verlust bei moderaten Privacy-Budgets (Epsilon-Werten) jedoch oft gering. Zudem zeigt die Forschung, dass DP-trainierte Modelle häufig besser generalisieren, weil Overfitting reduziert wird. Die Wahl des geeigneten Epsilon-Werts sollte dokumentiert und begründet werden.

Wie setze ich das Recht auf Löschung bei KI-Modellen um?

Das Recht auf Löschung nach Art. 17 DSGVO erstreckt sich grundsätzlich auch auf Trainingsdaten. Die Umsetzung ist bei bereits trainierten Modellen technisch anspruchsvoll. Drei Ansätze sind etabliert: (1) Neutraining des Modells ohne die betroffenen Daten, (2) Machine Unlearning -- spezialisierte Verfahren, die den Einfluss bestimmter Datenpunkte aus dem Modell entfernen, (3) SISA Training (Sharded, Isolated, Sliced, and Aggregated), das Modelle so trainiert, dass einzelne Daten-Shards entfernt und nur Teilmodelle neu trainiert werden müssen. Die gewählte Strategie sollte bereits bei der Systemgestaltung festgelegt werden -- ein Kernaspekt von Privacy by Design.

Welche Dokumentation verlangt Art. 25 DSGVO?

Art. 25 DSGVO selbst enthält keine explizite Dokumentationspflicht. Allerdings ergibt sich aus der Rechenschaftspflicht (Art. 5 Abs. 2 DSGVO), dass Sie die Einhaltung nachweisen können müssen. Dokumentieren Sie daher: die durchgeführte Risikoanalyse, die getroffenen technischen und organisatorischen Maßnahmen, die Begründung für die Auswahl der Maßnahmen (insbesondere unter Berücksichtigung des Stands der Technik und der Implementierungskosten), die datenschutzfreundlichen Voreinstellungen und die regelmäßigen Überprüfungen. Bei Hochrisiko-KI-Systemen nach dem AI Act ergänzt die technische Dokumentation nach Art. 11 VO (EU) 2024/1689 diese Nachweise.

Fazit: Datenschutz als Designprinzip -- nicht als Hindernis

Privacy by Design bei KI-Systemen ist mehr als eine regulatorische Pflicht. Es ist ein Qualitätsmerkmal, das Vertrauen schafft und langfristig Kosten spart. Unternehmen, die Datenschutz von Anfang an in ihre KI-Projekte einbauen, vermeiden teure Nachbesserungen, reduzieren regulatorische Risiken und positionieren sich als verantwortungsvolle Innovatoren.

Die Verbindung von DSGVO (Art. 25) und AI Act (Art. 10) zeigt: Der europäische Gesetzgeber erwartet, dass Datenschutz und KI-Sicherheit zusammen gedacht werden. Wer ein integriertes Konzept verfolgt, erfüllt beide Regelwerke effizienter als Unternehmen, die DSGVO und AI Act isoliert betrachten.

Der Schlüssel liegt in der frühzeitigen Integration: Privacy by Design funktioniert am besten, wenn es von Tag eins an Teil der KI-Strategie ist. Die fünf Schritte in diesem Leitfaden geben Ihnen eine erprobte Struktur, um genau das umzusetzen.


Sie möchten Privacy by Design in Ihren KI-Projekten systematisch umsetzen? KI Comply unterstützt Ihr Team mit praxisnahen Schulungen zu Datenschutz, AI Act und KI-Governance -- damit Ihre Mitarbeiter die Anforderungen verstehen und im Projektalltag anwenden können. Jetzt Schulung anfragen

Rechtsquellen

  • Privacy by DesignArt. 25 VO (EU) 2016/679 (Quelle)
  • DatenminimierungArt. 5 Abs. 1 lit. c DSGVO
  • KI-DatenqualitätArt. 10 VO (EU) 2024/1689
  • TOMArt. 32 DSGVO

Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.

Artikel teilen:

Machen Sie Ihr Team KI-fit

Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.

Preise ansehen