Microsoft Copilot & Datenschutz: DSGVO-Check
Microsoft Copilot gibt es in vielen Varianten -- von M365 ueber Windows bis Azure. Was beim Datenschutz, der DSGVO-Konformitaet und dem Microsoft DPA nach Art. 28 DSGVO zu beachten ist.

Microsoft Copilot & Datenschutz: DSGVO-Check
Das Wichtigste in Kuerze: Microsoft Copilot ist nicht ein einzelnes Produkt, sondern eine ganze Familie von KI-Assistenten -- von Copilot in Microsoft 365 ueber Windows Copilot bis hin zu Copilot in Bing und Azure OpenAI Service. Fuer Unternehmen in der EU ergeben sich daraus erhebliche Datenschutzfragen, denn jede Variante hat eigene Datenverarbeitungsregeln. Ein Auftragsverarbeitungsvertrag (AVV) nach Art. 28 DSGVO muss ueber das Microsoft Data Protection Addendum (DPA) sichergestellt werden, die EU Data Boundary ist zu pruefen, eine Datenschutz-Folgenabschaetzung (DSFA) ist bei systematischem Einsatz regelmaessig erforderlich und die KI-Kompetenzpflicht nach Art. 4 VO (EU) 2024/1689 muss erfuellt werden. Dieser DSGVO-Check erklaert alle relevanten Anforderungen und gibt eine praxisnahe Compliance-Checkliste fuer alle Copilot-Varianten.
Microsoft hat mit Copilot seine KI-Strategie in nahezu jedes Produkt getragen. Ob Word, Excel, Teams, Outlook, Windows oder die Bing-Suche -- ueberall taucht der KI-Assistent auf. Fuer Unternehmen, die Microsoft 365 nutzen, ist das auf den ersten Blick komfortabel: Die KI ist direkt in der gewohnten Arbeitsumgebung verfuegbar. Doch genau hier liegt die Herausforderung: Nicht jede Copilot-Variante bietet die gleichen Datenschutzgarantien, und die Grenzen zwischen Consumer- und Business-Versionen sind fliessend.
Die zentrale Frage lautet: Welche Copilot-Varianten duerfen Unternehmen DSGVO-konform einsetzen -- und unter welchen Voraussetzungen?
Inhaltsverzeichnis
- Copilot-Varianten im Ueberblick: Welche gibt es?
- Datenverarbeitung bei Microsoft Copilot: Was passiert mit Ihren Daten?
- Das Microsoft Data Protection Addendum (DPA)
- Tenant-Isolation und EU Data Boundary
- Drittlandtransfer: Verbleiben die Daten in der EU?
- DSGVO-Compliance: Rechtliche Anforderungen im Detail
- Vergleich: Copilot vs. ChatGPT vs. Gemini im Datenschutz
- Praktische Compliance-Checkliste
- Haeufig gestellte Fragen (FAQ)
- Fazit
1. Copilot-Varianten im Ueberblick: Welche gibt es?
Microsoft vermarktet Copilot in zahlreichen Varianten, die sich in Funktionsumfang, Datenverarbeitung und Datenschutz-Relevanz grundlegend unterscheiden. Die haeufigste Fehlerquelle in der Praxis: Unternehmen behandeln „Copilot" als ein einziges Produkt, obwohl es sich um eine ganze Produktfamilie handelt.
Copilot in Microsoft 365 (ehemals Microsoft 365 Copilot)
Copilot in Microsoft 365 ist die fuer Unternehmen wichtigste Variante. Der KI-Assistent ist direkt in Word, Excel, PowerPoint, Outlook, Teams und OneNote integriert und greift dabei auf die Daten im Microsoft-365-Tenant des Unternehmens zu.
Wichtige Merkmale:
- Tenant-gebundene Verarbeitung: Copilot arbeitet ausschliesslich mit Daten, auf die der jeweilige Nutzer im Tenant Zugriff hat. Es werden keine Daten anderer Tenants oder externe Quellen herangezogen.
- Kein Training mit Kundendaten: Microsoft hat vertraglich zugesichert, dass Kundendaten aus M365 nicht zum Training der zugrundeliegenden Foundation Models verwendet werden.
- DPA verfuegbar: Das Microsoft Products and Services Data Protection Addendum gilt als AVV nach Art. 28 DSGVO.
- Admin-Kontrollen: IT-Administratoren koennen Copilot pro Nutzer, Gruppe oder Lizenzplan aktivieren oder deaktivieren.
Voraussetzung: Microsoft 365 E3/E5, Business Standard/Premium mit Copilot-Add-on-Lizenz.
Copilot in Windows (ehemals Windows Copilot)
Copilot in Windows ist ein in das Betriebssystem integrierter KI-Assistent, der ueber die Taskleiste erreichbar ist. Er kann Windows-Einstellungen aendern, Fragen beantworten und Texte verarbeiten.
- Consumer-orientiert: In der Standardkonfiguration nutzt Windows Copilot die Bing-Infrastruktur und unterliegt den Microsoft Consumer-Nutzungsbedingungen.
- Kein AVV im Standardmodus: Ohne Anbindung an einen M365-Business-Tenant gibt es keinen Auftragsverarbeitungsvertrag.
- Unternehmenssteuerung: Ueber Gruppenrichtlinien (GPO) oder Intune kann Windows Copilot deaktiviert oder auf den M365-Business-Modus umgeschaltet werden.
Klare Empfehlung: Windows Copilot im Consumer-Modus ist fuer den Einsatz mit Unternehmens- oder personenbezogenen Daten nicht geeignet. Unternehmen sollten den Consumer-Modus per Richtlinie deaktivieren.
Copilot (kostenlos, ehemals Bing Chat)
Die kostenlose Copilot-Version ist ueber copilot.microsoft.com oder die Bing-Suche erreichbar. Sie basiert auf OpenAI-Modellen und ist als Consumer-Produkt konzipiert.
- Training mit Nutzerdaten moeglich: Microsoft behaelt sich vor, Prompts zur Produktverbesserung zu verwenden.
- Kein AVV: Es gibt keinen Auftragsverarbeitungsvertrag. Microsoft agiert als eigenstaendiger Verantwortlicher.
- Keine Tenant-Isolation: Eingaben werden nicht innerhalb eines geschuetzten Unternehmens-Tenants verarbeitet.
Klare Empfehlung: Die kostenlose Copilot-Version ist fuer den geschaeftlichen Einsatz mit personenbezogenen oder vertraulichen Daten nicht geeignet.
Copilot mit kommerziellem Datenschutz (Copilot for Business)
Microsoft bietet eine Zwischenstufe: Copilot mit sogenanntem kommerziellem Datenschutz (Commercial Data Protection). Diese Variante ist fuer Nutzer mit bestimmten M365-Business-Lizenzen automatisch aktiv, wenn sie sich mit ihrem Geschaeftskonto anmelden.
- Kein Training mit Prompts: Microsoft hat zugesichert, dass Prompts und Antworten nicht zum Modelltraining verwendet werden.
- Keine menschliche Ueberpruefung: Eingaben werden nicht von Microsoft-Mitarbeitern eingesehen.
- Eingeschraenkte Tenant-Anbindung: Im Gegensatz zu Copilot in M365 greift diese Variante nicht auf die Unternehmensdaten im Tenant zu. Sie ist eher ein „sicherer Chatbot" als ein integrierter Assistent.
Azure OpenAI Service / Copilot Studio
Fuer Entwickler und Unternehmen, die eigene KI-Anwendungen bauen, bietet Microsoft den Azure OpenAI Service und Copilot Studio an.
- Volle Kontrolle: Unternehmen bestimmen exakt, welche Daten verarbeitet werden.
- Kein Training mit Kundendaten: Microsoft trainiert die Foundation Models nicht mit Daten aus dem Azure OpenAI Service.
- Regionsauswahl: Die Azure-Region (z. B. West Europe, Sweden Central) kann bei der Ressourcenerstellung gewaehlt werden.
- Eigenes DPA: Das Microsoft DPA deckt Azure-Dienste vollstaendig ab.
2. Datenverarbeitung bei Microsoft Copilot: Was passiert mit Ihren Daten?
Datenfluss bei Copilot in Microsoft 365
Wenn ein Mitarbeiter Copilot in Word nutzt, um beispielsweise ein Dokument zusammenzufassen, durchlaeuft die Anfrage folgenden Prozess:
- Prompt-Erstellung: Der Nutzer gibt eine Anweisung ein (z. B. „Fasse dieses Dokument zusammen").
- Grounding mit Microsoft Graph: Copilot nutzt den Microsoft Graph, um relevante Daten aus dem Tenant abzurufen -- Dokumente, E-Mails, Kalendereintraege, Teams-Chats -- auf die der Nutzer bereits Zugriff hat.
- Berechtigungspruefung: Es werden nur Daten herangezogen, fuer die der Nutzer die entsprechenden SharePoint-, OneDrive- oder Exchange-Berechtigungen besitzt. Copilot umgeht keine Zugriffskontrollen.
- API-Aufruf: Der angereicherte Prompt wird an die Azure-OpenAI-Infrastruktur gesendet.
- Modell-Inferenz: Das LLM (aktuell GPT-4-basiert) generiert eine Antwort.
- Rueckgabe: Die Antwort wird im M365-Interface angezeigt.
Entscheidend fuer den Datenschutz: Die gesamte Verarbeitung findet innerhalb der Microsoft-Cloud-Infrastruktur statt. Die Daten verlassen nicht den Verarbeitungsbereich, der durch das Microsoft DPA abgedeckt ist. Microsoft hat zudem folgende Garantien gegeben:
- Kein Modelltraining mit Kundendaten aus M365 Copilot.
- Keine Weitergabe von Kundendaten an OpenAI. Microsoft betreibt eigene Instanzen der OpenAI-Modelle in Azure.
- Prompt-Daten werden nicht persistiert ueber die Session hinaus (ausser in den normalen M365-Audit-Logs).
Das Berechtigungsproblem: Oversharing
Ein oft unterschaetztes Risiko bei Copilot in M365 ist das sogenannte Oversharing-Problem. Copilot respektiert die bestehenden Berechtigungen im Tenant. Das bedeutet: Wenn ein Mitarbeiter Zugriff auf Dokumente hat, die er eigentlich nicht sehen sollte (weil die Berechtigungen zu grosszuegig konfiguriert sind), kann Copilot diese Dokumente in Antworten einbeziehen.
Das ist kein Datenschutzproblem von Copilot selbst, sondern ein bestehendes Governance-Problem, das durch Copilot sichtbar wird. Vor der Copilot-Einfuehrung muessen Unternehmen daher:
- SharePoint-Berechtigungen auditieren und nach dem Least-Privilege-Prinzip konfigurieren.
- Sensitivity Labels fuer vertrauliche Dokumente einsetzen.
- Uebermaessig geteilte Sites und OneDrive-Ordner identifizieren und bereinigen.
Praxis-Tipp: Microsoft bietet mit dem SharePoint Advanced Management-Tool und Microsoft Purview Werkzeuge, um Oversharing vor dem Copilot-Rollout zu identifizieren und zu beheben.
Was Microsoft mit Ihren Daten nicht tut (bei Business-Produkten)
Microsoft hat fuer seine Business-Produkte (M365, Azure) folgende verbindliche Zusicherungen im DPA verankert:
- Kein Training von Foundation Models mit Kundendaten.
- Keine Weitergabe an Dritte zu Werbezwecken.
- Keine Vermischung mit Daten anderer Tenants.
- Loeschung nach Vertragsende gemaess den DPA-Bestimmungen.
- Keine Weitergabe an OpenAI: Die in Azure betriebenen OpenAI-Modelle sind von der OpenAI-Infrastruktur getrennt. Kundendaten fliessen nicht an OpenAI Inc.
Rechtsgrundlage: Gemaess Art. 28 Abs. 3 lit. a DSGVO darf der Auftragsverarbeiter personenbezogene Daten nur auf dokumentierte Weisung des Verantwortlichen verarbeiten. Microsoft ist im Rahmen des DPA an diese Weisungsbindung gebunden.
3. Das Microsoft Data Protection Addendum (DPA)
Aufbau und Geltungsbereich
Das Microsoft Products and Services Data Protection Addendum (DPA) ist der zentrale Auftragsverarbeitungsvertrag fuer alle Microsoft-Business-Dienste. Es gilt automatisch fuer Unternehmen, die Microsoft-Volumenlizenzvertraege, Microsoft Customer Agreements oder Enterprise Agreements abgeschlossen haben. Ein separater AVV speziell fuer Copilot ist nicht erforderlich -- das DPA deckt Copilot als Bestandteil von M365 bzw. Azure ab.
| Anforderung Art. 28 DSGVO | Umsetzung im Microsoft DPA |
|---|---|
| Weisungsgebundenheit (Abs. 3 lit. a) | Microsoft verarbeitet Daten nur gemaess dokumentierter Weisung des Kunden |
| Vertraulichkeit (Abs. 3 lit. b) | Alle Mitarbeiter mit Datenzugang sind zur Vertraulichkeit verpflichtet |
| TOM (Abs. 3 lit. c) | Detaillierter Sicherheitsanhang mit technischen und organisatorischen Massnahmen |
| Unterauftragsverarbeiter (Abs. 3 lit. d) | Oeffentliche Sub-Processor-Liste; Benachrichtigung bei Aenderungen |
| Unterstuetzung Betroffenenrechte (Abs. 3 lit. e) | Microsoft stellt Funktionen und Dokumentation zur Erfuellung bereit |
| Loeschung/Rueckgabe (Abs. 3 lit. g) | Loeschung oder Export der Daten nach Vertragsende |
| Audits (Abs. 3 lit. h) | SOC 1/2-Berichte, ISO 27001/27018-Zertifizierungen, C5-Testat als Audit-Nachweis |
Besonderheiten des Microsoft DPA fuer KI-Dienste
Microsoft hat das DPA 2024 um spezifische KI-Regelungen ergaenzt:
- AI Services Addendum: Klarstellung, dass Kundendaten aus KI-Diensten nicht zum Modelltraining verwendet werden.
- Abuse Monitoring: Microsoft behaelt sich vor, Prompts zur Erkennung von Missbrauch (z. B. Generierung schaedlicher Inhalte) zu analysieren. Bei Enterprise-Kunden kann dieses Monitoring auf Antrag deaktiviert werden.
- Logging-Optionen: Unternehmen koennen ueber Microsoft Purview kontrollieren, ob und wie lange Copilot-Interaktionen protokolliert werden.
Pruefpflichten fuer Unternehmen
Auch beim Microsoft DPA gilt: Akzeptieren allein reicht nicht. Art. 28 DSGVO verlangt, dass der Verantwortliche die hinreichenden Garantien des Auftragsverarbeiters aktiv prueft. Konkret sollten Sie:
- DPA-Version pruefen: Stellen Sie sicher, dass die aktuelle DPA-Version in Ihrem Lizenzvertrag referenziert wird. Microsoft aktualisiert das DPA regelmaessig.
- Sub-Processor-Liste pruefen: Microsofts Liste der Unterauftragsverarbeiter regelmaessig auf Aenderungen ueberpruefen (verfuegbar unter microsoft.com/trust-center).
- TOM bewerten: Die im Sicherheitsanhang beschriebenen Massnahmen auf Angemessenheit pruefen.
- Audit-Berichte anfordern: SOC-2-Berichte, ISO-Zertifizierungen und das C5-Testat des BSI ueber das Service Trust Portal einsehen.
- Datenfluss dokumentieren: Im Verzeichnis der Verarbeitungstaetigkeiten festhalten, welche Daten an Copilot uebermittelt werden.
Art. 28 Abs. 1 DSGVO: „Erfolgt eine Verarbeitung im Auftrag eines Verantwortlichen, so arbeitet dieser nur mit Auftragsverarbeitern, die hinreichend Garantien dafuer bieten, dass geeignete technische und organisatorische Massnahmen so durchgefuehrt werden, dass die Verarbeitung im Einklang mit den Anforderungen dieser Verordnung erfolgt und den Schutz der Rechte der betroffenen Person gewaehrleistet."
4. Tenant-Isolation und EU Data Boundary
Das Prinzip der Tenant-Isolation
Ein wesentlicher Datenschutzvorteil von Copilot in M365 gegenueber anderen KI-Loesungen ist die strikte Tenant-Isolation. Das bedeutet:
- Copilot verarbeitet ausschliesslich Daten innerhalb des jeweiligen Unternehmens-Tenants.
- Es findet keine Vermischung mit Daten anderer Kunden statt.
- Die Antworten von Copilot basieren nur auf den Daten, auf die der anfragende Nutzer Zugriff hat.
- Es gibt kein mandantenuebergreifendes Lernen -- Copilot wird nicht durch die Nutzung in einem Tenant fuer einen anderen Tenant „besser".
Diese Architektur unterscheidet sich grundlegend von Consumer-KI-Tools wie der kostenlosen Copilot-Version oder ChatGPT Free, bei denen Nutzerdaten potenziell ueber verschiedene Nutzer hinweg verwendet werden koennen.
Microsofts EU Data Boundary
Seit 2024 hat Microsoft die EU Data Boundary fuer Microsoft 365 und Azure schrittweise umgesetzt. Fuer EU-Kunden bedeutet das:
- Daten at Rest: Kundendaten werden in EU-Rechenzentren gespeichert (standardmaessig fuer EU-Tenants).
- Daten in Transit: Die Verarbeitung von M365-Diensten einschliesslich Copilot erfolgt innerhalb der EU Data Boundary.
- Support-Zugriffe: Microsoft hat zugesichert, dass auch Support-Zugriffe von EU-basiertem Personal durchgefuehrt werden (mit Ausnahmen fuer seltene Eskalationsfaelle, die dokumentiert werden).
Wichtiger Hinweis: Die EU Data Boundary gilt nicht fuer alle Microsoft-Dienste gleichermassen. Fuer Copilot in M365 hat Microsoft bestaetigt, dass die Prompt-Verarbeitung innerhalb der EU Data Boundary erfolgt. Fuer andere Copilot-Varianten (z. B. die kostenlose Version oder Windows Copilot im Consumer-Modus) gilt diese Zusicherung nicht.
EU Data Boundary im Detail fuer Copilot
| Copilot-Variante | EU Data Boundary | Anmerkung |
|---|---|---|
| Copilot in M365 | Ja | Prompt-Verarbeitung in EU-Rechenzentren fuer EU-Tenants |
| Copilot mit kommerziellem Datenschutz | Teilweise | Eingeschraenkte Garantien; Details im DPA |
| Azure OpenAI Service | Ja (bei EU-Region) | Regionsauswahl bei Ressourcenerstellung |
| Copilot (kostenlos) | Nein | Consumer-Produkt ohne Datenresidenz-Garantien |
| Windows Copilot (Consumer) | Nein | Consumer-Modus ohne Tenant-Anbindung |
5. Drittlandtransfer: Verbleiben die Daten in der EU?
Microsoft und der Drittlandtransfer
Microsoft Corporation ist ein US-Unternehmen. Auch wenn Microsoft umfangreiche EU-Infrastruktur betreibt, bleibt die Frage des Drittlandtransfers nach Art. 44-49 DSGVO relevant -- insbesondere fuer den Zugriff durch US-Personal und fuer Dienste, die nicht vollstaendig in der EU verarbeitet werden.
EU-US Data Privacy Framework (DPF)
Microsoft ist unter dem EU-US Data Privacy Framework zertifiziert. Datenuebermittlungen an Microsoft in die USA koennen daher derzeit auf den Angemessenheitsbeschluss der EU-Kommission gestuetzt werden.
Risikobewertung: Die langfristige Stabilitaet des DPF ist -- wie bei allen US-Transfers -- umstritten. Die Organisation NOYB hat angekuendigt, den Angemessenheitsbeschluss gerichtlich anzufechten. Unternehmen sollten daher:
- Das DPF als primaeren Transfermechanismus nutzen.
- Die Standardvertragsklauseln (SCCs) im Microsoft DPA als Rueckfallposition beibehalten.
- Ein Transfer Impact Assessment (TIA) dokumentieren.
- Die Rechtsentwicklung aktiv verfolgen.
Vorteil gegenueber anderen Anbietern
Im Vergleich zu Google und OpenAI bietet Microsoft derzeit den staerksten Standard-EU-Datenschutz:
- Die EU Data Boundary fuer M365 Copilot ist standardmaessig aktiv fuer EU-Tenants -- ohne Zusatzkosten.
- Google erfordert fuer vergleichbare Garantien das kostenpflichtige Assured Controls Add-on.
- OpenAI (ChatGPT Enterprise) bietet derzeit keine EU-Datenresidenz-Option.
6. DSGVO-Compliance: Rechtliche Anforderungen im Detail
6.1 Rechtsgrundlage bestimmen
Bevor Sie Copilot einsetzen, muessen Sie die Rechtsgrundlage fuer die Datenverarbeitung festlegen. Je nach Einsatzzweck kommen in Betracht:
- Art. 6 Abs. 1 lit. f DSGVO (berechtigtes Interesse): Fuer allgemeine Produktivitaetssteigerung durch KI-Assistenz. Erfordert eine dokumentierte Interessenabwaegung.
- Art. 6 Abs. 1 lit. b DSGVO (Vertragerfuellung): Wenn Copilot zur Erbringung vertraglicher Leistungen eingesetzt wird.
- Art. 6 Abs. 1 lit. a DSGVO (Einwilligung): Bei der Verarbeitung besonderer Kategorien personenbezogener Daten oder in Faellen, in denen die Interessenabwaegung nicht eindeutig ausfaellt.
6.2 Datenschutz-Folgenabschaetzung (Art. 35 DSGVO)
Eine DSFA ist fuer den Einsatz von Copilot in M365 regelmaessig erforderlich, da:
- Generative KI als neue Technologie im Sinne von Art. 35 Abs. 1 DSGVO gilt.
- Eine systematische und umfangreiche Verarbeitung von Unternehmensdaten erfolgt.
- Copilot ueber den Microsoft Graph auf grosse Datenbestaende zugreift (E-Mails, Dokumente, Kalender, Teams-Chats).
- Potenziell besondere Datenkategorien betroffen sein koennen.
Microsoft stellt eine eigene DSFA-Vorlage fuer Copilot in M365 ueber das Service Trust Portal zur Verfuegung. Diese kann als Ausgangspunkt dienen, muss aber unternehmensspezifisch angepasst werden.
6.3 Informationspflichten (Art. 13/14 DSGVO)
Betroffene Personen muessen ueber die Datenverarbeitung durch Copilot informiert werden:
- Beschaeftigte: Die interne Datenschutzinformation muss aktualisiert werden. Mitarbeitende muessen wissen, dass Copilot aktiv ist, welche Daten verarbeitet werden und welche Rechte sie haben.
- Kunden und Geschaeftspartner: Wenn Copilot E-Mails, Teams-Nachrichten oder Dokumente verarbeitet, die Daten externer Personen enthalten, muss die Datenschutzerklaerung dies abdecken.
- Betriebsrat: In mitbestimmungspflichtigen Unternehmen ist die Einfuehrung von Copilot regelmaessig mitbestimmungspflichtig (§ 87 Abs. 1 Nr. 6 BetrVG), da es sich um eine technische Einrichtung handelt, die geeignet ist, das Verhalten oder die Leistung von Arbeitnehmern zu ueberwachen.
- Transparenz nach AI Act: Art. 50 VO (EU) 2024/1689 verlangt zusaetzlich, dass KI-generierte Inhalte als solche gekennzeichnet werden.
6.4 Technische und organisatorische Massnahmen
| Massnahme | Beschreibung | Prioritaet |
|---|---|---|
| Lizenz- und Rollout-Steuerung | Copilot-Lizenzen gezielt zuweisen, nicht pauschal ausrollen | Hoch |
| Berechtigungs-Audit | SharePoint- und OneDrive-Berechtigungen vor dem Rollout pruefen (Oversharing!) | Hoch |
| Sensitivity Labels | Vertrauliche Dokumente mit Microsoft Purview Sensitivity Labels schuetzen | Hoch |
| DLP-Richtlinien | Data Loss Prevention-Regeln fuer sensible Datenkategorien konfigurieren | Hoch |
| Conditional Access | Copilot-Zugriff nur von verwalteten Geraeten und Standorten erlauben | Mittel |
| Audit-Logging | Copilot-Nutzung ueber Microsoft Purview Compliance Portal protokollieren | Mittel |
| Windows Copilot deaktivieren | Consumer-Copilot per GPO/Intune auf Unternehmensgeraeten blockieren | Hoch |
| Nutzungsrichtlinie | Interne KI-Richtlinie mit klaren Regeln fuer Copilot-Nutzung | Hoch |
6.5 KI-Kompetenz nach Art. 4 VO (EU) 2024/1689
Seit dem 2. Februar 2025 muessen Unternehmen sicherstellen, dass Mitarbeitende, die KI-Systeme nutzen, ueber ausreichende KI-Kompetenz verfuegen. Fuer Copilot-Nutzer bedeutet das:
- Schulung zur Funktionsweise von Copilot (Wie greift es auf Daten zu? Was sind die Grenzen?).
- Sensibilisierung fuer Halluzinationen und fehlerhafte Ausgaben -- Copilot kann falsche Informationen aus dem Tenant zusammenstellen.
- Klare Anweisungen, welche Daten in Prompts eingegeben werden duerfen und welche nicht.
- Bewusstsein fuer das Oversharing-Problem: Nur weil Copilot eine Information anzeigt, heisst das nicht, dass der Nutzer sie weitergeben darf.
- Dokumentation der durchgefuehrten Schulungen als Nachweis.
7. Vergleich: Copilot vs. ChatGPT vs. Gemini im Datenschutz
Unternehmen stehen haeufig vor der Frage, welcher KI-Assistent datenschutzrechtlich am besten abschneidet. Die folgende Tabelle vergleicht die drei grossen Plattformen in ihren Business-Varianten:
| Kriterium | Microsoft Copilot (M365) | ChatGPT Enterprise | Google Gemini (Workspace) |
|---|---|---|---|
| AVV/DPA | Microsoft DPA | OpenAI DPA | Google Workspace DPA |
| Kein Modelltraining mit Kundendaten | Ja | Ja | Ja (bei Workspace/Cloud) |
| EU-Datenresidenz | EU Data Boundary (Standard) | Nicht verfuegbar | Mit Assured Controls (Aufpreis) |
| Drittlandtransfer | EU-Verarbeitung Standard | USA (DPF + SCCs) | USA (DPF + SCCs) |
| Tenant-Isolation | Vollstaendig | Workspace-Level | Organisationseinheit-Level |
| Sub-Processor-Transparenz | Oeffentliche Liste | Oeffentliche Liste | Oeffentliche Liste |
| Admin-Kontrollen | Ja (pro Nutzer/Gruppe) | Ja (Workspace-Level) | Ja (pro OU/Nutzer) |
| Audit-Logging | Ja (Purview Compliance) | Ja (Admin-Dashboard) | Ja (Admin-Konsole) |
| Integration | Microsoft 365 | Standalone + Plugins | Google Workspace |
| Berechtigungsmodell | Microsoft Graph + Tenant-Berechtigungen | Eigenes Zugriffsmodell | Google Workspace-Berechtigungen |
| BSI C5-Testat | Ja | Nein | Nein |
| Kosten (ca.) | Ab 30 EUR/Nutzer/Monat | Ab 25 USD/Nutzer/Monat | Ab 22 EUR/Nutzer/Monat |
Wichtigste Unterschiede:
- Datenresidenz: Microsoft bietet die staerkste Standard-EU-Datenresidenz. Die EU Data Boundary ist fuer EU-Kunden standardmaessig aktiv und verursacht keine Zusatzkosten. Google erfordert das kostenpflichtige Assured Controls Add-on. OpenAI bietet derzeit keine EU-Datenresidenz.
- Tenant-Isolation: Copilot in M365 hat das ausgereifteste Tenant-Isolationsmodell, da es auf die bestehende M365-Infrastruktur aufsetzt. Damit ist die Datentrennung zwischen Kunden besonders robust.
- BSI C5-Testat: Microsoft verfuegt als einziger der drei Anbieter ueber ein BSI C5-Testat fuer Cloud-Dienste, was fuer deutsche Unternehmen und den oeffentlichen Sektor relevant ist.
- Integration: Die Wahl haengt stark vom bestehenden Oekosystem ab. Microsoft-365-Kunden profitieren am meisten von Copilot, Google-Workspace-Kunden von Gemini.
8. Praktische Compliance-Checkliste
Die folgende Checkliste fasst alle notwendigen Schritte fuer den datenschutzkonformen Einsatz von Microsoft Copilot zusammen:
Vor der Einfuehrung
- Variante festlegen: Copilot in M365, Azure OpenAI Service oder beides? Consumer-Versionen und Windows Copilot im Consumer-Modus ausschliessen.
- DPA pruefen: Aktuelle Version des Microsoft DPA im Lizenzvertrag verifizieren. AI Services Addendum auf KI-spezifische Regelungen pruefen.
- Sub-Processor-Liste pruefen: Aktuelle Liste der Unterauftragsverarbeiter einsehen und dokumentieren.
- EU Data Boundary verifizieren: Sicherstellen, dass der Tenant in der EU-Region angelegt ist und die EU Data Boundary aktiv ist.
- DSFA durchfuehren: Datenschutz-Folgenabschaetzung erstellen -- Microsoft-Vorlage als Basis nutzen, unternehmensspezifisch anpassen.
- Berechtigungs-Audit: SharePoint-, OneDrive- und Teams-Berechtigungen pruefen und Oversharing beseitigen.
- Verarbeitungsverzeichnis aktualisieren: Copilot als neue Verarbeitungstaetigkeit aufnehmen.
- Rechtsgrundlage dokumentieren: Interessenabwaegung oder andere Rechtsgrundlage schriftlich festhalten.
- Betriebsrat einbinden: Bei mitbestimmungspflichtigen Unternehmen den Betriebsrat fruehzeitig beteiligen (§ 87 Abs. 1 Nr. 6 BetrVG).
- TIA erstellen: Transfer Impact Assessment fuer den verbleibenden US-Bezug dokumentieren.
Bei der Einfuehrung
- Lizenzen gezielt zuweisen: Copilot schrittweise ausrollen, nicht pauschal fuer alle Nutzer.
- Sensitivity Labels konfigurieren: Vertrauliche Dokumente schuetzen, bevor Copilot darauf zugreift.
- DLP-Richtlinien aktivieren: Sensible Datenkategorien vom Copilot-Zugriff ausschliessen.
- Windows Copilot steuern: Consumer-Copilot per GPO/Intune auf Unternehmensgeraeten deaktivieren.
- Nutzungsrichtlinie kommunizieren: Interne KI-Policy mit klaren Dos und Don'ts veroeffentlichen.
- KI-Kompetenzschulungen durchfuehren: Alle Copilot-Nutzer vor dem Rollout schulen.
- Informationspflichten erfuellen: Datenschutzerklaerungen fuer Beschaeftigte und Externe aktualisieren.
Nach der Einfuehrung
- Audit-Logs ueberwachen: Regelmaessig die Copilot-Nutzung ueber Purview pruefen.
- DSFA aktualisieren: Mindestens jaehrlich oder bei wesentlichen Aenderungen an Copilot.
- DPA-Updates verfolgen: Bei Aenderungen am Microsoft DPA erneut pruefen.
- Berechtigungen laufend pruefen: Oversharing-Monitoring als kontinuierlichen Prozess etablieren.
- Schulungen auffrischen: Regelmaessige Auffrischungsschulungen durchfuehren.
- Feedback einholen: Nutzer-Feedback zu Datenschutzbedenken sammeln und adressieren.
9. Haeufig gestellte Fragen (FAQ)
Nutzt Microsoft meine Unternehmensdaten zum Training von Copilot?
Bei Business-Produkten nein. Microsoft hat fuer M365 und Azure vertraglich zugesichert, dass Kundendaten nicht zum Training der Foundation Models verwendet werden. Bei der kostenlosen Copilot-Version und Windows Copilot im Consumer-Modus behaelt sich Microsoft dieses Recht jedoch vor. Unternehmen muessen daher sicherstellen, dass ausschliesslich die Business-Varianten mit entsprechenden Lizenzen zum Einsatz kommen und Consumer-Varianten per Richtlinie blockiert werden.
Brauche ich fuer Copilot einen eigenen AVV?
Nein, das Microsoft DPA deckt Copilot ab. Das bestehende Microsoft Products and Services DPA gilt fuer alle M365- und Azure-Dienste, einschliesslich Copilot. Ein separater AVV ist nicht erforderlich. Sie muessen jedoch pruefen, ob die aktuelle DPA-Version in Ihrem Vertrag referenziert wird und ob das AI Services Addendum die KI-spezifischen Regelungen enthaelt.
Verlassen meine Daten bei Copilot die EU?
Bei korrekt konfiguriertem EU-Tenant in der Regel nein. Microsoft hat die EU Data Boundary fuer M365 Copilot umgesetzt, sodass die Verarbeitung fuer EU-Kunden in EU-Rechenzentren erfolgt. Es gibt jedoch Ausnahmen -- etwa fuer seltene Support-Eskalationen oder bestimmte nachgelagerte Dienste. Das TIA sollte diese Restrisiken bewerten.
Kann Copilot auf Daten zugreifen, die ich nicht sehen soll?
Nein -- aber es kann Daten anzeigen, auf die Sie Zugriff haben, ohne es zu wissen. Copilot respektiert die bestehenden M365-Berechtigungen vollstaendig. Das Problem liegt nicht bei Copilot, sondern bei zu grosszuegig vergebenen Berechtigungen im Tenant (Oversharing). Deshalb ist ein Berechtigungs-Audit vor dem Copilot-Rollout essentiell.
Wie unterscheidet sich Copilot in M365 von der kostenlosen Copilot-Version?
Grundlegend. Copilot in M365 ist ein Enterprise-Produkt mit Tenant-Isolation, DPA, EU Data Boundary und Admin-Kontrollen. Die kostenlose Version ist ein Consumer-Produkt ohne AVV, ohne Tenant-Anbindung und mit potenzieller Nutzung der Eingaben fuer Modelltraining. Fuer den Unternehmenseinsatz darf ausschliesslich die M365-Variante (oder Azure OpenAI Service) verwendet werden.
Muss ich den Betriebsrat bei der Copilot-Einfuehrung einbinden?
In der Regel ja. Copilot in M365 ist als technische Einrichtung im Sinne von § 87 Abs. 1 Nr. 6 BetrVG zu werten, da die Nutzung ueber Audit-Logs nachvollzogen werden kann. Der Betriebsrat hat hier ein Mitbestimmungsrecht. Eine fruehzeitige Einbindung empfiehlt sich nicht nur aus rechtlichen, sondern auch aus Akzeptanzgruenden.
10. Fazit
Microsoft Copilot bietet Unternehmen leistungsfaehige KI-Funktionen, die tief in das Microsoft-365-Oekosystem integriert sind. Im Vergleich zu ChatGPT und Google Gemini hat Copilot in M365 derzeit einen Datenschutzvorteil: Die EU Data Boundary ist standardmaessig aktiv, die Tenant-Isolation ist robust, und Microsoft verfuegt als einziger der drei grossen Anbieter ueber ein BSI C5-Testat.
Die zentralen Stellschrauben fuer den DSGVO-konformen Einsatz sind:
- Nur Business-Varianten einsetzen -- Consumer-Copilot und Windows Copilot im Consumer-Modus per Richtlinie blockieren.
- DPA pruefen und dokumentieren -- nicht nur akzeptieren, sondern das AI Services Addendum und die Sub-Processor-Liste aktiv bewerten.
- Oversharing beseitigen -- vor dem Rollout ein gruendliches Berechtigungs-Audit durchfuehren. Das ist die wichtigste technische Voraussetzung.
- DSFA durchfuehren -- die Risiken der KI-Verarbeitung systematisch bewerten. Microsofts Vorlage nutzen und anpassen.
- Drittlandtransfer absichern -- EU Data Boundary verifizieren, TIA dokumentieren, DPF + SCCs als Transfermechanismen nutzen.
- Mitarbeitende schulen -- KI-Kompetenz nach Art. 4 VO (EU) 2024/1689 sicherstellen, insbesondere zum Thema Halluzinationen und Oversharing.
Der Schluessel liegt in der bewussten und strukturierten Einfuehrung. Copilot sollte nicht einfach mit den M365-Lizenzen ausgerollt werden, sondern als eigenes Projekt behandelt werden -- mit Datenschutz, IT-Sicherheit und Betriebsrat am Tisch. Unternehmen, die diesen Weg gehen, koennen die Produktivitaetsvorteile von Copilot nutzen, ohne Compliance-Risiken einzugehen.
Sie moechten Microsoft Copilot datenschutzkonform in Ihrem Unternehmen einfuehren? KI Comply bietet praxisnahe Schulungen und Beratung fuer den DSGVO-konformen KI-Einsatz -- von der DSFA bis zur Mitarbeiterschulung nach Art. 4 VO (EU) 2024/1689. Jetzt informieren
Dieser Artikel dient der allgemeinen Information und stellt keine Rechtsberatung dar. Für eine rechtliche Bewertung Ihres konkreten Falls wenden Sie sich bitte an einen spezialisierten Rechtsanwalt.
Artikel teilen:
Weiterlesen
Microsoft Copilot für Unternehmen: Funktionen, Datenschutz und Compliance
Microsoft Copilot integriert KI in Word, Excel, Teams und Outlook. Was Unternehmen bei Einführung und Nutzung beachten müssen — DSGVO und AI Act.
ChatGPT und Datenschutz: DSGVO-Leitfaden für Unternehmen
ChatGPT im Unternehmen einsetzen und dabei die DSGVO einhalten? Dieser Leitfaden erklärt alle datenschutzrechtlichen Anforderungen — von der Rechtsgrundlage bis zur DSFA.

Google Gemini & Datenschutz: Was Unternehmen wissen müssen
Google Gemini verarbeitet Unternehmensdaten in Workspace und per API. Was bei Datenschutz, DSGVO-Konformität und AVV nach Art. 28 DSGVO zu beachten ist.
Auftragsverarbeitung bei KI-Diensten: AVV richtig gestalten
Wer KI-Dienste nutzt, braucht fast immer einen AVV. Wir erklären, wann eine Auftragsverarbeitung vorliegt, was der AVV enthalten muss und welche KI-spezifischen Klauseln wichtig sind.
Drittlandtransfer bei KI: Wenn Daten die EU verlassen
ChatGPT, Gemini, Claude — die meisten KI-Dienste verarbeiten Daten in den USA. Was bedeutet das für den DSGVO-Drittlandtransfer? Ein Praxis-Leitfaden.
AI Act vs. DSGVO: Wie die beiden Regulierungen zusammenspielen
AI Act und DSGVO — zwei EU-Verordnungen, ein Ziel: verantwortungsvolle KI. Wir erklären die Unterschiede, Überschneidungen und was Unternehmen beachten müssen.
Machen Sie Ihr Team KI-fit
Mit unserer Online-Schulung erfüllen Sie die Anforderungen der KI-Verordnung - einfach und effizient.
Preise ansehen