Microsoft Copilot & Datenschutz — DSGVO-konform im Unternehmen nutzen

KI-Assistenten wie Microsoft Copilot revolutionieren die Arbeitswelt. Doch welche Risiken bestehen für den Datenschutz? Wir zeigen, wie Sie Copilot DSGVO-konform einsetzen.

Microsoft Copilot ist in aller Munde — und längst im Unternehmensalltag angekommen. Ob in Microsoft 365, GitHub oder Windows: Der KI-Assistent auf Basis von GPT-4 verspricht enorme Produktivitätsgewinne. Doch mit der Verarbeitung sensibler Unternehmensdaten durch künstliche Intelligenz wachsen auch die datenschutzrechtlichen Anforderungen. Dieser vollständige Leitfaden zeigt Ihnen, wie Sie Copilot datenschutzkonform einführen und die DSGVO-Anforderungen zuverlässig erfüllen.

1. Was ist Microsoft Copilot?

Microsoft Copilot ist ein KI-gestützter Assistent, der in verschiedenen Microsoft-Produkten integriert ist. Er nutzt große Sprachmodelle (Large Language Models, LLMs), um Nutzer bei ihrer täglichen Arbeit zu unterstützen. Dabei existieren mehrere Varianten mit unterschiedlichen Datenschutz-Implikationen:

Microsoft 365 Copilot

Die Enterprise-Version ist direkt in Word, Excel, PowerPoint, Outlook, Teams und OneNote integriert. M365 Copilot greift auf den Microsoft Graph zu — also auf alle Unternehmensdaten, die ein Nutzer sehen darf: E-Mails, Kalender, Chats, Dokumente auf SharePoint und OneDrive. Genau hier liegt das größte Datenschutzrisiko: Der Copilot kann potenziell auf sämtliche Daten zugreifen, die einem Nutzer zugänglich sind.

GitHub Copilot

Der KI-Programmierassistent schlägt Entwicklern Code-Vervollständigungen vor. Er wurde mit öffentlich verfügbarem Code trainiert und verarbeitet den aktuellen Code-Kontext des Entwicklers. Für Unternehmen stellt sich hier die Frage nach dem Schutz von Geschäftsgeheimnissen und proprietärem Code.

Copilot in Windows & Bing

Die kostenlose Consumer-Version ist in Windows 11 und den Edge-Browser integriert. Sie nutzt Bing-Suchergebnisse und verarbeitet Nutzer-Prompts über Microsoft-Server. Für den Unternehmenseinsatz ist diese Variante aus Datenschutzsicht besonders kritisch, da weniger vertragliche Schutzmaßnahmen greifen als bei der Enterprise-Version.

Copilot Studio

Mit Copilot Studio können Unternehmen eigene KI-Assistenten erstellen, die auf unternehmensspezifische Datenquellen zugreifen. Dies ermöglicht maßgeschneiderte Lösungen, erfordert aber eine sorgfältige Datenschutz-Folgenabschätzung (DSFA).

2. Welche Daten verarbeitet Copilot?

Um die datenschutzrechtlichen Risiken von Microsoft Copilot richtig einzuschätzen, müssen Sie verstehen, welche Daten der KI-Assistent verarbeitet. Die Datenverarbeitung ist umfangreicher, als viele Unternehmen zunächst annehmen:

Eingabedaten (Prompts)

  • Textuelle Anweisungen der Nutzer — oft enthalten diese bereits personenbezogene Daten oder vertrauliche Informationen
  • Kontext-Informationen aus der aktuellen Anwendung (geöffnetes Dokument, E-Mail-Thread, Chat-Verlauf)
  • Referenzierte Dokumente, die der Nutzer explizit oder implizit einbezieht

Microsoft-Graph-Daten (M365 Copilot)

  • E-Mails und Anhänge aus Outlook — einschließlich vertraulicher Korrespondenz
  • Teams-Nachrichten und Meeting-Transkripte — mit potenziell sensiblen Gesprächsinhalten
  • Dokumente auf SharePoint und OneDrive — HR-Unterlagen, Verträge, Strategiepapiere
  • Kalendereinträge und Kontakte — Termindetails, Teilnehmerlisten
  • Aufgaben und Planner-Daten — Projektinformationen und Zuständigkeiten

Code und Entwicklungsdaten (GitHub Copilot)

  • Quellcode aus dem aktuellen Repository und geöffneten Dateien
  • Code-Kommentare — enthalten häufig API-Keys, Passwörter oder interne URLs
  • Datenbankstrukturen und Konfigurationsdateien

Telemetrie- und Nutzungsdaten

  • Nutzungsmuster: Wann, wie oft und wofür Copilot eingesetzt wird
  • Interaktionsdaten: Akzeptierte/abgelehnte Vorschläge
  • Diagnostikdaten: Fehlerberichte, Performance-Metriken

Wichtig: Laut Microsoft werden Prompts und Antworten bei M365 Copilot für Enterprise-Kunden nicht zum Training der KI-Modelle verwendet. Diese Zusage ist vertraglich im Data Processing Addendum (DPA) verankert. Bei der Consumer-Version sieht die Lage jedoch anders aus.

3. DSGVO-Bewertung: Microsoft Copilot und europäisches Datenschutzrecht

Der Einsatz von Copilot im Unternehmen berührt zahlreiche Aspekte der DSGVO. Eine strukturierte rechtliche Bewertung ist nötig, bevor Sie den KI-Assistenten ausrollen.

Rechtsgrundlage nach Art. 6 DSGVO

Für den Einsatz von Copilot im Unternehmen kommen primär zwei Rechtsgrundlagen in Betracht:

  • Art. 6 Abs. 1 lit. f DSGVO (berechtigtes Interesse): Die Steigerung der Produktivität und Wettbewerbsfähigkeit kann ein berechtigtes Interesse darstellen. Allerdings muss eine Interessenabwägung durchgeführt werden, die die Rechte der betroffenen Personen berücksichtigt.
  • Art. 6 Abs. 1 lit. b DSGVO (Vertragserfüllung): Wenn die Datenverarbeitung für die Erfüllung eines Vertrags erforderlich ist, kann dies als Rechtsgrundlage dienen — etwa bei der KI-gestützten Bearbeitung von Kundenanfragen.

Die Einwilligung (Art. 6 Abs. 1 lit. a DSGVO) scheidet im Beschäftigungskontext meist aus, da die Freiwilligkeit im Arbeitsverhältnis fraglich ist. Mehr dazu erfahren Sie in unserem Ratgeber zum Beschäftigtendatenschutz.

Auftragsverarbeitung nach Art. 28 DSGVO

Microsoft agiert beim Einsatz von M365 Copilot als Auftragsverarbeiter. Das Microsoft Products and Services Data Protection Addendum (DPA) regelt die Auftragsverarbeitung gemäß Art. 28 DSGVO. Prüfen Sie folgende Punkte im DPA:

  • Umfang und Zweck der Datenverarbeitung
  • Technische und organisatorische Maßnahmen (TOMs)
  • Unterauftragsverarbeiter und deren Standorte
  • Löschfristen und Datenportabilität
  • Audit-Rechte und Zertifizierungen (ISO 27001, SOC 2)

EU Data Boundary

Seit Dezember 2023 verarbeitet und speichert Microsoft Kundendaten für M365-Dienste innerhalb der EU Data Boundary. Dies umfasst auch Copilot-Prompts und -Antworten. Allerdings bestehen Ausnahmen:

  • Support-Szenarien: Bei Supportanfragen können Daten temporär außerhalb der EU verarbeitet werden
  • Sicherheitsdienste: Bestimmte Sicherheitsfeatures erfordern globale Datenverarbeitung
  • Modell-Inferenz: Die KI-Modelle selbst werden global betrieben, auch wenn die Daten in der EU bleiben

Für einen vollständigen Überblick über die Datenschutzanforderungen im Unternehmen empfehlen wir unseren Leitfaden.

Datenschutz-Folgenabschätzung (DSFA)

Der Einsatz von Copilot erfordert in den meisten Fällen eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO. Gründe hierfür sind:

  • Systematische und vollständige Bewertung persönlicher Aspekte (Profiling)
  • Verarbeitung in großem Umfang
  • Einsatz neuer Technologien (KI/Machine Learning)
  • Potenzielle Auswirkungen auf die Rechte und Freiheiten der Betroffenen

4. Datenschutzrisiken beim Einsatz von Microsoft Copilot

Die Integration von KI-Assistenten in den Unternehmensalltag birgt spezifische Risiken, die über klassische Datenschutz-Herausforderungen hinausgehen. Diese Risiken müssen vor dem Rollout identifiziert und adressiert werden.

Risiko 1: Datenabfluss und unbeabsichtigte Offenlegung

Das größte Risiko beim Copilot Datenschutz ist der unbeabsichtigte Abfluss sensibler Daten. Mitarbeiter könnten vertrauliche Informationen — Kundendaten, Gehaltsinformationen, Geschäftsgeheimnisse — in Prompts eingeben, ohne sich der Konsequenzen bewusst zu sein. Bei der Consumer-Version werden diese Daten potenziell zur Modellverbesserung genutzt.

Risiko 2: Oversharing durch fehlerhafte Berechtigungen

M365 Copilot respektiert die bestehenden Zugriffsrechte im Microsoft Graph. Das Problem: In vielen Organisationen sind die Berechtigungen historisch gewachsen und viel zu weitreichend. Wenn ein Mitarbeiter Zugriff auf Personaldokumente hat, die er eigentlich nicht benötigt, kann Copilot diese Daten in Antworten einbeziehen. Das sogenannte „Oversharing“ wird durch Copilot sichtbar — und zum akuten Datenschutzproblem.

Risiko 3: KI-Halluzinationen

Copilot kann falsche oder erfundene Informationen generieren, die wie Fakten präsentiert werden. Im Datenschutzkontext ist das besonders problematisch: Falsche Rechtsauskünfte, erfundene Deadlines oder inkorrekte Betroffenenrechte-Antworten können zu DSGVO-Verstößen und Bußgeldern führen.

Risiko 4: Shadow-AI und unkontrollierter Einsatz

Wenn Unternehmen keinen offiziellen KI-Assistenten bereitstellen, nutzen Mitarbeiter häufig eigene KI-Tools (ChatGPT, Google Gemini, Claude) ohne Wissen der IT-Abteilung. Diese „Shadow-AI“ ist datenschutzrechtlich besonders riskant, da keinerlei vertragliche Grundlage existiert. Die Einführung von Copilot kann diesem Problem entgegenwirken — wenn sie richtig gesteuert wird.

Risiko 5: Fehlende Transparenz gegenüber Betroffenen

Art. 13 und 14 DSGVO verpflichten Unternehmen, Betroffene über die Verarbeitung ihrer Daten zu informieren. Wenn Copilot Kundendaten, Mitarbeiterdaten oder Bewerberdaten verarbeitet, müssen die Datenschutzhinweise entsprechend angepasst werden. Viele Unternehmen versäumen dies bei der Einführung von KI-Tools.

5. Copilot DSGVO-konform einführen: Der 7-Schritte-Plan

Eine strukturierte Einführung von Microsoft Copilot stellt sicher, dass alle datenschutzrechtlichen Anforderungen erfüllt werden. Dieser praxiserprobte 7-Schritte-Plan unterstützt Sie dabei:

Schritt 1: Datenschutz-Folgenabschätzung (DSFA) durchführen

Vor dem Rollout ist eine DSFA nach Art. 35 DSGVO zwingend erforderlich. Dokumentieren Sie:

  • Welche Datenarten werden verarbeitet?
  • Welche Risiken bestehen für die Betroffenen?
  • Welche Maßnahmen minimieren diese Risiken?
  • Ist das Restrisiko vertretbar?

Beziehen Sie Ihren Datenschutzbeauftragten frühzeitig ein. Die Schulungspflichten des AI Acts sollten ebenfalls berücksichtigt werden.

Schritt 2: Berechtigungskonzept überprüfen und bereinigen

Das Prinzip der geringsten Berechtigung (Least Privilege) ist beim Copilot-Einsatz geschäftskritisch. Überprüfen Sie:

  • SharePoint-Site-Berechtigungen und Freigaben
  • OneDrive-Freigaben und „Jeder mit dem Link“-Einstellungen
  • Teams-Kanal-Mitgliedschaften und Gastzugriffe
  • Exchange-Postfach-Delegierungen
  • Sensitivity Labels und Klassifizierungen

Nutzen Sie Microsoft Purview, um übermäßige Berechtigungen zu identifizieren und zu korrigieren.

Schritt 3: KI-Nutzungsrichtlinie erstellen

Definieren Sie verbindliche Regeln für den Umgang mit Copilot:

  • Erlaubte Anwendungsfälle: Für welche Aufgaben darf Copilot genutzt werden?
  • Verbotene Eingaben: Welche Daten dürfen nicht in Prompts eingegeben werden? (z. B. Gesundheitsdaten, Passwörter)
  • Qualitätskontrolle: KI-generierte Inhalte müssen vor der Verwendung geprüft werden
  • Kennzeichnungspflicht: Wann müssen KI-generierte Texte als solche gekennzeichnet werden?
  • Eskalationsprozess: An wen wenden sich Mitarbeiter bei Datenschutzbedenken?

Schritt 4: Mitarbeiterschulungen durchführen

Eine KI-Nutzungsrichtlinie ist nur so gut wie das Verständnis der Mitarbeiter. Schulen Sie zu:

  • Grundlagen der DSGVO im KI-Kontext
  • Richtige Formulierung von Prompts (kein „Prompt Injection“ mit personenbezogenen Daten)
  • Erkennung und Umgang mit KI-Halluzinationen
  • Meldewege bei Datenschutzvorfällen

Die KI-Schulungspflicht nach dem AI Act macht regelmäßige Schulungen ab 2025 ohnehin zur Pflicht. DATUREX bietet hierzu spezielle KI-Datenschutz-Schulungen an.

Schritt 5: Technisches Monitoring einrichten

Implementieren Sie Überwachungsmechanismen, um Datenschutzverstöße frühzeitig zu erkennen:

  • Microsoft Purview Audit Logs: Protokollierung aller Copilot-Interaktionen
  • Data Loss Prevention (DLP): Regeln für sensible Datentypen in Copilot-Prompts
  • Sensitivity Labels: Automatische Klassifizierung und Schutz sensibler Dokumente
  • Copilot Dashboard: Nutzungsstatistiken und Adoption-Metriken im Admin Center

Schritt 6: Datenschutzdokumentation aktualisieren

Passen Sie folgende Dokumente an:

  • Verzeichnis der Verarbeitungstätigkeiten (Art. 30 DSGVO): Copilot als neue Verarbeitungstätigkeit aufnehmen
  • Datenschutzhinweise für Mitarbeiter, Kunden und Bewerber: Information über KI-gestützte Verarbeitung
  • Auftragsverarbeitungsvertrag: Microsoft DPA prüfen und archivieren
  • TOMs: Technische und organisatorische Maßnahmen um Copilot-spezifische Schutzmaßnahmen ergänzen

Schritt 7: Regelmäßige Reviews und Anpassungen

KI-Technologie entwickelt sich rasant. Planen Sie:

  • Quartalsweise Reviews der KI-Nutzungsrichtlinie
  • Jährliche Überprüfung der DSFA
  • Kontinuierliches Monitoring der Microsoft-Vertragsänderungen
  • Anpassung an neue regulatorische Anforderungen (AI Act, BDSG-Novelle)

6. GitHub Copilot und Datenschutz

Für Softwareunternehmen und IT-Abteilungen ist GitHub Copilot ein besonders relevantes Thema. Der KI-Programmierassistent birgt spezifische datenschutzrechtliche Herausforderungen:

Verarbeitung von Code-Daten

GitHub Copilot analysiert den aktuellen Code-Kontext, um Vorschläge zu generieren. In Unternehmenscode können sich befinden:

  • Hardcoded Credentials: API-Keys, Passwörter, Zugangsdaten
  • Personenbezogene Testdaten: Namen, E-Mail-Adressen, Telefonnummern in Test-Fixtures
  • Interne URLs und Infrastruktur-Details: Server-Adressen, Datenbank-Verbindungsstrings
  • Geschäftslogik: Proprietäre Algorithmen und Verarbeitungsprozesse

Lizenzrechtliche Fragen

GitHub Copilot wurde mit öffentlich verfügbarem Code trainiert, darunter auch GPL-lizenzierter Code. Es besteht das Risiko, dass Copilot Code-Snippets vorschlägt, die aus GPL-lizenzierten Projekten stammen und damit Lizenzverpflichtungen auslösen können. Aktivieren Sie die Einstellung „Suggestions matching public code“ auf „Block“, um dieses Risiko zu minimieren.

GitHub Copilot Business vs. Individual

Für Unternehmen ist ausschließlich GitHub Copilot Business oder Enterprise empfehlenswert:

  • Code-Snippets werden nicht zum Modelltraining verwendet
  • Erweiterte Sicherheitsfeatures und Admin-Kontrollen
  • IP-Schutz und Haftungsübernahme durch GitHub
  • Proxy-Unterstützung und SAML-SSO

Bei der Individual-Version werden Code-Snippets hingegen standardmäßig zur Modellverbesserung verwendet — ein klarer Verstoß gegen die Vertraulichkeit von Unternehmensgeheimnissen.

7. Copilot und Betriebsrat: Mitbestimmung bei KI-Einführung

Die Einführung von Microsoft Copilot löst in Unternehmen mit Betriebsrat regelmäßig Mitbestimmungsrechte aus. Eine frühzeitige Einbindung des Betriebsrats ist nicht nur rechtlich geboten, sondern erhöht auch die Akzeptanz bei den Mitarbeitern.

Mitbestimmungspflichten nach BetrVG

  • § 87 Abs. 1 Nr. 6 BetrVG: Einführung und Anwendung technischer Einrichtungen, die zur Überwachung des Verhaltens oder der Leistung bestimmt sind. Copilot-Nutzungsdaten können Rückschlüsse auf Arbeitsverhalten ermöglichen.
  • § 87 Abs. 1 Nr. 1 BetrVG: Fragen der Ordnung des Betriebs — die KI-Nutzungsrichtlinie unterliegt der Mitbestimmung.
  • § 90 BetrVG: Unterrichtung bei Planung neuer Arbeitsverfahren und -abläufe.
  • § 97 Abs. 2 BetrVG: Einführung von Maßnahmen der Berufsbildung — KI-Schulungen erfordern Beteiligung.

Betriebsvereinbarung KI (BV KI)

Empfehlenswert ist der Abschluss einer Betriebsvereinbarung zum Einsatz von KI-Tools. Diese sollte regeln:

  • Erlaubte KI-Werkzeuge und Einsatzgebiete
  • Ausschluss automatisierter Leistungsbewertung
  • Löschfristen für Nutzungsprotokolle
  • Schulungsansprüche der Mitarbeiter
  • Evaluierung und Anpassungsmechanismen
  • Beschwerderecht bei KI-gestützten Entscheidungen

Die Betriebsvereinbarung kann gleichzeitig als Rechtsgrundlage nach Art. 88 DSGVO i.V.m. § 26 BDSG für die Datenverarbeitung im Beschäftigungsverhältnis dienen.

8. DATUREX: Ihr Partner für KI-Datenschutz

Die datenschutzkonforme Einführung von Microsoft Copilot erfordert Expertise an der Schnittstelle von IT, Recht und Organisation. Genau das bietet DATUREX — Datenschutz und KI aus einer Hand.

Unsere Leistungen im Bereich KI-Datenschutz

  • DSFA für Copilot: Wir erstellen die Datenschutz-Folgenabschätzung für Ihren M365-Copilot-Rollout — praxisnah und aufsichtsbehördenkonform
  • KI-Nutzungsrichtlinie: Maßgeschneiderte Policy für den Einsatz von KI-Tools in Ihrem Unternehmen
  • Berechtigungs-Audit: Wir prüfen Ihre Microsoft-365-Berechtigungen und identifizieren Oversharing-Risiken
  • KI-Schulungen: Praxisnahe Mitarbeiterschulungen zu DSGVO und AI Act
  • Datenschutz-Beratung: Laufende Betreuung als externer Datenschutzbeauftragter
  • AI-Act-Compliance: Vorbereitung auf die neuen KI-Regulierungen der EU

Warum DATUREX?

  • TÜV-zertifiziert als Datenschutzbeauftragter und IT-Sicherheitsbeauftragter
  • BSI-zertifiziert nach IT-Grundschutz
  • IHK-zertifiziert als Datenschutzbeauftragter
  • Kombination aus technischer und juristischer Expertise
  • Praxiserprobte Lösungen für KMU und Mittelstand
  • Sitz in Dresden — persönliche Betreuung in ganz Sachsen und bundesweit

Wir unterstützen Sie auch bei der Entwicklung eigener KI-Lösungen für Ihr Unternehmen — DSGVO-konform von Anfang an.

Copilot einführen — aber sicher!

DATUREX — Datenschutz & KI aus einer Hand.
TÜV + BSI + IHK zertifiziert.

Wir begleiten Sie bei der datenschutzkonformen Einführung von Microsoft Copilot: Von der DSFA über das Berechtigungs-Audit bis zur Mitarbeiterschulung.

Häufige Fragen zu Copilot und Datenschutz (FAQ)

Ist Microsoft Copilot DSGVO-konform?

Microsoft 365 Copilot kann DSGVO-konform eingesetzt werden, wenn entsprechende Maßnahmen getroffen werden: gültiges DPA, DSFA, angepasste Berechtigungen, Mitarbeiterschulung und aktualisierte Datenschutzdokumentation. Die Consumer-Version (Copilot in Windows/Bing) ist für den Unternehmenseinsatz mit personenbezogenen Daten nicht empfehlenswert.

Werden Copilot-Prompts zum KI-Training verwendet?

Bei M365 Copilot für Unternehmen: Nein. Microsoft hat vertraglich zugesichert, dass Kundendaten (inkl. Prompts und Antworten) nicht zum Training der Foundation Models verwendet werden. Bei der kostenlosen Consumer-Version können Daten hingegen zur Modellverbesserung genutzt werden.

Brauche ich eine DSFA für Microsoft Copilot?

Ja, in den meisten Fällen ist eine Datenschutz-Folgenabschätzung erforderlich. Die systematische Verarbeitung personenbezogener Daten durch KI-Technologie mit Zugriff auf den Microsoft Graph erfüllt die Kriterien des Art. 35 DSGVO. Ihr Datenschutzbeauftragter sollte in die DSFA eingebunden werden.

Was ist das Oversharing-Problem bei Copilot?

Copilot greift auf alle Daten zu, für die ein Nutzer Berechtigungen hat — auch wenn er diese Daten im Arbeitsalltag nie aktiv nutzt. Historisch gewachsene, zu großzügige Berechtigungen führen dazu, dass Copilot sensible Informationen in Antworten einbezieht, die der Nutzer gar nicht hätte sehen sollen. Ein Berechtigungs-Audit vor dem Copilot-Rollout ist daher unverzichtbar.

Muss der Betriebsrat bei der Copilot-Einführung beteiligt werden?

Ja. Die Einführung von Copilot löst Mitbestimmungsrechte nach § 87 Abs. 1 Nr. 6 BetrVG aus, da Copilot-Nutzungsdaten Rückschlüsse auf das Arbeitsverhalten ermöglichen. Empfehlenswert ist der Abschluss einer Betriebsvereinbarung (BV KI), die den Einsatzrahmen regelt und als zusätzliche Rechtsgrundlage dienen kann.