
Microsofts Copilot ist längst kein Experiment mehr, sondern Bestandteil produktiver Arbeitsumgebungen. Was als intelligente Schreibhilfe begann, hat sich zu einem System mit weitreichenden Zugriffsmöglichkeiten auf E-Mails, Besprechungen, Dateien und Kontexte entwickelt. Datenschutzrechtlich ist das brisant.
Copilot greift auf Inhalte nicht nur zu, sondern strukturiert sie, interpretiert sie und verknüpft sie. Microsoft integriert darüber hinaus die KI in zahlreichen Anwendungen, auch als Side-to-Side-Option direkt in Word und Excel.
Vom Helfer zum Beobachter
Der Zugriff auf SharePoint-Dokumente, Outlook-Konversationen oder Teams-Chatverläufe ist für Copilot meist der Standardfall. Die KI operiert nicht in einer isolierten Umgebung, sondern bewegt sich entlang der Berechtigungsstruktur von Entra ID, berücksichtigt Dateizugriffe und Rollen, zieht sich Kontext aus Projektordnern oder One-Note-Notizen, solange der Zugriff technisch erlaubt ist. Allerdings ersetzt die technische Möglichkeit keine rechtliche Prüfung. Wenn jemand über Copilot vertrauliche Personalnotizen zu Gesicht bekommt, weil sie fälschlich freigegeben wurden, ist der Schaden da und lässt sich nicht mit einem IT-Ticket beheben.
KI in Browsern: ein neues Risiko für Daten
Was im Office-Umfeld beginnt, setzt sich im Browser fort. Edge bringt Copilot standardmäßig mit. Hinzu kommen unzählige Erweiterungen, die auf Basis von Machine-Learning-Modellen (LLMs) Inhalte zusammenfassen, analysieren oder neu generieren. Fast immer findet die Verarbeitung auf externen Servern statt, oft in den USA, selten ist sie nachvollziehbar. Die Nutzer und Nutzerinnen merken davon wenig, die Daten schon. Wenn Sie interne Protokolle, Meetingnotizen, Finanzdaten im Browser zusammenfassen lassen, reichen Sie sie weiter – nicht an eine Maschine, sondern an ein Unternehmen, das aus diesen Daten lernt. Meist geschieht das ohne Einwilligung, ohne Kontrolle und ohne Folgenabschätzung.
Vorsicht
Dass künstliche Intelligenz im Browser integriert ist, betrifft nicht nur Copilot. Chrome wird zunehmend von Gemini durchdrungen, auch Firefox und Safari testen erste tiefere KI-Integrationen.
Verstecktes Training und offene Fragen
Viele LLMs leben vom sogenannten Inferenz-Feedback. Sie speichern die Eingaben nicht nur temporär, sondern ziehen daraus neue Lernmuster. Zwar liefern Anbieter wie Microsoft, Google oder OpenAI inzwischen Opt-out-Möglichkeiten, doch bleiben Fragen offen. Wie konsequent werden Daten wirklich gelöscht? Wie lange bleiben sie im Cache? Und vor allem: Wer garantiert, dass Unternehmensdaten nicht doch als abstrakte Muster ins Modell einfließen? Solche Fragen beschäftigen längst nicht nur Datenschutzexperten, sondern auch Compliance-Abteilungen. Besonders kritisch wird es, wenn personenbezogene Daten betroffen sind. Im juristischen Sinn beginnt das bereits bei Namen, IP-Adressen oder Meetingteilnahmen. Wer diese Informationen über KI-Dienste verarbeitet, unterliegt den strengen Regeln der DSGVO. Hieran scheitern viele Praxislösungen: Die Technik ist schneller als die Richtlinie.
KI-Agenten: nützlich, aber unberechenbar
Mit der nächsten Generation von KI kommt ein weiteres Problem hinzu. Autonome KI-Agenten führen eigenständig Aktionen aus, analysieren Daten, verknüpfen Inhalte, schreiben E-Mails und aktualisieren Kalender. Dabei nutzen sie Daten, die sie im laufenden Betrieb sammeln, darunter oft auch vertrauliche Inhalte. Während klassische KI-Systeme passiv reagieren, agieren Agenten aktiv. Sie interagieren mit Systemen, kombinieren Schnittstellen, greifen auf Cloud-Dienste zu, ohne dass klar ist, welche Daten dabei gespeichert, weitergeleitet oder analysiert werden. In Unternehmen führen solche Mechanismen schnell zum Kontrollverlust. Ein KI-Agent unterscheidet nicht zwischen öffentlichen und internen Informationen. Er greift auf das zu, was technisch möglich ist. Und das ist oft zu viel.
Technologischer Fortschritt ohne ethischen Kompass
Die Integration von KI in den digitalen Arbeitsplatz vollzieht sich mit einer Geschwindigkeit, die nicht nur juristische, sondern auch ethische Maßstäbe überholt. Dabei wird häufig übersehen, dass jede Interaktion mit einem Sprachmodell ein Stück organisationales Wissen preisgibt. Der Dialog mit Copilot ist keine Kommunikation im luftleeren Raum, sondern eine strukturierte Übergabe von Kontext, Intention und Semantik an ein externes System.
Diese Entgrenzung zwischen menschlicher Entscheidung und algorithmischer Interpretation verleiht dem Begriff der digitalen Assistenz eine neue Dimension. Es geht längst nicht mehr nur um Funktionalität oder Effizienz, sondern um Macht über Bedeutungsräume: Wer darf für wen Wissen generieren? Wer kontrolliert, welche Zusammenhänge sichtbar werden und welche nicht? In dieser Unschärfe entstehen neue Abhängigkeiten, die mit Datenschutz im engeren Sinne kaum mehr zu fassen sind. Es ist die Infrastruktur selbst, die zum Akteur wird und damit zur ethischen Herausforderung.
Verantwortung liegt nicht beim Nutzer allein
In vielen Unternehmen herrscht der Irrglaube, man müsse lediglich auf die Nutzer und Nutzerinnen aufpassen, Datenschulungen, Richtlinien und Unterschriftenregelungen anbieten. Doch das reicht nicht. Wer KI in den Alltag integriert, muss die Infrastruktur kontrollieren: Welche Dienste sind aktiv? Welche Erweiterungen installiert? Welche Browser im Einsatz? Welche Daten werden verarbeitet, wohin übertragen, wie gespeichert? Die zentralen Admin-Konsolen von MS 365 und Google Workspace bieten erste Ansatzpunkte. Gruppenrichtlinien können Erweiterungen blockieren, Berechtigungen einschränken, Browserfunktionen begrenzen. Doch auch das setzt Wissen voraus und die Bereitschaft, sich mit der Technik auseinanderzusetzen. Viele Admins wissen nicht einmal, dass Copilot im Hintergrund bereits auf Nutzerinhalte zugreift.
Was erlaubt ist, ist nicht automatisch richtig
Ein pauschales Verbot für Copilot oder vergleichbare KI-Dienste im Unternehmen ist meist nicht sinnvoll. Doch jede Nutzung muss dokumentiert, geprüft und begründet sein. Die DSGVO verlangt eine Interessenabwägung und bei sensiblen Daten eine Datenschutzfolgenabschätzung. In vielen Fällen fehlt beides. KI wird installiert, weil sie verfügbar ist, nicht weil sie geprüft wurde. Darin liegt die größte Gefahr. Der Schein der Professionalität überdeckt die Realität der Datenverarbeitung.
Wer Copilot in MS 365 einsetzt, muss wissen, welche Modelle dahinterstehen, wie sie trainiert werden und welche Datenströme dabei entstehen. Microsoft bietet zwar Dokumentationen, aber keine Garantie, dass alle Datenverarbeitungen im europäischen Rechtsraum stattfinden. Gleiches gilt für Gemini in Google Workspace. Und selbst wenn der Anbieter versichert, keine Nutzerdaten für Trainingszwecke zu verwenden, fehlt oft der technische Nachweis.
Tipp 1: Duck.ai verwenden
Dass es mit dem Datenschutz auch anders geht, beweist Duck.ai. Der KI-Dienst der Betreiber von DuckDuckGo arbeitet ohne Accountbindung, ohne IP-Tracking und ohne serverseitige Analyse. Eingaben und Ausgaben bleiben im Browser, die Modelle laufen isoliert, Anwender und Anwenderinnen behalten die Kontrolle über ihre Inhalte. Zwar bedeutet das weniger Komfort, keine Datei-Uploads und keinen Verlauf, doch dafür eine selten gewordene Hoheit über die eigenen Daten.
Benötigen Sie die Zusammenfassung eines Dokuments oder wollen Sie KI im Webbrowser für Aufgaben nutzen, dann sollten Sie im Browser „duck.ai“ eingeben. Damit haben Sie Zugriff auf relevante KI-LLMs, müssen sich aber weder registrieren, noch speichert der Webdienst Daten. Alles bleibt direkt im Webbrowser. Die Verwendung ist recht einfach. Sie rufen die Webseite auf und wählen im oberen Bereich das von Ihnen bevorzugte LLM aus. Danach können Sie mit der KI chatten, ohne zu riskieren, heikle Daten preiszugeben, die durch US-amerikanische Unternehmen zum Training der eigenen KI-Lösung genutzt werden.
Duck.ai zeigt damit, was viele Anbieter nicht ermöglichen: Datenschutz und KI schließen sich nicht aus. Es ist eine Frage der Architektur, nicht der Technik. Wer auf Profiling verzichtet, nicht trackt und keine Metadaten speichert, kann dennoch leistungsfähige Modelle anbieten.
Tipp 2: Datenschutz bei ChatGPT verbessern
Nutzen Sie ChatGPT und haben ein Konto beim Dienstleister angelegt, können Sie über die Einstellungen Ihres Kontos wichtige Einstellungen für den Datenschutz vornehmen. Rufen Sie in den Einstellungen den Menüpunkt „Datenkontrollen“ auf. Deaktivieren Sie die Option „Das Modell für alle verbessern“. Ist diese Option aktiviert, lernt die KI von Ihren Eingaben und nutzt die übermittelten Daten auch in anderen Chats für andere Benutzer und Benutzerinnen. Das Deaktivieren dieser Option verhindert das.
Tipp 3: Nutzen Sie Copilot mit Unternehmensdatenschutz in MS Edge
Arbeiten Sie mit MS 365 und MS Edge, können Sie sich am Browser mit Ihrem Konto aus Microsoft 365 (Entra ID) anmelden. Wenn Sie danach auf Ihr Profilfoto oben rechts im Browser klicken, sehen Sie, dass MS Edge das Konto als „Geschäftlich“ einstuft. Klicken Sie jetzt im Browser auf das Copilot-Symbol, sehen Sie wiederum ein grünes Schildsymbol. Fahren Sie mit der Maus über dieses Symbol, erscheint die Meldung „Unternehmensdatenschutz gilt für diesen Chat“. Das stellt sicher, dass alle Daten, die Sie in diesem KI-Chat mit Copilot nutzen, nicht zum Training der KI-Lösung genutzt werden. Sie sollten bei der beruflichen Nutzung von KI daher möglichst auf diese Funktionen setzen und keinesfalls mit einem privaten Konto Copilot nutzen. Denn in diesem Fall gelangen die Daten, die Sie eingeben, in den Trainingspool der KI.
In Windows 10 und Windows 11 ist MS Edge vorinstalliert und Sie können den Browser parallel mit anderen Browsern nutzen, zum Beispiel Google Chrome. Erweiterungen, die Sie in Google Chrome installiert haben, übernimmt Edge automatisch. Beide Browser nutzen die Chromium-Engine für das Browsen im Internet und verwenden daher die gleichen Daten.
Fazit: Zwischen Effizienzgewinn und Kontrollverlust
KI bringt Effizienz. Das ist unbestreitbar. Doch mit der Effizienz kommt auch eine neue Form der Transparenz, und zwar dort, wo sie nicht erwünscht ist. Wer im Unternehmen Copilot oder vergleichbare Dienste nutzt, muss genau wissen, welche Daten verarbeitet werden, wohin sie fließen, wie lange sie gespeichert bleiben und wer darauf Zugriff hat. Vor allem stellt sich die Frage, welche rechtlichen Anforderungen erfüllt sein müssen. Nicht jede praktische Lösung ist auch datenschutzkonform. Und nicht jede KI-Integration lässt sich technisch begrenzen. Der größte Fehler liegt oft im Kleinen, etwa in einem falsch konfigurierten Add-in, einer unkontrollierten Erweiterung oder einem fehlenden Opt-out in den Browsereinstellungen. Datenschutz beginnt nicht im System, sondern im Bewusstsein.
