Microsoft Copilot Bug legte vertrauliche E-Mails offen: Was Unternehmen jetzt wissen müssen

a couple of blue boxes sitting on top of a table
Photo by Google DeepMind on Unsplash

Stand: 18. Februar 2026

Das Wichtigste in Kürze

  • Microsoft bestätigte einen Programmierfehler in Microsoft 365 Copilot Chat, der seit Januar 2026 vertrauliche E-Mails trotz Schutzlabels verarbeitete
  • Betroffen sind zahlende Microsoft 365 Copilot-Nutzer; ein Patch-Rollout begann am 10. Februar 2026
  • Die KI-gestützte Chat-Funktion fasste Inhalte aus Ordnern wie „Gesendete Elemente“ und „Entwürfe“ zusammen, obwohl DLP-Richtlinien dies verhindern sollten
  • Experten sprechen von einem „Daten-GAU“ und warnen vor systemischen Datenschutzrisiken bei KI-Integrationen in Produktivsoftware
  • Der Vorfall reiht sich ein in eine Serie von Datenschutzpannen bei Microsoft-KI-Tools wie Windows Recall

Bug umging Sicherheitsmechanismen seit Januar 2026

Microsoft hat am 3. Februar 2026 im offiziellen Advisory CW1226324 einen schwerwiegenden Programmierfehler in Microsoft 365 Copilot Chat bestätigt. Laut TechCrunch ermöglichte der Bug seit Januar 2026 die Zusammenfassung vertraulicher E-Mails durch die KI-Funktion, selbst wenn diese mit Sensitivity Labels (Vertraulichkeitskennzeichnungen) geschützt waren oder unter Data Loss Prevention (DLP)-Richtlinien fielen.

In der offiziellen Mitteilung schreibt Microsoft: „Users‘ email messages with a confidential label applied are being incorrectly processed by Microsoft 365 Copilot chat“ (eigene Übersetzung: „E-Mail-Nachrichten von Nutzern mit einer als vertraulich gekennzeichneten Markierung werden von Microsoft 365 Copilot Chat fehlerhaft verarbeitet“).

Der Fehler wurde am 21. Januar 2026 entdeckt. Microsoft begann erst am 10. und 11. Februar 2026 mit dem Rollout eines Patches und informierte betroffene Nutzer. Ein weiteres Update war für den 18. Februar 2026 angekündigt. Wie viele Kunden konkret betroffen sind, teilte das Unternehmen nicht mit.

Copilot Chat: KI-Zugriff auf sensible Unternehmensdaten

Microsoft 365 Copilot Chat ist eine KI-gestützte Funktion, die in Office-Anwendungen wie Outlook, Word, Excel und PowerPoint integriert ist. Sie nutzt Nutzerdaten – darunter E-Mails, Dokumente und andere Dateien – um Zusammenfassungen zu erstellen und Fragen zu beantworten. Die Funktion greift über die Registerkarte Work auf Unternehmensinformationen zu.

Der Bug betraf speziell E-Mails aus Ordnern wie „Gesendete Elemente“ und „Entwürfe“. Trotz eingebauter Schutzmechanismen wie DLP-Richtlinien und Vertraulichkeitslabels wurden sensible Inhalte verarbeitet und in KI-generierten Antworten offengelegt – ein direkter Verstoß gegen die Sicherheitsarchitektur, die solche Zugriffe eigentlich verhindern soll.

„Das ist im Grunde der Daten-GAU, vor dem meine Wenigkeit bzw. Sicherheitsforscher immer gewarnt haben.“
— Martin Gerhardz, Autor bei Borncity.com

Wie TechCrunch berichtet, wurde der Vorfall zunächst von Bleeping Computer und Posts auf X (ehemals Twitter) öffentlich gemacht, was zu breiter medialer Aufmerksamkeit führte.

Wachsende Bedenken bei Datenschutz und KI-Integration

Der Vorfall unterstreicht grundlegende Datenschutzrisiken bei der Integration von KI in Produktivsoftware. Selbst etablierte Schutzmechanismen wie DLP-Richtlinien und Sensitivity Labels können durch Programmierfehler ausgehebelt werden – ein Problem, das das Vertrauen in Tools wie Copilot erschüttert.

Dies ist nicht der erste Datenschutzvorfall bei Microsoft-KI-Tools. Bereits zuvor stand Windows Recall in der Kritik, weil es sensible Daten wie Kreditkarteninformationen erfasste. Der aktuelle Bug reiht sich in eine Serie von Pannen ein, die systemische Herausforderungen beim KI-Datenzugriff offenlegen.

Auch das Europäische Parlament reagierte auf Datenschutzbedenken: Die IT-Abteilung blockte kürzlich die eingebauten KI-Features auf Dienstgeräten der Abgeordneten, da Bedenken bestehen, dass die Tools potenziell vertrauliche Korrespondenz in die Cloud hochladen könnten.

Empfehlungen für Unternehmen und rechtliche Konsequenzen

Für Unternehmen, die Microsoft 365 Copilot einsetzen, bedeutet der Vorfall eine verstärkte Notwendigkeit für Risikomanagement. Datenschutzexperten raten zu folgenden Maßnahmen:

  • Zugriffsbeschränkungen prüfen: Welche Daten kann Copilot tatsächlich einsehen?
  • Sensible Informationen isolieren: Vertrauliche Daten sollten nicht in Systemen gespeichert werden, auf die KI-Tools Zugriff haben
  • Deaktivierungsoptionen nutzen: Unternehmen sollten prüfen, ob sie KI-Features für bestimmte Abteilungen deaktivieren können
  • Transparenz einfordern: Welche Daten werden wie verarbeitet und wo gespeichert?

Wie E-Recht24.de erklärt, besteht bei Copilot grundsätzlich das Risiko, dass Unternehmensdaten wie E-Mails oder Dokumente ohne explizite Zustimmung verarbeitet werden – ein potenzieller Verstoß gegen die DSGVO.

Für die Tech-Branche bedeutet der Vorfall verstärkte regulatorische Anforderungen. Unternehmen, die KI-Tools entwickeln, müssen nachweisen, dass ihre Sicherheitsmechanismen auch unter realen Bedingungen funktionieren. Der Bug könnte Microsofts KI-Push bremsen und Wettbewerber – insbesondere Open-Source-Alternativen mit mehr Transparenz – stärken.

Fazit: Vertrauen durch Transparenz wiederherstellen

Der Microsoft Copilot Bug offenbart eine unbequeme Wahrheit: Selbst bei etablierten Technologiekonzernen können Sicherheitsmechanismen versagen, wenn KI-Systeme auf sensible Daten zugreifen. Für Unternehmen bedeutet dies, dass sie KI-Integrationen kritisch prüfen und nicht blind auf Herstellerangaben vertrauen sollten.

Microsoft betont in seiner offiziellen Dokumentation zwar die Isolation von Kundendaten via Entra ID und Verschlüsselung, doch der aktuelle Vorfall zeigt praktische Lücken in der Umsetzung. Langfristig wird entscheidend sein, ob Microsoft das Vertrauen durch verbesserte Transparenz, unabhängige Audits und härtere Tests vor der Produkteinführung wiederherstellen kann.

Die Botschaft für die gesamte KI-Branche ist klar: Innovation darf nicht auf Kosten der Datensicherheit gehen. Nur durch rigorose Sicherheitsstandards und offene Kommunikation bei Pannen kann das Vertrauen in KI-gestützte Produktivtools langfristig erhalten bleiben.

Einordnung von kabel-salat.info

Bei kabel-salat.info bewerten wir solche Vorfälle als Signal für die Reifephase von KI im Arbeitsalltag: Der Nutzen ist hoch, aber Governance und Zugriffskontrolle entscheiden darüber, ob aus Produktivität ein Sicherheitsrisiko wird. Für Teams heißt das: KI-Einführung ist kein reines Tool-Thema, sondern Teil von Compliance, Datenschutz und operativer Verantwortung.

Was bedeutet das konkret für Leserinnen und Leser?

Für Leserinnen und Leser in Unternehmen bedeutet das: Verlassen Sie sich nicht auf Standard-Einstellungen. Prüfen Sie, welche Datenquellen Copilot sehen darf, setzen Sie das Need-to-know-Prinzip technisch durch und etablieren Sie einen kurzen Incident-Check für KI-Fehlzugriffe. Wer das früh sauber aufsetzt, reduziert Folgekosten und Diskussionen mit Datenschutzbeauftragten deutlich.

Fazit: Prüfen Sie diese Woche die Copilot-Berechtigungen in Ihrem Unternehmen, beschränken Sie den Zugriff auf sensible Postfächer und dokumentieren Sie einen klaren Freigabeprozess für KI-gestützte E-Mail-Zusammenfassungen.

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen