Eilmeldung: Microsoft Copilot-Konfigurationsfehler legt vertrauliche Unternehmens-E-Mails offen
Microsoft hat ein kritisches Sicherheitsversagen in seinem Microsoft 365 Copilot Chat bestätigt, das es der KI ermöglichte, als vertraulich markierte E-Mails aus den Entwürfen und gesendeten Ordnern der Nutzer abzurufen und zusammenzufassen. Der Fehler, der erstmals im Januar 2026 identifiziert und vom Tech-Portal Bleeping Computer gemeldet wurde, betraf Unternehmenskunden weltweit, einschließlich der IT-Systeme von NHS England, wo die Fehlermeldung auf Support-Dashboards geteilt wurde. Laut einer internen Servicewarnung von Microsoft wurden "E-Mail-Nachrichten der Benutzer mit einer Vertraulichkeitskennzeichnung fälschlicherweise vom Microsoft 365 Copilot Chat verarbeitet", insbesondere innerhalb der Registerkarte "Arbeit", die E-Mail-Nachrichten zusammenfasst. Das Unternehmen behauptet, seine Zugangskontrollen und Datenschutzrichtlinien seien "intakt geblieben" und das Tool habe "niemandem Zugang zu Informationen gewährt, die er nicht bereits einsehen durfte", räumte jedoch ein, dass das Verhalten "nicht unserer beabsichtigten Copilot-Erfahrung entsprach, die darauf ausgelegt ist, geschützte Inhalte vom Copilot-Zugriff auszuschließen." Microsoft hat ein globales Konfigurationsupdate zur Behebung des Problems bereitgestellt und die Ursache auf ein "Code-Problem" zurückgeführt. Der NHS bestätigte, dass keine Patientendaten offengelegt wurden, doch der Vorfall zeigt eine erhebliche Lücke zwischen den Sicherheitsbehauptungen von Microsoft und der tatsächlichen Implementierung. Was diesen Vorfall von früheren KI-Sicherheitsvorfällen unterscheidet, ist sein Auftreten in Microsofts Flaggschiff-Produkt für Unternehmens-KI, das speziell für seine Sicherheitskontrollen in regulierten Umgebungen beworben wurde. Unmittelbare Reaktionen umfassen verstärkte Prüfungen durch Unternehmenssicherheitsteams und Datenschutzbeauftragte, die Copilot für den Einsatz in sensiblen Sektoren evaluiert hatten.