
Microsoft preist Copilot seit Monaten als „sicheren KI‑Assistenten für Unternehmen“ an, aber ein aktueller Vorfall zeigt, wie sensibel und in Wahrheit verschwommen die Grenze zwischen Einhaltung und Nichteinhaltung der Datenschutz-Einstellungen sein kann. Es ist ein Fehler, der in vielen Unternehmen das das Fundament von Vertrauen und Datenschutz ins Wanken bringt.
Copilot Chat hat ohne Erlaubnis vertrauliche E‑Mails analysiert
Was eigentlich unmöglich sein sollte, ist seit Januar beim Copilot-Chat für Unternehmenskunden passiert: Der Microsoft 365 Copilot hatte vertrauliche, geschützte E‑Mails gelesen, sprich automatisch analysiert und zusammengefasst. Die Nachrichten waren dabei von den Unternehmen bewusst mit dem Label „Confidential“ markiert worden, also als vertraulich, sodass sie das KI-System vollständig hätte ignorieren sollen.
Microsoft spricht von einem Bug, der Ende Januar aufgetreten sei und erst Wochen später bemerkt wurde. … … weiterlesen →