Technologický gigant opět v problémech. Microsoft přiznává, že chyba v Officu odhalila důvěrné uživatelské e-maily
Chyba v nástroji Microsoftu umožnila umělé inteligenci pracovat i s důvěrnými e-maily, což by normálně neměla. Firma už vydala opravu.
Obsah článku
Společnost Microsoft potvrdila chybu ve svém AI nástroji Microsoft 365 Copilot, který je součástí balíku Microsoft Office / Microsoft 365. Problém způsobil, že Copilot Chat mohl shrnovat i e-maily označené jako „důvěrné“, přestože měly být chráněny pomocí zásad prevence úniku dat (DLP) a štítků. Redakce Mobify zaznamenala, že i když měl systém respektovat bezpečnostní nastavení organizací, obcházel je.
Umělá inteligence nerespektovala nastavení důvěrnosti
Problém, s nímž Microsoft tentokrát přišel, interně označený jako CW1226324, byl odhalený 21. ledna 2026. Kvůli chybě v kódu mohl Copilot načítat položky ze složek, které měly být chráněny důvěrnými štítky. I když tedy firma nastavila, že určité e-maily nesmí být sdíleny či analyzovány, AI asistent toto omezení nerespektoval a dokázal jejich obsah zahrnout do odpovědí nebo shrnutí.
Zásady DLP (Data Loss Prevention) slouží právě k ochraně citlivých dat před únikem, informuje Microsoft. Podle dostupných informací začala firma s opravou chyb CW1226324 začátkem února a situaci dále sleduje. Zároveň má kontaktovat dotčené zákazníky po úplném nasazení opravy.
Někdy tak k potížím není třeba ani zásah zvenčí. Tento incident ovlivnil důvěru uživatelů. Když firma investuje do nastavení důvěrných štítků a pravidel ochrany dat, lidé logicky čekají, že budou bez výjimek dodržována. Je třeba myslet na to, že integrace umělé inteligence do pracovních nástrojů přináší nová rizika. AI totiž pracuje s velkým objemem dat a jakákoli chyba v oprávněních může vést k nechtěnému zpřístupnění informací.
Nešťastné načasování vzhledem k zákazu Evropského parlamentu
Průšvih navíc přišel v době, kdy je to chvíli, co Evropský parlament zakázal používání některých AI nástrojů na pracovních zařízeních. Důvodem byly obavy z přenosu dat do cloudového prostředí a nedostatečné kontroly nad tím, jak jsou zpracovávána, informoval TechRadar.
Přitom dle našeho názoru musí firmy jasně vědět, kde jejich data končí a kdo k nim má přístup, byť jde „pouze“ o interního asistenta. Uživatelé by tedy měli:
- Ověřit, že mají nasazené nejnovější aktualizace Microsoft 365
- Zkontrolovat konfiguraci DLP a citlivostních štítků
- Monitorovat, jaké informace AI nástroje generují a z jakých zdrojů čerpají
- Zvážit omezení přístupu AI k určitým složkám, pokud to pracovní politika umožňuje
V tomto případě mluvíme o selhání ochranného mechanismu. Právě to může být do budoucna ještě nebezpečnější, pokud by tedy podobná chyba zůstala bez reakce firmy a opravy delší dobu.