image: image: generateda at Whisk

マイクロソフトが、Microsoft 365 Copilot ChatにバグがあることをOffice管理者向けの通知で認めました。

「機密(Confidential)」の秘密度ラベルが設定されているにもかかわらず、送信済みアイテムや下書きフォルダー内のメールをCopilotが取得・要約できてしまう状態が続いていた、というものです。

いったい何が起きたのか

Microsoft 365には、メールやファイルに「機密」などの秘密度ラベル(sensitivity label)を付ける機能があります。

これはデータ損失防止(DLP:Data Loss Prevention)ポリシーの一環で、組織のセキュリティポリシーに従って情報管理を行うための仕組みです。簡単にいえば、「このメールは外部に出してはいけない」「AIに読み込ませてはいけない」といったルールをIT管理者が設定できます。

今回のバグは、このDLPポリシーがCopilot Chat上で機能していなかったというもの。マイクロソフトが管理者向けに発行した通知(管理センター上で「CW1226324」として追跡できます)によると、「機密ラベルが設定されているメールが、Microsoft 365 Copilot chatによって誤って処理されている」と説明されています。

具体的には、秘密度ラベルとDLPポリシーが設定されているにもかかわらず、ユーザーの「送信済みアイテム」や「下書き」フォルダに保存されている機密メールが、Copilotによって不適切にインデックス化され、要約の対象となっていたものです。

原因はコードのバグ、とのこと。問題は2026年1月21日にユーザーから最初に報告され、マイクロソフトは2月初頭から修正の展開を開始しています。影響を受けた顧客への確認も進めているとのことですが、影響を受けたユーザー数については明らかにされていません。

「何が問題なんです?」と聞かれたら、こう答える

image: image: generateda at Whisk

一見するとシンプルなバグの話ですが、ビジネスでMicrosoft 365を使っている人には他人事ではありません。Microsoft 365のDLPポリシーは、まさにこれらの契約交渉中のメール、人事評価、財務データといった情報をAIや外部サービスに読み込ませないために設計された機能です。それが機能していなかった、というのが問題の核心でしょう。

ところが、今回のバグはその前提を崩してしまいました。さらに厄介なのは、「設定したはずのポリシーが効いていなかった」という点です。セキュリティの問題は知らなかったより、効いていると思っていたのに効いていなかった、のほうがダメージが大きい。

管理者は自分の知らないところでCopilotが機密情報を処理していた可能性を、今さら振り返ることになります。

背景にある構造的な問題

この事案、タイミングも絶妙でした。ちょうど前日の2月17日、欧州議会のIT部門がCopilotやChatGPTなどAIツール全般を議員の業務デバイスでブロックしたと報じられたばかり。理由は「機密情報がクラウドにアップロードされるリスク」。

偶然の一致とはいえ、組織がAIに機密情報を「読まれる」リスクにどう向き合うかが、あらためて問われるタイミングになりました。

Source: TechCrunch, The Register

【こちらもおすすめ】
GIZMODO テック秘伝の書
1,650円
Amazonで見る
PR