Appleは2021年8月にiPhone内の写真やメッセージをスキャンして児童虐待性的コンテンツ(CSAM)を削除する機能の実装予定を発表していましたが、iPhone内の情報スキャンはユーザーのプライバシーを損なうとして非難され、2022年12月には当該機能の実装が断念されたことが報じられました。新たに、Appleが児童保護団体の質問に応じる形でデータスキャン機能の実装を断念した理由を明らかにしました。

Apple's Decision to Kill Its CSAM Photo-Scanning Tool Sparks Fresh Controversy | WIRED

https://www.wired.com/story/apple-csam-scanning-heat-initiative-letter/

Appleは以前、iOS標準の「メッセージ」アプリに「CSAMにぼかしをかける機能」や「CSAMを送信しようとすると警告する機能」を盛り込んだり、iCloudに保存した写真がCSAMかを照合したり、SiriでCSAMを検索すると警告する機能を導入したりすることを目指していました。

AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も - GIGAZINE



AppleはCSAM検出ツールを2021年末までに実装予定としていましたが、発表直後から電子フロンティア財団などから「ユーザーのプライバシーを損なう」といった抗議の声が集まったことを受けて、2021年9月に実装時期の延期を発表しました。

「iPhone内の児童ポルノ画像を検知する機能」の延期をAppleが発表 - GIGAZINE



そして、Appleは2022年12月に「2021年に提案した児童保護に関する取り組みについて、専門家と幅広く協議してフィードバックを集めた結果、2021年12月に初めて提供したコミュニケーション・セーフティ機能への投資を深化させることになりました。さらに、以前提案したiCloudフォトのCSAM検出ツールの開発は進めないことを決定しました」述べ、CSAM検出ツールの実装を破棄したことを明らかにしました。ただし、2022年12月時点ではAppleはCSAM検出ツールの実装を断念した理由は明らかにしていませんでした。

Appleが「iCloudフォトに性的児童虐待の画像がないかをチェックするシステム」の実装を破棄 - GIGAZINE



新たに、Appleは児童保護団体「The Heat Initiative」からの「児童保護のために極めて重要な機能の実装を断念した理由はなぜか」という質問に答える形でCSAM検出ツールの実装を断念した理由を明らかにしました。

Appleの回答内容によると、CSAM検出ツールに必要な「iCloud上のデータをスキャンする機能」を実装すると、スキャン機能が攻撃者に悪用される可能性が生じるとのこと。また、「CSAMのスキャンを始めるとスキャン対象が次第に広がり、暗号化されたメッセージの広範なスキャンが実施されかねない」という懸念もCSAM検出ツールの実装断念につながったとされています。

なお、Appleは2021年時点ではCSAMのスキャンのために暗号化されたメッセージのスキャンなども視野に入れていましたが、記事作成時点では暗号化されたメッセージの保護に力を入れています。例えば、イギリスで「内務省に『企業にE2E暗号化機能を取りやめさせる権限』を与える」という法案が提案された際には「法案はセキュリティ保護のために却下されるべき」という声明を発表しています。

Appleがイギリスの監視法改正案に「治外法権でセキュリティリスクを招くので却下されるべき」と反発 - GIGAZINE