ーーーー



Appleは2021年8月に「iPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐ機能」を発表し、いくつかの機能がプライバシーの問題で抗議を受けたものの、12月にはアメリカ国内限定でiOSに導入されていました。The Guardianが2022年4月20日に報じたところによると、この児童保護のための安全機能はまもなくイギリスのiPhoneにも導入され、今後より拡大していくことが期待されています。

Apple to roll out child safety feature that scans messages for nudity to UK iPhones | Apple | The Guardian

https://www.theguardian.com/technology/2022/apr/20/apple-says-new-child-safety-feature-to-be-rolled-out-for-uk-iphones

About communication safety in Messages - Apple Support

https://support.apple.com/en-us/HT212850

現地時間の2021年8月5日にAppleが発表した「子どものための拡張された保護」のための機能は、「児童の性的搾取に関するデータ(CSAM)がメッセージアプリでやり取りされる際に警告を表示」「iCloud写真に保存されているデータを検査してCSAMを検出」「Siriと検索機能からCSAMに関する報告を可能にする」という3項目が挙げられていました。しかし、「ユーザーのiCloud写真の中身をチェックするのはプライバシーの侵害」と批判が寄せられたり、社内でも懸念の声が集まっていると報道されたり、90の人権団体らが抗議書簡を公開したりと大きな反発を受け、同年9月には新機能のリリース延期を発表しました。

AppleがiPhoneの写真やメッセージをスキャンして児童の性的搾取を防ぐと発表、電子フロンティア財団などから「ユーザーのセキュリティとプライバシーを損なう」という抗議の声も - GIGAZINE



2021年12月13日のiOS15.2アップデートにて、アメリカ国内のiPhone限定で「メッセージの通信安全」機能が導入されました。ただ、多くの批判を受けて「デフォルトではオフになっており、設定から機能の導入を選択できる」「家族グループの設定がある子ども用iPhoneに対してのみ設定可能」という点や、「メッセージアプリ上の添付ファイルを分析してヌードを検知するのはiPhone上のみで行われ、Appleが写真にアクセスできないように設計されています」と付記されるなど、機能は当初の発表から大きく修正されており、プライバシーの問題を解決できているとAppleは主張しています。

「メッセージの通信安全」機能をオンにすると、メッセージ上にヌード画像を検知した際に画像にぼかしを入れて視認できなくした上で、「誰かに連絡をする」「連絡先をブロックする」などの子どもが助けを求められる選択肢を表示します。



また、警告を見た上でヌードを送受信することを選択した場合にも、本当に子どもがそれを望んでいるかを再確認し、望まずに行おうとしているケースへの呼びかけやヘルプの案内を表示します。これらのヌード画像の検知や警告の表示はあくまで機械学習によってiPhone上のみで行われ、画像やメッセージの内容がAppleや親のiPhoneに伝わるというようなことはないとのこと。



このような機能がアメリカだけではなくイギリスのiPhoneにも導入されると、The Guardianが2022年4月20日に報じています。The Guardianに送られたAppleの声明によると「機能はヌードの検出がデバイスから出ないように設計されています。Appleはメッセージにアクセスできず、親や他の人に通知は送信されません」とされており、当初計画されていた「ヌードの送受信を選択した際にユーザーの親へ通知」する機能は最新のアップデートには含まれていないことが確認できたとThe Guardianは述べています。この機能は数週間以内にソフトウェアアップデートの一部として展開され、iPhone、iPad、Macのメッセージアプリで利用できるようになるとAppleは発表しています。