Appleアップルは今年8月に児童虐待対策をiPhoneやMacに導入すると発表しましたが、対策の一つとしてCSAM(Child Sexual Abuse Material)、すなわちiCloudに保存される児童の性的虐待画像を自動的にスキャンする仕組みが含まれており、議論の対象となっていました。しかしこのたび、同社が「児童に対する保護の拡大(Expanded Protections for Children」ページから全てのCSAMに関する記述を削除したことが明らかとなりました。本
ランキング
- 総合
- 国内
- 政治
- 海外
- 経済
- IT
- スポーツ
- 芸能
- 女子