顧客の顔をデータベースと照合して問題のある人物を特定するAIを導入した大手ドラッグストア「ライト・エイド」に対し、アメリカの連邦取引委員会(FTC)が「監視目的での顔認識技術使用の禁止」を言い渡しました。これによりライト・エイドは技術使用を5年間禁じられ、過去に収集したデータの保護を行う義務も課せられました。

Rite Aid Banned from Using AI Facial Recognition After FTC Says Retailer Deployed Technology without Reasonable Safeguards | Federal Trade Commission

https://www.ftc.gov/news-events/news/press-releases/2023/12/rite-aid-banned-using-ai-facial-recognition-after-ftc-says-retailer-deployed-technology-without



Rite Aid banned from using facial recognition software after falsely identifying shoplifters | TechCrunch

https://techcrunch.com/2023/12/20/rite-aid-facial-recognition/

ライト・エイドはかつて顧客へ知らせることなくAIベースの顔認識システムを導入し、顧客の監視やデータベースへの照合を行っていました。このシステムは、過去にライト・エイドで万引やその他の犯罪行為をしたとする人の顔画像を参照し、同じ人が来店した際に店員へアラートを発するというものでした。

しかしながら、データベース上の画像は、監視カメラや店員の携帯電話のカメラで撮影されたもの、ニュース記事から拝借したものばかりで、そのほとんどは低品質なものでした。結果的に誤検知が多発し、無関係な人が店員から退店を促されたり、公衆の面前でやってもいないことを非難されたり、時には警察に通報されたりしたこともあったそうです。



こうした点が明るみに出たことにより、FTCは調査を行った上でライト・エイドに技術使用禁止の罰を与えました。FTCは、ライト・エイドのシステムが消費者データ保護規則に違反しているとし、さらにシステムが有色人種や女性を特に誤検知しやすいという「潜在的な差別のリスク」について、ライト・エイドが改善を行わなかったことを問題視しました。

今回の措置により、ライト・エイドはこれまで収集した画像と、それらの画像から作られたシステムを削除するよう求められています。また、削除までの間、ライト・エイドは個人情報保護のための強固なセキュリティプログラムを導入しなければなりません。



FTCの消費者保護局のサミュエル・レビン局長は「ライト・エイドによる無謀な顔監視システムの導入は、顧客に屈辱や損害を与え、命令違反により消費者の機密情報を危険にさらしました。FTCは不公正な監視から国民を守るために警戒を怠りません」と述べました。