実在する女性の写真からAIで勝手にヌード画像を生成するサービスが34も登場し利用者が2400万人もいるとレポートされる
ソーシャルネットワーク分析企業のGraphikaによると、AIを使って女性の写真からヌード画像を生成するサービスが増加しており、2023年9月だけで2400万人がアクセスしていると報告しています。
A Revealing Picture
https://graphika.com/reports/a-revealing-picture
AI ‘Nudify’ Apps That Undress Women in Photos Soaring in Use - Bloomberg
Graphikaによれば、AIによって任意の写真に写っている人物を勝手にヌード化するNCII(non-consensual intimate imagery、非同意の親密な画像)生成サービスは、ソーシャルメディアで宣伝されており、AIによるNCII生成サービスの宣伝スパムの量は、2023年の初め以来、RedditやXなどで2000%以上に増加しているとのこと。
また、Graphikaが特定したNCII生成サービス34件のユニークユーザー数は、2023年9月時点で2400万人に及ぶそうです。さらに、サービスのアクセスには暗号化メッセージングアプリのTelegramが利用されており、少なくとも100万人のユーザーが確認されています。
Graphikaは、こうしたNCII生成サービスは、オープンソースで開発される画像生成AIの機能とアクセシビリティの向上によって支えられていると評価しており、多くのプロバイダーが写真のようにリアルなヌード画像を大規模かつ簡単で安価に作成できるようになっていることでますます拡大していると指摘しています。
NCII生成サービスに使われる元の画像はソーシャルメディアから取得されたものが多く、対象者の同意なく勝手に生成・配布されることがほとんどであり、法的および倫理的にも大きな問題をはらんでいます。
特に、Xに投稿されたNCII生成アプリを宣伝する画像には、「顧客がヌード画像を作成し、その画像をヌード化された人に送ることができる」ことを示唆する文言が使われており、嫌がらせを扇動しているといえます。Bloombergは、こうしたアプリの中にはGoogleやYouTubeに広告費を支払っているものもあると指摘しています。
Googleの広報担当者は「私たちは性的に露骨な内容を含む広告を許可していません。私たちは問題の広告を見直し、ポリシーに違反するものを削除しています」と述べています。
Redditの広報担当者は「私たちはねつ造された性的な素材を非同意で共有することを禁止しており、調査の結果、いくつかのドメインを禁止しました」と報告しています。Xはコメント要請に応じませんでした。
電子フロンティア財団のサイバーセキュリティ担当ディレクターであるエヴァ・ガルペリン氏は「NCII生成サービスの被害者の多くは自身のヌード画像を勝手に生成されていることを知ることはありません。たとえ知ったとしても、法執行機関に捜査を依頼したり、法的措置を追求したりするのは苦労するかもしれません」とコメントしています。
AIで顔と裸を合成する「ディープフェイクポルノ」の被害に遭った女子高生たちにほとんど救済の道がないことが問題に - GIGAZINE