写真共有サービスのPinterestには、投稿された画像を保存して整理する「ボード」という機能があります。Pinterestのアルゴリズムにより、ボード機能を使用して未成年の写真を簡単に集めることができてしまう問題が発生していると、アメリカのニュースメディア・NBC Newsが報じました。

Investigation: How Pinterest drives men to little girls' images

https://www.nbcnews.com/tech/internet/pinterest-algorithm-young-girls-videos-grown-men-investigation-rcna72469

Pinterest algorithms are making it easy for creeps to make boards featuring underage girls | Engadget

https://www.engadget.com/pinterest-algorithms-are-making-it-easy-for-creeps-to-make-boards-featuring-underage-girls-210216861.html

以下の画像は、NBC Newsが発見したボードの悪用例です。男性ユーザーが「ホット」などのタイトルを付けて作成したボードには、小さな女の子の画像がぎっしりと集められていたとのこと。



NBC NewsがPinterestにアカウントを作成し、1カ月間かけて小さな女の子数百人のアカウントのフォロワーを調べたところ、その大半は男性でした。また、そのようなアカウントや画像を見つけやすいPinterestのレコメンデーションアルゴリズムも問題視されています。例えば、Pinterestで「ホットな子ども」と検索した結果、アルゴリズムにより薄着の子どもが大量に表示されてしまいました。



このような画像や動画には、子どもがパジャマや下着、水着、体操着などの服装でおどけた表情をしたり、寝室で踊ったり、開脚などのポーズをとったりしているものが紛れていました。これについて、カナダ子ども保護センターで子どもの性的搾取を防止するための活動をしているスティーブン・ザウアー氏は、「無邪気に投稿された資料が、子どもへの性的関心を満たすために使用されています」と指摘しています。



9歳の娘に、TikTokの代わりにPinterestを使うことを許可したという母親のナタリアさんは、「私はショックを受けると共に、失望しています。Pinterestはクリエイティブで、インスピレーションを与えてくれる場所だと思っていました」とNBC Newsに話しました。

NBC Newsの調べでは、Pinterestの画像や動画の中に「児童性的虐待のコンテンツ(CSAM)」は見つからなかったとのこと。しかし、ある女の子が元気に側転をしている動画を調べたところ、少なくとも50人のユーザーが「若い女の子」「セクシーな女の子」「ホット」「デリシャス」などのタイトルを付けた自分のボードにその動画を保存しており、そうしたボードにはしばしば数十枚から数百枚、時には数千枚もの子どもの写真や動画がまとめられていました。

Pinterestではポルノが禁止されており、「ヌードやポルノ」という通報カテゴリはありますが、このように未成年が含まれるコンテンツを性的に扱う行為に直接対処する仕組みはまだありません。

Pinterestの広報担当者であるクリスタル・エスピノーサ氏は声明で、「Pinterestは未成年者を搾取したり危険にさらしたりする可能性のあるコンテンツに対して、厳格なゼロ・トレランス・ポリシーを適用しています。それ以外の無害または性的ではない画像を含んでいても、性的に扱われていることが示唆されるボードがあればそれを削除し、作成者のアカウントを停止しています」と話しました。

エスピノーサ氏によると、Pinterestは近いうちにユーザーがボードを通報するための新機能を追加する予定であるほか、アカウントの通報オプションを増やしたり、新しい年齢確認方法を導入したりする計画もあるとのことです。