X(旧Twitter)が「合意のない親密なメディア(NCIM)」にどう対応しているのか、実際にディープフェイクポルノ画像を用意して行った研究により、NCIMとして報告しても何も対応がなかった一方で、「著作権侵害」で報告すると25時間以内にすべての画像が削除されるという対応の違いが明らかになりました。

[2409.12138] Reporting Non-Consensual Intimate Media: An Audit Study of Deepfakes

https://arxiv.org/abs/2409.12138



Twitter Acts Fast on Nonconsensual Nudity If It Thinks It’s a Copyright Violation

https://www.404media.co/twitter-acts-fast-on-nonconsensual-nudity-if-it-thinks-its-a-copyright-violation/

X ignores revenge porn takedown requests unless DMCA is used, study says - Ars Technica

https://arstechnica.com/tech-policy/2024/10/study-fastest-way-to-get-revenge-porn-off-x-is-a-dmca-takedown/

研究はミシガン大学のリー・チーウェイ氏らが行ったもの。論文公開サイト・arxivに投稿され、記事作成時点で査読中となっています。

「合意のない親密なメディア(Non-Consensual Intimate Media:NCIM)」は、描写された人の合意なく撮影・作成されたヌードや性的行為を含む画像・動画を指します。画像のみを指す場合は「合意のない親密な画像(Non-Consensual Intimate Image:NCII)」とも呼ばれます。

AIの進化によってフェイク画像やフェイク動画、いわゆる「ディープフェイク」の制作が容易になり、中には学生が同級生の写真をもとにディープフェイクポルノを作成している事例もあります。こうして作成されたディープフェイクポルノはNCIMに相当します。

AIが生成した「クラスメイトの女子高生の偽ヌード写真」を男子高生がグループチャットで共有したとして警察が捜査を開始 - GIGAZINE



リー氏らは、NCIMに見えるディープフェイクポルノ画像を50枚生成して、Xに投稿。このうち25枚は「NCIM」であるとして通報し、残り25枚は「著作権侵害」であるとしてデジタルミレニアム著作権法(DMCA)に基づく削除要請通知を行いました。

その結果、NCIMで通報した画像は3週間以上待っても一切削除が行われなかったのに対して、著作権侵害で通報した画像は25時間以内にすべての画像が削除されたとのこと。

対応の違いは、DMCAでは有効な削除申請があった場合に速やかに対応することが義務づけられているからだとリー氏らは考えており、NCIMのネットからの削除に的を絞った法律の必要性があると指摘。また、SNS上のNCIMを監査するための倫理的配慮についても議論の必要があると述べました。

なお、ニュースサイトの404mediaは、写真は写真家の著作権で保護されるため、必ずしもNCIMの被害者がDMCAを利用して画像・動画を削除してもらえるわけではないと指摘しています。