ストーカーがAIを使って被害者になりすますチャットボットを作り嫌がらせをした初の刑事事件

AI技術の発達により、本物と見間違えてしまう画像や、人間と会話していると勘違いしてしまうほど高度なチャットボットなどを作成することができるようになりました。マサチューセッツ州で告訴されたストーカー事件は、チャットボットにストーカー被害者の情報を学習させることでその人になりすまして嫌がらせをした初めての事件として報道されています。
A man stalked a professor for six years. Then he used AI chatbots to lure strangers to her home | Technology | The Guardian

マサチューセッツ州に住むジェームズ・フローレンス容疑者は、元友人である女性に対し、自宅から下着を盗んだりいたずら電話をしたりといったストーカー行為を2017年から2024年にかけて継続していました。ストーカー行為は身体的に危険を感じると警察に訴えられるまでエスカレートし、被害者および被害者の夫は監視カメラの設置や催涙スプレーの携帯など対策を要するほどでした。
このストーカー事件で特殊だったのは、嫌がらせの一環としてチャットボットが使われていた点にあります。裁判所文書によると、容疑者は特定のキャラクター付けされたチャットボットと友人として話したり性的な会話をしたりできるCrushOn.aiや、さまざまな属性のチャットボットを検索して対話できるJanitorAIといったプラットフォームを使用していたとのこと。

AIでチャットボットを作成できるプラットフォームの多くは、ユーザーが独自のチャットボットを設計し、会話するキャラクターの属性や詳細を設定することができます。容疑者は被害者のリアルな住所、生年月日、家族情報等の個人情報と職業情報をチャットボットに入力した上で、性的な傾向を強くした「なりすましチャットボット」を作成しました。チャットボットの説明文には、「『被害者の実名』は既婚で、大学に務めています。彼女をどうやって誘惑しますか。そして、誘惑したらこの既婚女性をどうしますか?」と記載されていました。
なりすましチャットボットはどんな下着を身に付けるのが好きかといったような会話相手を性的にあおる会話をするほか、チャットボットのユーザーに対し「うちに来ない?」と提案するようにカスタマイズされていました。そこで提示される住所が本物の被害者のものであったため、チャットボットに誘導された見知らぬ人が被害者宅の目の前に車をとめるケースが発生したそうです。
マサチューセッツ州連邦裁判所に告訴されたこの訴訟は、チャットボットを使って被害者になりすまし、犯罪を遂行したとしてストーカーが起訴された初のケースとみられています。性的暴力に反対する非営利団体で公共政策担当副社長を務めるステファン・タークハイマー氏は「この被告は嫌がらせや恐喝をしていましたが、それは昔から行われてきたことです。しかし、彼がここで使うことができた手段は、被害を非常に悪化させました。この事件は、ストーカーが被害者を狙うという、AIの新たな『非常に不穏な』使用法を明らかにしています」と指摘しました。
容疑者はなりすましチャットボットの被害者のほかにも7人の女性をターゲットにしており、写真を加工してセミヌードを作ったりFacebookなどでなりすましアカウントを作成したりしていました。AIを用いたこのような被害は、男子学生が女子の「ディープヌード」を作成する問題が深刻化しているという報告や、児童ポルノをAIで作るツールを取り締まる法律をイギリスが制定しているなど、近年注目が高まっています。タークハイマー氏は「AIが性的虐待の効率を高め、被害を拡大させているという問題が現在も続いており、その問題は拡大し続けています。AI技術にアクセスできる人が増えれば増えるほど、人々に危害を加えるために利用される可能性も高まります」と述べています。
