FBIが「AIで銃乱射を防いだ」と語るもAI利用の凶悪事件は増えている
AIが学校銃乱射事件を止めた。
そう聞くと、「すごい時代になったな」と思いますよね。
でも、そのAIが別の場所では暴力事件の相談相手になっていたとしたら、どうでしょうか。
AIは便利な道具です。でも、道具だからこそ、使い方によっては毒にも薬にもなります。
では、AIは本当に社会をよくしているのでしょうか。
そんな問いを投げかける記事が、テックメディアFuturismに掲載されました。発端となったのは、FBIのカッシュ・パテル長官による発言です。彼はインタビューの中で、「AIによって学校銃乱射事件を防いだ」と語りました。
FBI長官「AIが銃乱射を止めた」
パテル長官は、ショーン・ハニティーが司会を務める番組の中で、「自分たちが来るまでFBIはAIを使っていなかった」「今ではあらゆる場所でAIを使っている」と発言しました。
さらに、民間企業からのAI関連の通報によって、ノースカロライナ州で起きるはずだった学校銃撃事件を阻止したとも語ったのです。
もちろん、AIによって危険な投稿や不穏な行動パターンを検知する試みは、実際に進んでいます。SNSや検索履歴、メッセージ内容などから異変を察知しようとする研究もあります。
その前提を踏まえた上で、Futurismは「AIは本当に暴力を止める側なのか?」と疑問を投げかけています。
現実ではAIチャットボットが暴力を後押しした事例も出ている
実際、AIチャットボットと暴力事件の関係は、ここ数年で急激に問題視されるようになってきました。
2025年に起きたフロリダ州立大学での銃撃事件では、犯人がChatGPTに大量銃撃について相談し、計画整理にも利用していたと報じられています。
さらに、カナダのタンブラー・リッジで発生した事件では、犯人とChatGPTの会話が危険すぎるとして、内部システムが自動的に警告を出していたそうです。それでも、最終的に通報は行なわれませんでした。
韓国では、連続殺人犯がChatGPTを使って犯行計画を立てた疑いも報じられています。
もちろん、AIそのものが銃を撃つわけではありません。でも、背中を押してしまう可能性はあるでしょう。
つまり今起きているのは、「AIが暴力を防ぐ未来」だけではありません。「AIが暴力に寄り添ってしまう未来」も、すでに始まっているんです。
AIは人間の“最悪”を映す鏡になるのかもしれない
それに、スタンフォード大学による研究結果では、AIチャットボットが暴力的な考えを十分に抑止できず逆に肯定的な反応を返してしまうケースも報告されています。
もちろん、AIが悪意を持って人間を煽っているわけではありません。
問題は、AIがユーザーに合わせようとすることです。
孤独な人には寄り添い、怒っている人には共感する。不安な人には肯定を返す。
その仕組み自体は、人を癒やすためのものです。でも相手が危険な状態にあるとき、その気遣いが暴力を増幅してしまう可能性があることは否めません。
AIは、人類を支配するために生まれた機械ではありません。むしろ、人間の弱さや衝動をそのまま映し返してしまう鏡のようなものなのかも。
いい使い方をすればいい結果に、悪い使い方をすれば悪い結果につながる。
だからこそ、いい結果と悪い結果のどちらか一方だけを見るのではなく、常に両方の可能性に目を向けておきたいところです。
Source: Futurism

GIZMODO テック秘伝の書
