日本時間の2024年7月14日、ドナルド・トランプ前大統領がペンシルバニア州における公衆の場での演説中に銃撃を受けるという事件が発生しました。この事件についてMetaのAIについて尋ねたユーザーが、正しい情報を返さなかったとして問題視しましたが、通常、このような生成AIは事前のトレーニングデータに基づいた回答を出すので、時事的な話題には疎いのが当然です。ただ、Metaは「AIが回答する内容をもっと早く更新するべきだった」と謝罪しました。

Review of Fact-Checking Label and Meta AI Responses | Meta

https://about.fb.com/news/2024/07/review-of-fact-checking-label-and-meta-ai-responses/



Meta apologies after its AI chatbot said Trump shooting didn’t happen - The Verge

https://www.theverge.com/2024/7/30/24210108/meta-trump-shooting-ai-hallucinations

ChatGPTなどのチャットAIは、自然な言語でいろいろなことを説明してくれますが、Google検索やWikipediaなどとは異なり知識を集積しているわけではないので、時に事実ではないことや常識外れのことを、まるで事実であるかのように説明することがあります。こうした現象は「幻覚(ハルシネーション)」と呼ばれます。

直近では、トランプ前大統領暗殺未遂事件について質問を受けたMeta AIが、そのような事件は起きていないかのように回答を行った事例を、トランプ氏支持者である@libsoftikok氏が報告しています。@libsoftiktok氏は「最も重大な事件の一つである今回の銃撃事件が、抑圧され、隠ぺいされているのを目の当たりにしている」とコメントしています。回答には、トランプ氏の暗殺未遂事件について尋ねる@libsoftiktokと、ペンシルバニア州の事件については一向に触れないAIとのやりとりが示されています。





この件について、Metaは公式見解を発表しています。

Metaは「まず、Meta AIを含むAIチャットボットが、ニュース速報やリアルタイムでの情報提供において必ずしも信頼できるとは限らないことはよく知られている問題です。簡単に言えば、チャットボットを動かすモデルは訓練データに基づいているため、AIが訓練された後に発生したリアルタイムのトピックについて尋ねられた場合はいくつかの問題を引き起こす可能性があります」と指摘。

その上で、「私たちは、暗殺未遂について間違った情報を提供させるのではなく、答えさせないようにプログラムしました。AIが事件について話すことを拒否しているという報告はこのプログラムためだと考えます。私たちはその後、暗殺未遂についての情報を更新しましたが、もっと早くこれを行うべきでした。ごく少数のケースでは、暗殺未遂は起こらなかったと断言することもありましたが、このようなタイプの回答は幻覚と呼ばれ、すべての生成AIシステムで見られる業界全体の問題です。私たちはこれらの問題に対処し、機能を改善し続けます」と述べました。



このほかにも、銃撃事件の直後に撮影された写真が微妙に改変されたものが出回り、Metaのシステムがその写真にファクトチェックラベルを付けたものの、本物の写真にまでファクトチェックラベルを付けてしまったことをMetaは謝罪しました。