現地時間の2024年8月16日(金)、OpenAIがアメリカ大統領選挙を含む複数のトピックに関する偽情報をChatGPTで生成するアカウントを検出し、当該アカウントをブロックしたと発表しました。なお、ChatGPTで生成された当該コンテンツが一般のインターネットユーザーの目が届くところに投稿された兆候は確認されていないとのことです。

Disrupting a covert Iranian influence operation | OpenAI

https://openai.com/index/disrupting-a-covert-iranian-influence-operation/



OpenAI disrupts Iranian operation that used ChatGPT to for disinformation

https://www.axios.com/2024/08/16/openai-iran-disinformation-chatgpt

OpenAIはAI生成コンテンツの不正使用を防止し、透明性を向上させることに取り組んでいます。これには、背後にいる関係者の真の身元や意図を隠しながら世論を操作したり、政治的結果に影響を与えようとする影響力工作を検出して阻止したりする取り組みが含まれるそうです。2024年には世界各地で選挙が予定されているため、影響力工作を阻止することは特に重要になります。そこで、OpenAIは独自のAIモデルを駆使して不正利用を適切に検出するための取り組みを進めてきたそうです。

この不正検出AIモデルが、アメリカ大統領選挙に影響を与えるような偽情報を生成する「Storm-203」と呼ばれる影響力工作を検出したため、当該アカウントによるChatGPTへのアクセスをブロックしたと発表しています。Storm-203ではChatGPTを使用してアメリカ大統領選挙の両陣営の候補者に関するコメントを含む、さまざまなトピックに焦点を当てた偽情報が生成されており、ソーシャルメディアやウェブサイトを通じて共有されていたそうです。



ただし、OpenAIが確認したところによると、Storm-203がChatGPTで作成した偽情報を投稿したソーシャルメディアの投稿の大半は、いいね・共有・コメントがほとんどついていない「ほとんど影響のない投稿」だったそうです。OpenAIはシンクタンクのBrookingsが作成・公開している「The Breakout Scale」を使い、偽情報キャンペーンの影響力の大きさを測定(1が最低で、6が最高)しています。その結果、Storm-203は「2」(複数のプラットフォームで活動しているものの、実際の人間がそのコンテンツを入手したり広く共有したという証拠はない)と分類されました。

Storm-203ではChatGPTが「長文記事の作成」および「ソーシャルメディアでの短いコメントの作成」に利用されていたことが判明しています。「長文記事の作成」では、主にアメリカの政治や世界情勢に関する記事が作成されており、進歩派と保守派の両方の報道機関を装った5つのウェブサイトで偽情報記事が公開されました。「ソーシャルメディアでの短いコメントの作成」では英語とスペイン語の短いコメントを作成し、ソーシャルメディアに投稿しています。Storm-203では12のXアカウントと、1つのInstagramアカウントが利用されたことが検出されており、これらのアカウントが投稿するコメントの一部は実際のソーシャルメディアユーザーが投稿したコメントをChatGPTに書き換えてもらったものだったそうです。



Storm-203では主にガザでの紛争、オリンピックにおけるイスラエルの存在、アメリカ大統領選挙などに関するコンテンツが生成されました。他にも、ベネズエラの政治、アメリカにおけるラテン系コミュニティの権利、スコットランドの独立などに関する情報も生成されていた模様。政治的なコンテンツにファッションや美容に関するコメントが散りばめられており、これはAI生成コンテンツであることを隠すため、あるいはフォロワーを獲得するための施策であるとOpenAIは指摘しています。



ニュースメディアのAxiosがMetaに今回の件について問い合わせたところ、「当該Instagramアカウントを無効化し、スコットランドのユーザーをターゲットとした2021年に実施されたイランの偽情報キャンペーンに関連する攻撃である」という回答が得られたそうです。

Axiosは同様にXにもコメントを求めていますが、記事作成時点では返答は得られていません。ただし、OpenAIは当該ソーシャルメディアアカウントはすべて記事作成時点で「アクティブではない」と記しています。