ディープフェイクを見破る! 対AI生成画像策を講じる12の企業

何がリアルで何がフェイクか。
AIによる生成画像の完成度が増すに連れて一番困るのは、何が本物で何が作られた偽画像なのか見る側がわからなくなってきているということです。
エンタメの世界ではそれは長所となりますが、ジャーナリズムでは命取り。先日も米国防総省近くで爆発が起きたというフェイク画像が拡散され、金融市場まで巻き込んだ世界的ニュースになってしまいました。
AIが生成したペンタゴン爆破の偽画像で米株式市場が大荒れするまで
こうなってくると、ローマ教皇が白いダウンジャケット着てるの意外だけど似合うね、というレベルでは済みません。AIのゴッドファーザーとして知られるGeoffrey Hinton氏も、一般的な人が何が本当なのか見分けがつかなくなってしまうとAIに関して警告しています。
AIを開発する側もこれには危機感を持っており、無料利用を制限したり、フェイクと見分けやすい何かしらの仕組みの開発を急務として取り組んでいます。
ディープフェイクを見破る技術を開発している企業をまとめてみました。
Intel(インテル)

Intelが開発するFakeCatcherは、リアルタイムの動画ディープフェイク検出技術。AI生成動画を見分ける精度は自称96%。
ファイルやドキュメントのソースコードをチェックする検出技術が多いなか、FakeCatcherは実際のメディア(動画)の顔を見ます。
分析するのは、人の顔にある血流の変化と視線。ここからリアルな人間なのかAI生成フェイクなのかを判断します。
Intelラボのシニア研究員Ilke Demir氏はこう語っています。
「真の人間とは何か。何が私たちを人間にしているか。それを自問しています」
Microsoft(マイクロソフト)

現在、AI革新のリーディング企業となっているMicrosoft。2020年にはMicrosoft Video Authenticatorを発表しています。
画像や動画がデジタル編集されているかどうかをスコアで判断するもの。グレースケールの要素にアラがないかなど、人間の目では検出できない小さな小さなディテールを分析要素としています。
ただ、こちら3年も前のリリースなので、より進化した今のディープフェイクコンテンツにどこまで対応できるかは謎。
DARPA(米国防高等研究計画局)

米国防高等研究計画局DARPAは、少なくとも2019年から合成材料を検出する方法を研究するプログラムを設けています。
DARPAのSemantic Forensicプログラムは、編集画像に対抗し誤情報拡散を防ぐため、意味論と統計的分析によるアルゴリズムの開発に注力しています。また、フェイク画像の出どころを特定するアルゴリズムを開発して、悪意ある誤情報攻撃なのか、害のないミームなのかを見極める取り組みも行なっています。
OpenAI

DALL-EとChatGPTを有するOpenAIも取り組んでいますよ。AI classifier(分類)の開発を進めており、例えば文章ならばそれをスキャンして人間が書いたものかどうか判断します。
が、現状まだうまくいっておりません。OpenAIいわく、テキスト判別の精度はたったの26%。OpenAI自身が「我々のclassifierは完全に信頼できるものではない。これを第一判断のツールとして使うべきではなく、他の方法を補完するものと捉えるべき」と弱気の発言です。
Optic

ディープフェイク検出スタートアップのOptic。Stable Diffusion、Midjourney、DALL-E、Gan.aiの生成画像は見抜ける!と豪語しています。
Opticの使い方は簡単で、対象画像をウェブサイトにドラッグするだけ。結果は「人間が作った」「AI生成」と出ますが、その判断の正確性もパーセンテージ表示されます。
Opticいわくシステムの精度は96%とのことですが、さて。ちなみに国防総省横爆発画像は判断間違ってました…。
GPTZero

GPTZeroは、OpenAIのChatGPT、GPT3、GPT4、GoogleのBardによって生成されたテキストを見分けるモデルです。
テキストを入れると、AI生成された可能性をスコアで表示。学生の論文チェックに主に使われているようです。
New York Timesによれば、ハーバード大学やイェール大学の教員6,000人以上が使った経験があるのだとか。
Sentinel

世界の政府機関やメディアと連携し、「インターネットに信頼の層」を作ることをミッションとしてるSentinel。
このディープフェイク検出には4つの異なるレイヤーがあると報道されており、一番基本のレイヤーでは文章をスキャンして既存のディープフェイク素材と関連する要素がないかをチェック。他のレイヤーでは、AIを使って顔の分析や音声の違いをチェックしているそうです。
CEOのJohannes Tammekänd氏は、かつて自身の家族がソビエト連邦で生活していたことを挙げ、情報戦の影響や誤情報が民主主義においていかに大きな脅威であるかを語っています。
Reality Defender

創設してまだ2年ほどのReality Defenderは、動画、音声、画像が編集されていないかをスキャン検出する企業向けツールを開発しています。
Reality Defenderいわく、親ロシア派によるSNSVKontakteによる誤情報やディープフェイクの検出においてNATOで利用されているとのこと。
Attestiv

マサチューセットを拠点とするAttestivは、独自のAIを用いて画像、動画、文書を「科学捜査的にスキャン」します。
テレメトリデータもスキャン対象。スキャンすると、AI生成またはAI編集されている可能性をスコアで表示。また、フェイク判定するとそのコピーをブロックチェーン上に保存し、その後の検出を容易にしていく仕組み。
Blackbird.ai

もともとは2014年設立で、AIを使ってディープフェイクを検出する業界では古参です。
Blackbird.aiが注力しているのは、フェイク検出ではなく、すでにフェイク認定された画像の拡散を止めること。
SNSのトレンドをリアルタイムで解析し、メディアリスクを調査。偽情報がどうにもならなくなる前に特定、対処してしまおうというわけです。
トランプ前大統領の逮捕画像など、フェイク画像とそこに付随するストーリーで見る人を騙そうとする巧妙がゆえに悪意の高いフェイクコンテンツが、近年増えているといいます。
Fictitious.AI

盗作検出は最近の大学生の間では知られたツールかもしれません。文章をスキャンして、ネットの拾い物で論文書いてないよな?とチェックするわけですが、これだとChatGPTなどのテキスト生成系には対応できません。
てことで、Fictitious.AIの出番。ターゲット層は教育機関、先生たちで、独自のAIを用いてGPT4やChatGPTによる生成テキストを検出します。ユーザーにコンソールが提供され、それで論文などをチェック、フェイク度がスコア表示されます。
Sensity

オランダを拠点とするSensityは、Dall-E、Stable Diffusion、Midjourneyによる生成画像、GPT3による生成テキストの検出に対応。強みは顔の入れ替えも正確に検出できること。
Sensityいわく、デジタルで顔を入れ替えることで、なりすましコンテンツはもちろん、顔認証などに悪用されるリスクがあるといいます。
最新のオレオレ詐欺はディープフェイクで声そっくり…