マイクロソフトの新しいレポートにより、AI生成による危険なコンテンツから人々を守ることに伴う重要な課題や機会、緊急性が浮き彫りになっている。

マイクロソフトは7月30日、選挙関連の偽情報やディープフェイクコンテンツなど、有害な生成AIを防ぐための取り組みに関する新しい調査結果を発表した。この50ページのホワイトペーパーでは、人々がさまざまなタイプのAIの悪用に接すること、合成コンテンツを識別するユーザーの能力、金銭面の詐欺や露骨なコンテンツなどの問題に対して高まる懸念についても焦点が当てられた。

また、AI生成によるテキストや画像、動画や音声に関する新しい規制の策定において政策立案者が検討すべき提案事項も提供されている。

このレポートはことし最後の選挙シーズンにおけるAI生成コンテンツに対する懸念が高まるなかで発表された。レポートが発表された7月30日は米国上院が子どもオンライン安全法(KOSA)を可決した日でもあり、それにより未成年者に関連する新たなコンテンツルールを含むソーシャルネットワーク、ゲームプラットフォーム、ストリーミングプラットフォームに対する新たな規制が設けられる可能性がある。

マイクロソフトの副会長兼プレジデントのブラッド・スミス氏はこのレポートを紹介するブログ投稿のなかで、コンテンツの信頼性を促進し、不正なディープフェイクを検出して対応し、合成AIの害について学ぶためのツールを国民に提供するための業界全体の能力が、政治家によって拡大されることを期待すると述べた。

「犯罪者がディープフェイクを利用して高齢者を騙したり、子どもを虐待したりするのを阻止するための新しい法律が必要だ。当社や他企業は選挙介入に使われるディープフェイクに対して当然フォーカスしているが、ほかの種類の犯罪や虐待においてディープフェイクが果たす広範な役割にも同様の注力が必要だ」とスミス氏は書いている。

AI検出の技術とその義務付け



7月下旬に登場したバイデン大統領とハリス副大統領のAI生成動画は、2024年の選挙においてAIによる偽情報の存在についての懸念を浮き彫りにした。その最新の例には、XのCEOであるイーロン・マスク氏がハリス副大統領のディープフェイクを共有したことがある。その行為によりマスク氏が自身のプラットフォームのポリシーに違反した可能性があるとの見方もある。

カーネギーメロン大学のビジネス倫理准教授のデレク・レーベン氏によると、AI生成コンテンツに対する企業や政府の規則を設けるには、何が許可されるべきかについてのしきい値を設定することも必須だという。これは、コンテンツや意図、作成者、動画で描かれる人に基づいたしきい値をどのように決定するのかという問題にもつながると同氏は述べる。

パロディとして作成されたものが、コンテンツの共有方法や共有者によっては偽情報になる可能性もある。

AIと倫理に関する研究と執筆を行っているレーベン氏は、AI検出のためのより優れたツールを構築する一方で、規制と国民の意識向上を推進するマイクロソフトの姿勢は正しいと言う。同氏はまた、政府とユーザーに焦点が当てられることにより、企業責任への重視が薄れる可能性があるとも指摘する。

目標がAIの偽情報によりリアルタイムでだまされるのを実際に防ぐことであるなら、(AI生成コンテンツを示すのに)目立つラベルを用い、真正性を判断するためのユーザーの労力を軽減する必要があると同氏は述べた。

「パロディの多くは作成した人の意図と関係があるが、意図しないところで誤った情報として広まってしまう可能性がある」とレーベン氏は言う。「マイクロソフトのような企業が、(パロディと攻撃的なものを区別して)パロディにではなく、攻撃的な動画に対して対策を講じるのを目指すのは非常に難しい」。

リアルタイムでディープフェイクを検出する方法を模索



専門家らは、AIコンテンツに透かしを入れるだけではAI生成の偽情報を完全に防ぐのには十分ではないと述べる。AIセキュリティ企業のピンドロップ(Pindrop)の最高製品責任者であるラフル・スード氏によると、前述したハリス氏のディープフェイクは合成音声と数秒間の本物の音声の両方を含む「パーシャル(部分)ディープフェイク」の一例だという。

このような動画はますます一般的になっており、ユーザーや報道機関が見破るのは非常に困難になっていると同氏は述べた。

透かしは役に立つものの、AIが生成する偽情報の危険を防ぐには足りないと多くの専門家は語っている。ピンドロップは350を超える音声AI生成システムを追跡しているが、スード氏によると、それらの大部分は透かしを使用していないオープンソースツールだという。市販されているツールはわずか12種類ほどである。

「このテクノロジーはプラットフォームにアップロードされたもののリアルタイム検出を行うために存在する」とスード氏は言う。「プラットフォームにリアルタイム検出の実施を強制させる義務付けが実際にはないようなところが問題だ」。

他企業もディープフェイクを検出するためのさらなる方法を模索している。その1社にはトレンドマイクロ(Trend Micro)があり、同社は電話会議での合成動画の検出をサポートする新しいツールをリリースしたばかりだ。トレンドマイクロの新しい調査によると、回答者の36%がすでに詐欺を経験しており、約60%が詐欺を見破ることができると回答している。

トレンドマイクロの脅威インテリジェンス担当バイスプレジデント、ジョン・クレイ氏は、「今後数年間においてAI関連で直面する最大の課題は、偽情報だ。ディープフェイクの使用だろうと、動画であろうと、音声であろうと、何が本物で何が偽物かを見極めるのがもっとも難しいことのひとつになると思う」と述べた。

[原文:Microsoft report highlights AI efforts around election misinformation and harmful deepfakes]

Marty Swant(翻訳:ぬえよしこ、編集:坂本凪沙)