AIの発達につれてAIが生成する動画のクオリティも大きく上がっており、本物の映像ではないと見分けることが難しいケースもあります。アメリカの公共放送であるNPRが、ブラウザから無料でチャレンジできる「動画を見て本物かAIか当てるクイズ」を公開しています。クイズに挑戦した後は、専門家によるAIを見分けるアドバイスも参照できます。

Can you spot AI videos from real ones? Take our quiz : NPR

https://www.npr.org/2025/11/30/nx-s1-5610951/fake-ai-videos-slop-quiz



クイズは全4問あります。クイズに挑戦するには、まずNPRのサイトにアクセスしてスクロールし、1つ目の動画を視聴。第1問は、アメリカ合衆国移民・関税執行局(ICE)に対しニューヨーク警察が怒鳴っているもの。



動画を視聴したらさらにスクロールし、「This is AI generated, duh.(これはAI生成だ)」「This is real...(これは本物だ)」の選択肢を選びます。今回は、最初はリアルな人間の動きが本物の映像だと思いましたが、途中でICE職員の片方の目がキランと光ったことに違和感を覚えたため、「This is AI generated, duh.」を選択しました。



その結果、「GOLD STAR!(よくできました)」と表示され、解説が表示されました。解説によると、そもそも「警察官がICE職員に怒鳴り散らしているシーンをすぐそばで撮影しているという状況がおかしい」とシナリオに大きな違和感があるとのこと。



なお、不正解を選んだ場合は「NOPE...(残念)」と表示され、正解の時と同じ解説が表示されます。



2問目は、覆面をかぶった人物が車から発煙筒のようなものを投げつけている動画。カメラがズームインしたりズームアウトしたりと揺れ動いているのが特徴です。



2つ目の動画は本物。手振れのあるカメラワーク、リアルな音響が、実際に撮影された本物の動画の特徴であるそうです。また、1つ目の動画は10秒ですが、2つ目の動画は19秒あります。リアルな動画を生成するAIは10秒程度の動画にしか対応していない場合が多く、長い動画を作るには複数の生成動画を組み合わせる必要があります。そのため、ある程度の長さがあるワンカットの動画は、本物である可能性が高くなります。



次の動画では、何らかのお店の中に大きな動物が侵入してきてポップコーンをむしゃむしゃ食べあさる様子を、カウンター越しの店員が撮影しています。右上に日付と時間が表示されていることから、監視カメラの映像のように見えます。



動物がポップコーンを食べている際の動きになんとなく違和感があると思ったため「This is AI generated, duh.」を選択しましたが、結果は不正解で実際の映像でした。解説によると、そもそもAI生成動画だと監視カメラを装うような日付の表示をうまくできないそうです。



第4問は、男性が熟睡しているベッドの上を蛇がはってきて男性を襲いそうになっているところを、ネコが飛びついて蛇を退治したというもの。



4つ目の動画は、TikTokで500万回以上再生された有名なAI生成動画です。解説によると、暗視映像や防犯カメラのカクついた映像は、AI生成動画の品質の欠陥を隠すためにフェイク動画を作ろうとするユーザーが生成しがちとのこと。しかし、3問目のお店に設置された監視カメラと違って、4問目は自分が寝ているベッドを天井カメラで撮影しているというシナリオがおかしくなっています。



4問に回答すると、最後に結果が表示されました。そしてその後、カリフォルニア大学バークレー校でメディア操作を研究するハニー・ファリド教授が本物の動画とAI生成動画を見分ける方法について解説しています。ファリド教授によると、AI生成動画を見分けるのは専門家ですらだまされる可能性があるほど大変ですが、比較的分かりやすい特徴がいくつかあるとのこと。



分かりやすい特徴の1つは、クイズの解説にもあった動画の長さです。AI生成動画は8〜10秒のことが多いため、「短い動画を見たら警戒する」と意識することが重要です。また、AI生成動画は被写体を完璧に捉える傾向があり、1問目のように「近くで撮影できるはずがないのに近距離の映像」や、4問目のように「短い動画でも、アクションがキレイに始まって完結する」動画は、AIの疑いが高まります。

また、ワシントン大学情報公衆センターの研究科学者で「Verified: How to Think Straight, Get Duped Less, and Make Better Decisions About What to Believe Online(オンラインで何を信じるかについて、正しく考え、騙されにくく、より良い決断を下す方法)」という書籍の共著者でもあるマイク・コールフィールド氏は、動画の特徴だけではなく、「どこで共有されているか」も重要になると語りました。例えば、2問目の動画が最初に共有された場所を確認すると、シカゴのローガン・スクエア地区のRedditコミュニティから投稿されたものであることが分かり、どのような人物が投稿したのか、信頼できる人物なのか判断することができます。「動画を偽造するのは簡単かもしれませんが、タイムマシンに乗ってシカゴのホットドッグについて10年間語り続けた歴史を作り、見る人を信頼させるのは難しいのです」とコールフィールド氏は述べています。

オランダに拠点を置くSNS情報調査や映像データの分析を専門とする組織「Bellingcat」の上級調査員であるコリナ・コルタイ氏は、「SNSやショート動画アプリなどのフィードには、大量の偽情報があふれています。しかし、それを理由に『オンラインで目にするものはすべてニセモノだ』と思い込むのは、目にするもの全てを真実だと信じ込むのと同じくらい危険です」と警告しています。合わせて、AI生成コンテンツの多くはエンゲージメントを稼ぐことを目的としており、それを誰が投稿したのか分かりにくくする形で他人に共有するのは、思いやりではないため注意が必要だと指摘しました。