AIが広告業界を虜にしている。エージェンシーもクライアントも、自社の戦略やマーケティング施策にAIをどう活用できるのか知ろうと躍起になっている。

だが、こんなことをいうと怒られるかもしれないが、広告業界には、AIとそれがもたらすものに関する基準や定義が存在しないらしい。「『これがAIに関する基準だ』というものを見かけたことはない」と、オーシャン・メディア(Ocean Media)で分析チームの最高技術責任者を務めるアンマリー・ターピン氏はいう。「人々はAIについて説明した文章をあれこれ読んでは、『まあ、少しは当たっているかな』などと考えているのだ」。

そこでAIに対する理解を助けるため、広告業界でよく使われているAI関連の主な用語をリストにまとめてみた。すべての用語を網羅したわけではないが、マーケティング用語として新たに登場した言葉やよく聞かれるようになった言葉を紹介したい。

Vol.2はこちら

入札最適化

説明:AIを活用した入札最適化とは、簡単にいえば、広告枠を獲得しようと入札競争に加わった広告主が、AIベースの機能でリアルタイムオークションの入札戦略を調整するプロセスのことだ。これにより、広告配信の優先順位や制約に従いながら、広告枠を獲得してキャンペーン目標を最大化できる。また、広告キャンペーンの効率やROI(投資利益率)を判断する際に、この機能が大いに役立つと話す広告エージェンシー幹部もいる。

利用者:Googleは、入札最適化を含むAIベースのツールをますます強化している。実際、Googleのディスプレイ&ビデオ360(Display & Video 360:DV360)は先ごろ、AI企業サイビッツ(Scibids)との提携を拡大し、ユーザーがAI入札をカスタマイズして入札をよりコントロールできる機能を提供すると発表した(GoogleおよびGoogleのAI展開についてはこちらの記事を参照)。

コンピュータービジョン

意味:コンピュータービジョンとは、コンピューターがデジタル画像や動画などの視覚情報を理解し、その情報に基づいて推奨や提案を行う機能のことだ。そのプロセスは、人間が視覚情報を処理する方法とよく似ている。ただし、AIの他の機能と同じく、コンピュータービジョンは大食いのきらいがある。つまり、十分な量のトレーニングデータを取り込まなければ、レコメンドやリアクションを含め、どのような動作も実行できないのだ。

利用法:この技術を使えば、自動運転車が周囲の物体を検知し、ほとんど事故を起こすことなく状況に対処できるようになる。具体的には、車載カメラで動画を撮影し、そのデータをソフトウェアに送信して、信号や歩行者などあらゆるものをリアルタイムで検知する。また、顔認識プログラムでも、コンピュータービジョンはよく利用されている。

デジタルツイン

意味:デジタルツインとは、現実世界の物理的なシステムを仮想的にシミュレーションする技術のことで、機械学習を活用して意思決定を支援する。平たくいえば、現実世界に存在するものをデジタル空間に複製するものだ(「デジタルツイン」のQ&A記事を参照)。

利用法:デジタルツインは、現実世界のデータをリアルタイムでシステムに取り込むことで、継続的な監視や分析、代替シナリオのシミュレーションを可能にする。主なユースケースはふたつで、ひとつはデジタルツインでAIを利用して、広告キャンペーンを現実世界で展開する前に仮想世界で再現する取り組み。もうひとつは、拡張現実(AR)を使って物理的なアクティベーションを仮想的に再現し、オンラインとオフラインの両方でオーディエンスにリーチする取り組みだ。ARデジタルツインの実例としては、マース(Mars)傘下のチョコレートブランドM&M's(エムアンドエムズ)によるものがある。M&M'sは昨年、複数の音楽フェスで物理的なポップストアを出店した際に、仮想のポップアップアクティベーションも展開し、オンラインユーザーにフェス参加者と同じような体験を提供した。

ジェネレーティブAI

意味:ジェネレーティブAIはやや広い意味を持つ言葉で、ユーザーが入力したデータから、文章、画像、音楽、動画などありとあらゆるデータやコンテンツを、パターンに基づいて生成するAIのサブセットを指す。オープンAI(OpenAI)の「ChatGPT)」やGoogleの「バード(Bard)」はその一例で、マシンがインターネット上のあらゆる情報から自ら学習し、説明やレコメンドを提供する。

利用法:ユーザーは、まるで占い師と話をするようにジェネレーティブAIマシンに何でも尋ねることができ、その結果さまざまなタイプのコンテンツが生成される。この技術を導入しているエージェンシーはすでに71%を超えているが、その大きなきっかけは昨年11月のChatGPTのローンチだった。ただし、エージェンシーのほとんどは、ソーシャルメディアでの宣伝コピーの作成やビジュアルアセットの制作など、ワークフローを効率化する目的でジェネレーティブAIを利用している。ジェネレーティブAIは、ユーザーの入力データに基づいて動作し、マシンが学習しながらパターンを生成するため、いわゆる幻覚(次の項目を参照)が出力され、ファクトチェックが必要になることがある。

幻覚(ハルシネーション)

説明:AIモデルが誤った回答を自信満々に生成する現象を指した比喩だ。この概念が一般に知られるようになったのは今年からだが、AI業界では何年も前からこの言葉が使われている(Googleの研究チームは2018年の論文で、AIモデルが「原文からかけ離れた極めて不正確な翻訳を生成しやすい」ことを、この用語を用いて説明している)。

意味:幻覚効果は業界全体の課題で、AIによる誤った情報の生成は大きな問題を投げかけている。こうしたリスクのおかげで、マーケターはコンテンツの制作や隠れたインサイトの発見にLLM(大規模言語モデル)を利用することに慎重だ。「GPT-4」などの新しいLLMではある程度改善の兆しが見られるが、ChatGPTやバードではまだ広く幻覚が起きていると、誤情報に詳しい専門家は述べている。

重要な背景:オープンAIの研究者自身が指摘しているとおり、ユーザーがAIモデルの生成した情報を信頼すればするほど、幻覚のリスクが高まる可能性がある。オープンAIの共同創設者でCEOのサム・アルトマン氏も、5月に初めて出席した米議会の公聴会でこの点に言及している。

[原文:Digiday’s definitive, if not exhaustive, 2023 artificial intelligence glossary]

Kimeko McCoy and Marty Swant(翻訳:佐藤 卓/ガリレオ、編集:分島翔平)