Google DeepMind、テキストプロンプトで″口パク″にも対応するサウンドトラック生成技術
![](https://image.news.livedoor.com/newsimage/stf/4/0/40364_1223_408532a4c50dc0ba25efa0df0eec10f3.jpg)
Google DeepMindのジェネレーティブメディアチームは現地時間6月17日、ビデオ生成モデル「Veo」と組み合わせて、生成した無音動画に同期したオーディオビジュアルを生成する研究中のV2A(video to audio)技術の現状を公式ブログで発表、スリラー、ホラー、宇宙空間などのシチュエーションに合わせて生成されたサウンドトラックを公開している。
チームが今回公開した研究は、「Veo」で生成された無声動画にAIでサウンドトラックを生成する技術で、V2A(video to audio)技術と呼ばれており、ビデオのキャラクターや雰囲気、環境、シチュエーションなどにマッチした音楽や会話、観客の歓声や足音、動物の鳴き声、ドラムの音、車のエンジン音やスリップ音などを生成する。またオプションで「ポジティブなプロンプト」と「ネガティブなプロンプト」を定義し、ある程度感性に合わせた制御も行うことも可能となっている
![](https://image.news.livedoor.com/newsimage/stf/4/1/41c5d_1223_513c2fbf3a099ca68a523dc3571efad7.jpg)
また、動画のリップシンク(口パク行為)に対応、入力されたトランスクリプト(会話テキスト)から音声を生成し、登場人物の唇の動きと同期させる技術も改善が進んでいる。Webサイトでは、プロンプトとそれによって作成されたサンプルが複数公開されている。
![](https://image.news.livedoor.com/newsimage/stf/d/c/dc7ff_1223_32eb690ae341887334415103545e94ef.jpg)
同技術はオーディオ生成に拡散(diffusion)モデルを採用、ビデオ入力を圧縮表現(compressed representation)にエンコードし、拡散モデルによりランダムノイズから画像入力と自然言語プロンプトに対応したオーディオを生成、繰り返しリファインを行い、デコード、波形変換と加工されビデオデータと結合される。オーディオ生成エンジンにはモデルが特定のサウンドを生成する機能を実装するため、AIトレーニングのプロセスでサウンドの詳細説明、AI生成の注釈など多くの情報を追加し、ビジュアルに合わせた関連付け学習を行っている。
![](https://image.news.livedoor.com/newsimage/stf/f/4/f4b25_1223_8181359d2d0b3bdcb67c59cada05a2dd.jpg)
気になるのが生成されるサウンドのセキュリティ面だが、生成されるコンテンツには、透かしを入れコンテンツを識別する技術「SynthIDツールキット」を組み込むことで技術の悪用から保護を行うという。より幅広い一般公開を検討する前に、クリエイターや映画製作者などからの多様な視点や洞察、フィードバックを得て、厳格な安全性評価とテストを行う旨を述べている。