Metaは「動画エコシステム」のための巨大AIモデル構築を進めている

Metaが数十億ドル(数千億円)を費やし、FacebookやInstagramなどの同社が運用するプラットフォーム向けの動画エコシステムとして巨大AIモデルの構築を進めていることが、Facebook責任者のトム・アリソン氏によって明かされました。ショート動画投稿サービス「リール」で行ったテストでは、動画の視聴時間が8%〜10%長くなる成果が出たとのことです。
Meta is building a giant AI model to power its 'entire video ecosystem,' exec says

モルガン・スタンレーが開催したAIに関するカンファレンス「Tech, Media & Telecom 2024」で講演を行ったアリソン氏は、Metaが全プラットフォーム向けの動画レコメンドエンジンの設計開発を行っていることを明らかにしました。

Metaは2026年までの技術ロードマップに基づき、まずはレコメンドシステムをGPU使用に切り替えて全体のパフォーマンス改善を実施しています。
そして、昨今のLLMへの注目の高まりの中で、「製品全体で使用できるレコメンドエンジンの可能性を見た」とのことで、2023年までに新たなモデルアーキテクチャを構築したとのこと。新たなAIモデルはショート動画にも長い動画にも対応するもので、「リール」でテストを行ったところ、動画視聴時間が8%〜10%長くなるという成果が現れたそうです。
この結果についてアリソン氏は、前の世代のレコメンドシステムよりはるかに効率的に学習していることを証明するものだと述べています。
アリソン氏によれば、技術ロードマップはフェイズ3に突入し、リールだけでなく、動画エコシステム全体に力を与えるAIモデルが構築されているとのこと。うまくいけばレコメンド内容が魅力的で、関連性の高いものになるだけでなく、応答性も向上するとのことです。
