Image: PixieMe / Shutterstock.com

「100万トークン突破で、原稿用紙1250枚分の超長文を1プロンプトで処理できる! しかも省エネ!」

…と噂の中国DeepSeek最新AIモデル「V4」のプレビュー版が出ましたね。

種類はハイエンドな「V4 Pro」と安い軽量版「V4 Flash」の2モデルです。コーディングも推論もAIエージェント機能も世界最先端の米AI群に迫る進化を遂げており、1プロンプトで処理できるトークン上限はついに100万件の大台に乗りました。

そんなに大量のデータを一度に処理したらパンクが心配だけど、V4では「MoE(mixture-of-experts:混合エキスパートモデル)」アーキテクチャ採用で電力負荷をかなり削減。何兆件ものパラメータを有するシステムであっても、ほんの一部のサブシステムを起動するだけで処理が済む。だからその面でも安心らしいのです(個人的には一番重要なポイント)。

米中で処理性能にはどれくらいの差があるの?

DeepSeekの衝撃から1年ちょっと。

最初はOpenAIやGoogleに迫るAIモデルが無茶苦茶安くできたってことで、DeepSeek R1が昨年登場したときにはウォール街に激震が走ってNVidia株とかも株価下落で6000億ドル近くもダウン。昨年の夏にはV3.1リリースでコーディングコストに価格破壊も起こっています。

そろそろ追いつき追い越せな頃合いかと思ったら、V4 Proのテクニカルレポートにはこう整理されていました。

「推論用トークン拡張の甲斐あってDeepSeek-V4-Pro-Maxは各種推論ベンチマークでGPT-5.2およびGemini-3.0-Proを凌ぐ処理性能を見せている。ただしGPT-5.4 とGemini-3.1-Proにはわずかに届かない。最先端のモデルとの差は大体3〜6か月といったところだ」

処理にかかるコストの差は?

仮にこれが本当で、四半期から半年の差があったとしても、なにしろ安いので、多少の差には目をつぶって使う人も多いのが現実です。

使用料にどれくらいの差があるのか? それについてはデータセット作成に従事するSimon Willisonさんがブログで細かく書いてるので引用すると、主要AIモデルで最安はDeepSeekで、V4 Flashモデルの100万トークンあたりの使用料は入力で0.14ドル、出力で0.28ドル。競合のGPT-5.4 Nano(入力0.20ドル、出力1.25ドル)、 Claude Haiku 4.5(入力1ドル、出力5ドル)よりだいぶ安くなってます。

さらに差がつくのがProモデルで、DeepSeek V4 Proモデルの100万トークンあたりの使用料は入力で1.74ドル、出力で3.48ドル。競合のGemini 3.1 Pro(入力2ドル、出力12ドル)、GPT-5.5(入力5ドル、出力30ドル)よりずっと安上がり。

もちろん従来と同じくV4もMITから使用許諾を得たオープンウェイト(学習済み)のAIモデルなので、商用はじめ幅広い用途で使用できます。これからどうなっていくのでしょう。

【こちらもおすすめ】
GIZMODO テック秘伝の書
1,650円
Amazonで見る
PR