DeepSeek最新モデル「V4」どこがスゴい? 大手AIとコスト比較してみた
「100万トークン突破で、原稿用紙1250枚分の超長文を1プロンプトで処理できる! しかも省エネ!」
…と噂の中国DeepSeek最新AIモデル「V4」のプレビュー版が出ましたね。
種類はハイエンドな「V4 Pro」と安い軽量版「V4 Flash」の2モデルです。コーディングも推論もAIエージェント機能も世界最先端の米AI群に迫る進化を遂げており、1プロンプトで処理できるトークン上限はついに100万件の大台に乗りました。
そんなに大量のデータを一度に処理したらパンクが心配だけど、V4では「MoE(mixture-of-experts:混合エキスパートモデル)」アーキテクチャ採用で電力負荷をかなり削減。何兆件ものパラメータを有するシステムであっても、ほんの一部のサブシステムを起動するだけで処理が済む。だからその面でも安心らしいのです(個人的には一番重要なポイント)。
米中で処理性能にはどれくらいの差があるの?
DeepSeekの衝撃から1年ちょっと。
最初はOpenAIやGoogleに迫るAIモデルが無茶苦茶安くできたってことで、DeepSeek R1が昨年登場したときにはウォール街に激震が走ってNVidia株とかも株価下落で6000億ドル近くもダウン。昨年の夏にはV3.1リリースでコーディングコストに価格破壊も起こっています。
そろそろ追いつき追い越せな頃合いかと思ったら、V4 Proのテクニカルレポートにはこう整理されていました。
「推論用トークン拡張の甲斐あってDeepSeek-V4-Pro-Maxは各種推論ベンチマークでGPT-5.2およびGemini-3.0-Proを凌ぐ処理性能を見せている。ただしGPT-5.4 とGemini-3.1-Proにはわずかに届かない。最先端のモデルとの差は大体3〜6か月といったところだ」
処理にかかるコストの差は?
仮にこれが本当で、四半期から半年の差があったとしても、なにしろ安いので、多少の差には目をつぶって使う人も多いのが現実です。
使用料にどれくらいの差があるのか? それについてはデータセット作成に従事するSimon Willisonさんがブログで細かく書いてるので引用すると、主要AIモデルで最安はDeepSeekで、V4 Flashモデルの100万トークンあたりの使用料は入力で0.14ドル、出力で0.28ドル。競合のGPT-5.4 Nano(入力0.20ドル、出力1.25ドル)、 Claude Haiku 4.5(入力1ドル、出力5ドル)よりだいぶ安くなってます。
さらに差がつくのがProモデルで、DeepSeek V4 Proモデルの100万トークンあたりの使用料は入力で1.74ドル、出力で3.48ドル。競合のGemini 3.1 Pro(入力2ドル、出力12ドル)、GPT-5.5(入力5ドル、出力30ドル)よりずっと安上がり。
もちろん従来と同じくV4もMITから使用許諾を得たオープンウェイト(学習済み)のAIモデルなので、商用はじめ幅広い用途で使用できます。これからどうなっていくのでしょう。

GIZMODO テック秘伝の書
