アリババが、コーディングエージェントとローカル開発用に構築されたオープンウェイト言語モデル「Qwen3-Coder-Next」を発表しました。総パラメーター数は80B(800億)で、推論コストを大幅に低減しつつ強力なコーディング能力とエージェント能力を獲得しています。

Qwen

https://qwen.ai/blog?id=qwen3-coder-next









「Qwen3-Coder-Next」「DeepSeek-V3.2」「GLM-4.7」「MiniMax M2.1」のコーディングエージェントとしての能力を比較したグラフが以下。Qwen3-Coder-NextはSWE-Bench Verifiedテストで70%以上を達成し、より厳しいSWE-Bench Proでは他3種をしのぐ成績を見せました。



Qwen3-Coder-Nextは対話の回数(エージェントターン数)を増やすことでSWE-Bench Proにおいて優れた結果を出したとのことで、アリババは「このモデルがマルチターンエージェントタスクにおける長期的推論に優れているという証拠を示しています」とアピールしました。



また、モデル全体のパラメーター数が800億で、アクティブパラメーター数は3億。規模の割にパフォーマンスが高いということで、「効率とパフォーマンスのトレードオフの改善を実現した」とも強調されています。



Qwen3-Coder-NextはQwen3-Next-80B-A3B-Baseを基盤として構築されたモデルで、ハイブリッドアテンションとMoEという2つのアーキテクチャを採用した新規アーキテクチャを実装し、大規模実行可能タスク合成、環境インタラクション、強化学習において大規模なエージェントトレーニングを実施。パラメーターのスケーリングのみに依存するのではなく、現実世界のコーディングエージェントに不可欠な長期的な推論、ツール使用、失敗からの回復を重視して設計したとのこと。

モデルデータはHugging FaceとModelScopeで公開されています。