長大コンテキストの処理でClaude Opusを超える性能を示す効率設計AIモデル「SubQ」が登場、1200万トークンの入力が可能でTransformerの限界を打ち破る

AI開発企業のSubquadraticがAIモデル「SubQ」を発表しました。SubQは主流のTransformerベースAIモデルとは異なるアーキテクチャで開発されたモデルで、最大1200万トークンという長大なコンテキストウィンドウを備えています。また、テストモデルである「SubQ 1M-Preview」は長大トークンを入力した際の処理性能でClaude Opus 4.7を大きく上回っています。
https://subq.ai/
Introducing SubQ: The First Fully Subquadratic LLM
https://subq.ai/introducing-subq
記事作成時点で主流のAIモデルは「Transformer」という機械学習アーキテクチャに基づいて開発されています。Subquadraticによると、TransformerベースのAIモデルには「入力トークンが増加すると、必要な計算量が2乗に比例して増加する」という問題があるとのこと。Subquadraticが開発したAIモデル「SubQ」はTransformerとは異なる効率的なアーキテクチャを採用しており、計算量は入力トークンに比例して増加します。つまり、入力トークンが増えるほど既存のAIモデルと比べて効率的な処理が可能となります。

SubQは最大1200万トークンの入力に対応し、既存のAIモデルと比べて1トークン当たり150倍のスピードで動作しつつコストを5分の1に抑えることができます。

参考までに、Python 3.13の標準ライブラリを含むソースコード全体のトークン数は510万で、Reactの開発プロジェクトに半年で投稿されたプルリクエストの合計トークン数は750万とのこと。SubQはこれらのコードを一度に処理することができます。

SubQのテスト版であるSubQ 1M-Previewと「Gemini 3.1 Pro」「Claude Opus 4.6」「Claude Opus 4.7」「GPT-5.4」「GPT-5.5」のベンチマーク結果を比較した表が以下。SubQ 1M-Previewはコーディングエージェント性能を測定するSWE-Bench VerifiedでGemini 3.1 ProとClaude Opus 4.6を超えるスコアを記録。また、長文理解能力を評価するベンチマークのMRCR v2の100万トークン入力テストではClaude Opus 4.7を上回りました。

SubQはコーディングエージェントのSubQ Codeと情報分析AIのSubQ Searchがプライベートベータ版として提供されており、APIの早期アクセスも始まっています。
