AI開発企業のSubquadraticがAIモデル「SubQ」を発表しました。SubQは主流のTransformerベースAIモデルとは異なるアーキテクチャで開発されたモデルで、最大1200万トークンという長大なコンテキストウィンドウを備えています。また、テストモデルである「SubQ 1M-Preview」は長大トークンを入力した際の処理性能でClaude Opus 4.7を大きく上回っています。

Subquadratic - Efficiency is Intelligence

https://subq.ai/

Introducing SubQ: The First Fully Subquadratic LLM

https://subq.ai/introducing-subq

記事作成時点で主流のAIモデルは「Transformer」という機械学習アーキテクチャに基づいて開発されています。Subquadraticによると、TransformerベースのAIモデルには「入力トークンが増加すると、必要な計算量が2乗に比例して増加する」という問題があるとのこと。Subquadraticが開発したAIモデル「SubQ」はTransformerとは異なる効率的なアーキテクチャを採用しており、計算量は入力トークンに比例して増加します。つまり、入力トークンが増えるほど既存のAIモデルと比べて効率的な処理が可能となります。



SubQは最大1200万トークンの入力に対応し、既存のAIモデルと比べて1トークン当たり150倍のスピードで動作しつつコストを5分の1に抑えることができます。



参考までに、Python 3.13の標準ライブラリを含むソースコード全体のトークン数は510万で、Reactの開発プロジェクトに半年で投稿されたプルリクエストの合計トークン数は750万とのこと。SubQはこれらのコードを一度に処理することができます。



SubQのテスト版であるSubQ 1M-Previewと「Gemini 3.1 Pro」「Claude Opus 4.6」「Claude Opus 4.7」「GPT-5.4」「GPT-5.5」のベンチマーク結果を比較した表が以下。SubQ 1M-Previewはコーディングエージェント性能を測定するSWE-Bench VerifiedでGemini 3.1 ProとClaude Opus 4.6を超えるスコアを記録。また、長文理解能力を評価するベンチマークのMRCR v2の100万トークン入力テストではClaude Opus 4.7を上回りました。



SubQはコーディングエージェントのSubQ Codeと情報分析AIのSubQ Searchがプライベートベータ版として提供されており、APIの早期アクセスも始まっています。