米OpenAIは4月23日(現地時間)、フラッグシップモデルの新版「GPT-5.5」を発表した。

同社はGPT-5.5を「これまでで最も賢く、直感的に使えるモデル」と位置付ける。エージェント能力が向上しており、複数の工程を伴う複雑な作業でも、ユーザーが途中の手順を細かく指示しなくても、モデルが自律的に計画を立て、ツールを使い分け、作業を検証しながら最後まで進められる水準に達したと説明している。コーディング、オンライン調査、データ分析、文書やスプレッドシートの作成、ソフトウェア操作といった領域で、大幅な性能向上が見られるという。

23日より、ChatGPTで「GPT-5.5 Thinking」をPlus、Pro、Business、Enterpriseユーザーに展開し、より高精度な「GPT-5.5 Pro」はPro、Business、Enterprise向けに提供する。コーディング支援ツール「Codex」でも、Plus、Pro、Business、Enterprise、Edu、Goの各プランで利用可能となった。API経由での提供も近日中に予定されている。



ベンチマークでは、コマンドライン作業を評価する「Terminal-Bench 2.0」で82.7%、実世界のGitHub課題解決を測る「SWE-Bench Pro」で58.6%を記録。いずれも前モデル「GPT-5.4」を上回り、OpenAIは新たな水準に達したとしている。44職種にわたる知識労働タスクを測る「GDPval」では84.9%、PC操作能力を評価する「OSWorld-Verified」では78.7%を達成した。



処理効率も改善された。OpenAIによれば、GPT-5.5はGPT-5.4と同程度のトークンあたりレイテンシを維持しつつ、同じCodexタスクをより少ないトークンで処理できるという。

Artificial Analysisが算出した独自指標に基づいた、主要なAIモデルの「知能(性能)」と「コスト効率(トークン使用量)」のバランス

発表のなかでOpenAIは、米ジャクソン・ゲノム医学研究所で約2万8000遺伝子・62サンプルの遺伝子発現データを解析した研究レポートの作成事例や、ポーランドのアダム・ミツキェヴィチ大学で代数幾何アプリを単一のプロンプトから11分で構築した事例を紹介している。

安全性については、「これまでで最も強力なセーフガードを備える」と説明。GPT-5.2で導入したサイバー攻撃抑止用のセーフガードを継続的に改良してきた流れを踏まえ、GPT-5.5ではリスクの高い行為や機密性の高いサイバー要求に対する制御を強化したほか、繰り返される悪用行為への対策も追加したという。社内外のレッドチームによる評価に加え、サイバーセキュリティおよび生物学分野を対象とした新たな検証も実施した。

OpenAIは、Preparedness Framework(安全対策フレームワーク) に基づき、GPT-5.5の生物・化学分野およびサイバーセキュリティ分野の能力を「High(高)」レベルに該当するものとして扱っている。サイバーセキュリティ能力は「Critical(重大)」レベルには達しなかったものの、評価・検証の結果、GPT-5.4と比較して一段と向上していることが確認されたとしている。