AIサーバーの性能評価を実施している業界コンソーシアムのMLCommonsが推論性能ベンチマークテスト「MLPerf Inference v6.0」の結果を公開しました。MLPerf Inference v6.0は大規模言語モデルや動画生成モデルを実行した際の処理速度を測定するベンチマークテストで、すでにNVIDIAやAMDが自社製サーバーのベンチマーク結果を公開しています。

MLCommons Releases New MLPerf Inference v6.0 Benchmark Results - MLCommons

https://mlcommons.org/2026/04/mlperf-inference-v6-0-results/

NVIDIA Extreme Co-Design Delivers New MLPerf Inference Records | NVIDIA Technical Blog

https://developer.nvidia.com/blog/nvidia-extreme-co-design-delivers-new-mlperf-inference-records/

AMD Delivers Breakthrough MLPerf Inference 6.0 Results

https://www.amd.com/en/blogs/2026/amd-delivers-breakthrough-mlperf-inference-6-0-results.html

MLPerf Inferenceのテスト内容はAIの発展に合わせてアップデートされています。MLPerf Inference v6.0ではOpenAIが開発した「gpt-oss-120b」の実行速度テストや、Alibabaの動画生成AI「Wan2.2-T2V-A14B-Diffusers」を用いた動画生成速度テストが導入されました。

すでにCiscoやOracleといったAIサーバープロバイダーがMLPerf Inference v6.0のテスト結果をMLCommonsに提出しているほか、NVIDIAとAMDも自社製AIチップを搭載したサーバーのテスト結果を提出しており、各社のテスト結果をまとめた集計ページも公開されています。

集計ページでAMDとNVIDIAが提出したgpt-oss-120bの実行速度テスト結果を表示したものが以下。トップはNVIDIA GB300 NVL72で、AMD MI355XのカスタムクラスターもNVIDIA GB300 NVL72に肉薄するスコアを記録しています。



Wan2.2-T2V-A14B-Diffusersを用いた動画生成速度テストの結果は以下の通り。記事作成時点ではNVIDIA製AIチップを搭載したサーバーの結果のみが掲載されていました。



NVIDIAは「ソフトウェアの最適化によって、NVIDIA GB300 NVL72の処理性能が2025年8月から2026年2月までに2.7倍向上した」とアピールしています。



AMDはMI355Xで同社初の秒間100万トークンという処理速度を達成したことをアピールしています。



また、AMDはWan2.2-T2V-A14B-Diffusersを用いた動画生成速度テストの結果を自社の公式サイトで公開しています。AMDの発表によると、MI355XはB200と比べて93%のスコアを記録し、その後の最適化で108%にまでスコアを伸ばしたとのことです。