エヌビディアのAI半導体「Grace Hopper」。バッタ(Grasshopper)のように飛躍するようにという意味が込められている。2024年の量産開始予定(写真:エヌビディア)

Magnificent Seven(マグニフィセント・セブン)、これは映画「荒野の七人」の原題である。従来のGAFAM(Google、Amazon、Facebook(現Meta)、Apple、Microsoft)にエヌビディアと電気自動車のテスラを入れて、アメリカにおける「偉大な7社(マグニフィセント・セブン)」と呼ばれるようになった。

エヌビディアは、1993年設立の半導体メーカー。コンピュータ上に絵を描くためのグラフィックスプロセッサ(GPU:Graphics Processor Unit)を得意とし、コンピュータゲーム用のGPUを中心にビジネスを続けてきた。

数年前から業績を様変わりさせたのは、次々と投入するAI(人工知能)やHPC(スーパーコンピュータなどの高性能コンピューティング)向けの製品だ。

時価総額1兆ドル超え

8月23日に発表した2023年5〜7月期決算では、売上高が前年同期比2倍超となる135億ドル、純利益は同9.4倍の62億ドルとなった。今年5月には時価総額1兆ドルを突破し、勢いは止まらない。

エヌビディアはAIの進化に合わせて、高性能なチップを開発し続けているのが強みだ。2021年6月に発表された、AIやHPC向け「A100」の需要が極めて強い。世界最大の半導体受託製造の台湾TSMCに依頼しても、能力がいっぱいの状態が今も続く。

業績の内訳を見ると、データセンター向けAIビジネスが、すでにゲームビジネスを超えている。直近(2023年5〜7月期)の売上高では、ゲーム用が24.86億ドルに対し、データセンター向けが103.2億ドルと4倍強へ拡大。メタバースを意識して業務用のビジュアル化用途や自動車向けはビジネス規模がまだ小さいが、応用分野を拡大し続けている。

2022年には従来品と比べて性能を6倍に上げた「H100」を発表し、今年3月に発売したばかり。量産間もないこともあり、本格的な需要の高まりはこれからだ。さらに今年はH100(コード名Hopper)に独自開発のCPU(コード名Grace、中央演算処理装置)も加えた「GH200」(コード名Grace Hopper)を発表した。

昆虫のバッタを英語でGrasshopperというが、バッタのように飛躍する意味が込められている。GH200の量産開始は2024年を予定する。

狙いは生成AI向け

エヌビディアはAIチップを続々と発表しているが、原動力は何といっても生成AIだ。チャットGPTで一躍注目が集まり、普及スピードがこれまでのAIなどの技術進歩から一段と加速している。チャットGPTがこれまでのAIと大きく異なる点は、テキストで質問を打てば何でも答えてくれる点にある。単なるQ&Aではなく、文章や絵、イラストなども生成できる。

従来の専用AIに対し、生成AIは何でも対応してくれる汎用AIに近づいており、それは人間並みに近づいているとも言える。

これまでの専用AIでは、例えば自動運転に使うAIだと、人や自動車、トラック、バス、自転車、バイクなど学習させるべき対象物は限られていた。さまざまな乗用車をすべて覚え込ませて(学習させて)、新しい写真が何であるかを推論する。自動運転の場合は、推論した結果をもとに、ハンドルを右と左のどちらに切るか、ブレーキを踏むかの動作を行う。

これら学習結果のほとんどは、別用途のAIには転用が難しい。同じ画像認識AIであっても、自動運転用と工場で製品の外観検査試験にAIを導入する場合とでは異なる。外観検査にAIを導入する場合、大量の傷の画像を学習させ、傷ではない製品の画像も学習させる必要がある。製品の表面画像を認識し、学習した傷に近い画像を推論している。

同じような外観検査装置用のAIでも魔法瓶の傷と、パソコンやスマホなどの電子製品の傷は異なる。製品ごとに傷の定義は異なるため、外観検査用AIでも汎用性はない。製品ごとに傷の種類を学習し直さなければならず、つまり専用AIなのである。

これに対し汎用AIは、外観検査用AIなら、どのような用途でも使え、顧客ごとにカスタマイズする必要がなくなる。生成AIはどのような問いにも答えを出してくれるという意味で汎用AIに近づいているのだ。

膨大なソフトには膨大なハードで対応

しかし、どのような質問にも答えてくれる、ということは学習させるべきデータ量が膨大になることを意味する。

2016年に発表されたディープラーニングの画像認識用ニューラルネットワークモデルの「ResNe-t50」は2500万パラメータしかなかったが、2018年にGoogleの研究者が発表した自然言語モデルの「BERT-Large」は3億4000万パラメータになり、2020年6月に発表されたチャットGPTに使われた「GPT-3」では1750億パラメータにも膨れ上がった。現在開発中のモデルだと1兆パラメータと予想されている。


300mmの半導体ウエハーから大きな1チップを作る、巨大半導体も登場(写真:Cerebras社)

これほど膨大になると、学習させるのに必要な時間は優に数百日以上となり、もっと高性能なAIチップが求められる。アメリカ・カリフォルニア州のスタートアップであるCerebras社は、2019年にウエハースケールの集積回路IC(21.5×21.5cm)を開発した(右写真)。

Cerebras社の創業者兼CTO(最高技術責任者)のGary Lauterbach氏は「巨大なAIソフトウェアの開発者は、今の(2019年時点で)GPUでは学習させるためのコンピュータ処理時間が数百日もかかる。このため巨大なモデル作りをあきらめようとしていた」と述べている。巨大なソフトウェアモデルには、巨大で超高性能なAIコンピュータが必要なのだ。

エヌビディアが高性能なAIチップを次々と開発する理由は、大規模言語モデルに基づく生成AIの進化に匹敵する半導体が必要だからだ。AIチップ1個の性能を上げることと同時に、そのチップを数千個並列接続してAIコンピュータの性能を上げられるように拡張性を持たせることが主眼となる。

また、並列演算を制御するためには、多数のAIチップをつないで制御するためのネットワークプロセッサも必要になるが、エヌビディアはそれも開発済みだ。

AIブームで躍進できた理由

なぜエヌビディアは、ここまでAI分野で圧倒的な地位を築くことができたのか。2010年代中ごろからAIが第3次ブームになったときに、ニューラルネットワークをモデルにしたアルゴリズムが使われた。

これは人間の頭脳のニューロンとシナプスを基本とした神経ネットワークを模擬したモデルである。このモデルの基本は、積和演算、すなわち多数の掛け算を足し合わせるという演算がGPUの演算と同じだった。

つまりGPUを、ほぼそのままニューラルネットワークの演算すなわちAIの演算に使えたのである。エヌビディアはAI向けのソフトウェアライブラリを揃え、多数のAIモデルを充実させ、GPUとともにAIビジネスを推進してきた。

データセンターにおけるAIコンピュータでは、大量のGPUをつなげてコンピュータを構成する。GPU同士がつながったネットワークシステムとなっており、それらのデータが内部で衝突しないよう制御するためのネットワークプロセッサが必要になる。同社はネットワークプロセッサを扱うMellanox社を2020年に買収している。

エヌビディアがAIに賭ける技術開発は止まらない。最新チップのGH200は、CPU+GPUで構成されている。行列演算結果でゼロが多くなりがちなニューラルネットワーク演算の効率を上げるため、密行列の演算にはGPU、疎行列にはCPUと、それぞれ使い分けることで性能と電力効率を上げている。

GPUが主力だったエヌビディアだが、CPUも手がけるようになった。生成AIへの意気込みは半導体にとどまらず、ソフトウェアの充実化も進める。AMDやCerebrasなどが後を追うが、当分は独走状態が続きそうだ。

(津田 建二 : 国際技術ジャーナリスト)