2023年8月のGoogle Cloudの年次イベント「Google Cloud Next」に登壇するNVIDIAのジェンスン・フアンCEO(右)(筆者撮影)

生成AIを中心にAI向けのGPU(画像処理装置)を引っ提げて、AI時代の寵児となったアメリカの半導体大手NVIDIA(エヌヴィディア)。実際、「AI向けの半導体と言えばNVIDIA(エヌヴィディア)」というのが多くのAI開発の現場にかかわる関係者の偽らざる認識だろう。

同社は、2010年代の半ばからAI向けの半導体、それを活用してAIを開発するためのソフトウェアソリューションに多大な投資を行っており、その両方が組み合わさってアドバンテージを構築。それが、事実上AIソフトウェアを開発するなら「NVIDIA一択」というような状況を実現してきた。


「NVIDIA一択」を崩しかねない2つの要因

しかし、AIソフトウェアの開発がより大規模に、かつ社会のより広い階層に使われるようになり、そうした状況にも変化が出始めている。

本稿では「NVIDIA一択」を崩しかねない2つの要因について解説する。

1つ目は、NVIDIAのAI開発環境を導入するうえで、つねに問題になる「初期導入コストの高さ」だ。

NVIDIAが提供するGPUは単体(コンピューターに内蔵させる拡張ボード)の形から、NVIDIAがDGXと呼んでいるスーパーコンピューターまでさまざまなラインナップが用意されているが、GPU単体でも数十万円、DGXというスーパーコンピューターなら数千万円という価格がつけられており、いずれの製品も入手がしにくく、流通レベルでの価格は高止まりしているというのが現状だ。


NVIDIAのGPU8機を搭載した大規模システム、数千万円からと多額な初期投資が必要になる(筆者撮影)

2つ目は、ランニングコストだ。NVIDIAはつねに「GPUはCPUでAIを処理する場合に比べて消費電力が低い」とアピールしているが、それでもボード1枚で数百ワットの消費電力を消費する。

確かにインテルやAMDが提供するCPUに比べて電力効率は高いのだが、それでも絶対的な消費電力は高い。GPUを自社のデータセンターに格納する場合には、それだけの消費電力により発生する熱を放熱する放熱機構(具体的には冷却ファン)、そしてGPU自体やそうした放熱機構から発生する消費電力への電力供給とそれに伴い発生する電気料金への対応が必要になる。


NVIDIAが提供する単体のGPU(筆者撮影)

競合メーカーのアピールポイントは?

現在NVIDIAのGPUはAI開発の現場で90%近いシェアを占めているとされる。そのNVIDIAの牙城を崩そうとしている競合メーカーは、「NVIDIAよりも安価」で「NVIDIAよりも電力効率が高い」という2つをアピールすることに余念がない。

NVIDIAと同じGPUを持ちながら、これまであまりAI向けにアピールができていなかったAMDは、NVIDIAのGPUに対抗する「Instinct MI300」という製品を6月に発表している。

同製品は、AMDがインテルとの競争の中でいち早く導入した「チップレット」と呼ばれる技術が採用されており、1つのパッケージ上に複数のチップを混載することでNVIDIAのGPUよりも高い電力効率を実現する。

インテルはイスラエルの半導体メーカーを買収して得た「Gaudi」シリーズでNVIDIAに対抗する。Gaudiは、AIアクセラレーターと呼ばれるAI処理に特化した半導体製品で、AI処理に特化することでGPUよりも圧倒的に低コストと高い電力効率を実現しており、同じ電力であればGPUよりも高い性能を発揮することができる。

アメリカのAI半導体スタートアップは、さらに特化した製品を提供している。シリコンバレー発のスタートアップであるSambaNova Systems(サンバノバ・システムズ)は、GPUとAIアクセラレーターの中間となるRDUと呼ばれる製品を投入し、特定用途だけでなく、汎用にも使える自由度を確保しながら、GPUよりも電力効率を増やしている。

また、カナダのTenstorrent(テンストレント)はAIアクセラレーターと、最近注目されているオープンソースのCPU「RISC-V(リスクファイブ)」を組み合わせて提供することで、こちらもNVIDIA GPUよりも低コストで高い電力効率をアピールしている。

ファンCEOが自らトップセールス

こうした競合他社の突きあげに対してNVIDIAが現在やっていることは、パブリッククラウドサービスを展開するCSP(クラウドサービスプロバイダー)との協業の促進だ。

今年に入ってからNVIDIAのジェンスン・フアンCEOは、CSPが行う年次イベントに熱心に登場している。6月の「Snowflake Summit 2023」、8月の「Google Cloud Next '23」、9月の「Oracle CloudWorld」など、CSPが行っているイベントの公演に登壇している。そして、Microsoftが11月15日からアメリカで開催した「Ignite 2023」でも、MicrosoftのAzureでNVIDIAの最新GPUが採用されることが明らかにされている。


NVIDIAのジェンスン・フアンCEO。2023年6月「COMPUTEX 23」にて(筆者撮影)

フアンCEOが自らこうした「トップセールス」を行っているのは、2つの理由が考えられる。

1つ目はすでに企業が自社で所有しているデータセンターには十分なGPUが入っているような状況で、次の新しい市場拡大としてクラウドが自然な方向性であること。2つ目はクラウドサービスプロバイダー経由で提供してもらうことで、初期投資が高いというGPUの弱点をある程度覆い隠せるからだ。

CSPはCPUやGPUなどの計算に利用する半導体を自社のデータセンターに格納して、言ってみれば「時間貸し」することで顧客から料金を得ているビジネスモデルになる。

顧客からすれば、使った時間だけ料金を払えばいいので、初期投資は最小限で済むことが特徴だ。このため、そこまで大規模にGPUを使うわけではない中小事業者にとっては、NVIDIA GPUを少ない初期投資で使うというニーズを満たすことができる。

それは「さらなる高みへの始まり」なのか

また、CSPが提供している「GPUの時間貸し」サービスの料金には電気代も含まれている。つまり、NVIDIAにとっては初期投資と消費電力という2つの問題を覆い隠して、ユーザーに対して「高性能」だけをアピールできるという点で大きな意味があるということだ。

しかし、CSPとの協業はNVIDIAにとって「諸刃の剣」になりかねない戦略であるのも事実だ。というのも、NVIDIAの強みはハードウェアよりもソフトウェアにあるというのは以前の記事(NVIDIA「好調すぎる業績」、その軌跡を読み解く)で解説した通りで、CUDA(クーダ)というGPUを汎用演算に利用できる開発環境を他社に先駆けて提供してきたことで、AI=NVIDIAという構図を構築してきた。

しかし、CSPの各社が用意しているAI開発ソフトウェアは、こうしたNVIDIAの強みを見えづらくしてしまう可能性がある。AI開発ソフトウェアは、CUDAのような開発環境の上に覆いかぶさる形になっているため、開発者からはそれを意識する必要がなくなるからだ。

その結果、開発者はNVIDIAのGPUで演算しているのか、それとも競合他社の半導体で演算しているのかは意識しなくなり、長期的に見てNVIDIAの市場シェアが減っていくという可能性はある。その意味で「諸刃の剣」なのだ。

しかし、短期的にはCSPでの採用が増えることで、NVIDIA GPUの需要はより高まっていくことになるだろう。それが「さらなる高みへの始まり」なのか、それとも「終わりの始まり」なのかは、まだ見えてきていない。


(笠原 一輝 : テクニカルライター)