OpenAIサム・アルトマンCEO解任、復帰騒動で見えてきたことは?(撮影:尾形文繁)

11月17日(アメリカ時間)に始まったOpenAIをめぐる騒動は、11月22日になって結局、サム・アルトマン氏がCEOに復帰することで決着した。

騒動の発端が何だったのかは結局不明なままだが、OpenAIの組織や人員はそのままに、取締役会を中心としたガバナンス改革が進むことになるだろう。

では、この騒動で何が見えてきたのか?

それは、OpenAIの安定に依存するマイクロソフトであり、マイクロソフトがなければ今の好調さを維持できないOpenAI、という構造である。

とにかく急いで事態を収拾

冒頭で述べたように、OpenAIのトップ解任騒動はサム・アルトマンCEOの復帰で幕を閉じた。

極論すれば、今回の騒動で起きたことは「OpenAIの運営に関して不安定な部分があったことが外部に示された」ということに尽きる。


社員が宝である、というOpenAIの投稿(画像:OpenAI公式Xアカウントより)

OpenAIは非営利の研究組織であるが、2019年、その傘下に営利部門の「OpenAI LP」が設立され、自社の個人・企業向けサービスやマイクロソフトとのビジネスは、このOpenAI LPを介して行われている。

ただ今回は、このOpenAI LPではなくその上位にある組織で騒動が起きた。非公開の取締役会での出来事を社員やサービス部門、そこに関係するマイクロソフトなどは認識できていなかったし、その結果として、たった5日間ではあるが、世界中が大騒ぎとなる事態となった。

現時点で「ビジネスとしての生成AI」を考えた場合、OpenAIとそのメインパートナーであるマイクロソフトは、圧倒的なシェアを持つ。研究開発ではともかく、サービスとしての利用、特に有料で収益を得ながらの展開という意味では、他社はまだまだこの2社に追いつける状況にない。多くの企業が依存するOpenAIの先行きに懸念が生まれることは、同社に関わるあらゆる人々にとってマイナスだ。

だからこそ、懸念をできるだけ短期に解決するために「元のさやに戻した」という選択肢が採られた、ということなのだろう。

スピードこそがOpenAIの強さ

なぜOpenAIが強いのか?

それは、技術開発からサービス展開までの速度が速い、という点に集約できる。

生成AIの核になる「大規模言語モデル(LLM)」は技術開発競争の激しい分野である。大学でもIT企業でも、LLMの研究と学習にしのぎを削っている。

その競争の中でOpenAIが有利な地位を確保し続けられているのは、同社の作ったLLMである「GPT-3」や「GPT-4」が優秀だった、というのは間違いない。だが同時に、2022年11月に発表した「ChatGPT」がシンプルかつわかりやすいサービスだったから……ということも大きい。

間違った回答を出す「ハルシネーション」などの問題があっても、英語だけでなく日本語を含む多くの言語で、いままでなかったほどの精度で「言葉で人と対話し、なんらかの役に立つ」サービスができたことは画期的なことだった。もちろん自社LLMであるGPTシリーズの改善も続けており、現在もGPT-4はトップクラスのLLMである。

OpenAIが現在の地位にいるのは、さらなる改善を矢継ぎ早に実施したためだ。

他のウェブサービスと連携する「プラグイン」(2023年3月提供開始)、命令に応じてChatGPT自体がソフトを作り、内部で活用して高度なデータ解析をする「Advanced Data Analysis」(発表当時の名前はCode Interpreter、同7月提供開始)、会話しながら目的にあった自分専用のチャットボットを作る「GPTs」(同11月提供開始)など、他社がOpenAIの技術を使って作ろうとしていた機能の多くをどんどん先に作り、自社サービスの価値を高めている。

逆に言えば、それだけの速度がなければ差別化できない世界である……ということでもある。「LLMをチャットで使う」だけなら他社も追いついてくるし、生成AIを活用するための新しいコンセプトも日々生まれている。OpenAIのような立場にいても、常に先手を撃ち続けなければ、今の競争状況で優位性を保ち続けるのは難しい。

これらの背景には2つの要素がある。

1つは優秀な人員を多数抱えており、研究と開発までの距離が近いこと。

OpenAIの社員数は約770名とされているが、世界的な注目を集める企業としては「まだ」コンパクトであり、ほとんどが研究開発に従事していると思われる。

今回の騒動では社員のほとんどにあたる700名以上が、アルトマン氏らの復帰を求める署名にサインしており、求心力の強さは明白だ。社員の一斉離反もしくは作業停滞が起きれば、OpenAIには大きな打撃になっただろう。

支えるのは「人員」と「サーバー」だが…

もう1つは「サーバー」だ。

LLMの学習には高速なサーバーが必須だ。特にGPTシリーズのように規模の大きなLLMの場合には、現在ならばNVIDIA製の高速なGPUを数千台単位で用意する必要がある。

LLMの規模は「パラメータ数」で表されるが、一般論として、パラメータ数が大きい、規模の大きなLLMほど賢いものになりやすい。一方でパラメータ数が大きなLLMは、開発のための「学習」にも、日常的に使うために必要な「推論」にも、高速な演算が必要になり、GPUを使った大規模なサーバーが必須になっていく。

GPT-4は正確なパラメータ数が公開されていないので必要なサーバー量やその電力消費も不明だが、GPT-3については1750億パラメータとされており、1回の学習には1時間あたり約1300メガワットの電力を必要とする。これはほぼ、原発1基分(毎時約1000メガワット)に相当する。


GPT-3がどれだけの電力を消費するか、NTTが示した資料(画像:NTT会見資料より)

GPUは取り合いの状況であり、サーバーを用意するだけでも大変な状況だ。それを運用できる電力と保守の能力を持った設備を持つ企業は限られている。

例えばソフトバンクは3500億パラメータ規模のLLMを作るためのデータセンター構築に約200億円を投じている。

一方でNTTはソフトバンクやOpenAIとは異なり、自社開発のLLM「tsuzumi」を用途限定・日本語特化でコンパクトなものにした。パラメータ数を70億規模に抑えることで、学習にかかる機材コストをGPT-3の25分の1に圧縮している。

いかに巨大な設備を持つか、もしくは戦略的に小さな設備向けのLLMで戦うかが重要になってきているわけだが、OpenAIは汎用人工知能(AGI)を目指してどんどんLLMの規模を拡大する方向性にある。だから、パートナーとともにサーバーを動かし続けなければならない。

逆に言えば、「人員がいて」「サーバー設備が用意できる」状態なら、OpenAIと戦うことは不可能ではない。グーグルやMetaはその条件を十分に満たしている。OpenAIが持っている優位性も、他社が持ち得ないものではない、ということだ。

活動が滞ると、その分すぐに他社が追いついてくる。

マイクロソフトは「共依存」をいつまで維持するのか

OpenAIはサーバーをマイクロソフトに依存している。マイクロソフトはOpenAIに対する最大の出資者だが、逆に言えば、世界トップクラスのクラウドインフラ事業者であるマイクロソフトの力を借りなければ、ChatGPTを含むOpenAIの快進撃も実現できなかっただろう。

マイクロソフトはOpenAIに依存したサービス施策を矢継ぎ早に提供しているが、一方インフラ面でOpenAIはマイクロソフトに依存している。

海外の報道によれば、マイクロソフトがアルトマン氏らの離脱を知ったのは、11月17日の発表直前であるという。

両輪が揃っていないと今の快進撃は実現できないわけだが、その片方が止まりそうになったのを突然知ったマイクロソフトの驚きは想像以上であっただろう。

マイクロソフトのサティア・ナデラCEOはすぐに交渉し、「アルトマン氏らがマイクロソフトに入る」とコメントを発表したが、どのような体制で、どのような組織体を構成するのかといった詳細は公表されなかった。なによりもまず「両社のコンビネーションは安泰です」とアピールする必要があったからだろう。

今回の騒動では、OpenAIへの発言力をマイクロソフトが強化し、漁夫の利を得たようにも見える。だが、同社が取締役会に関係者を送り込めたわけでもなく、両社の関係や体制に変化はない。

今後も体制を維持するなら、OpenAIのガバナンス強化は必須だ。一方で、マイクロソフトとして「OpenAI以外の選択肢」、例えば自社でLLMを開発していく道もなくはない。すでに小規模なLLMは研究しているが、今後はどうなるのだろうか。

(西田 宗千佳 : フリージャーナリスト)