OpenAIサム・アルトマンCEO解任劇の背景には「EA支持者の考えるAIに対する懸念」があったと伝えられているが…(撮影:尾形文繁)

11月半ば、OpenAIに起きた突然の内紛は、同社取締役会のメンバー刷新に伴うガバナンス強化、という形で幕を閉じた。

現状でもなぜ内紛が起きたのかは、内部からのリークなどをソースとした「臆測記事」がほとんどであるのが実情であり、確たる証拠のある情報が出ているわけではない。ただ多くの記事では、生成AIの開発についての今後の方針、特に倫理面での考え方について、意見が分かれたとする説が採られている。

生成AIと倫理の間にはどんな関係があるのか、ここで少し情報を整理しておきたい。

忘れられた「3月の公開書簡」

今年の3月、アメリカの非営利団体Future of Life Institute(FLI)が、ある公開書簡を発表した。

その内容は、「高性能なAIは危険性を孕んでおり、制御不可能になった場合のリスクが大きい。生成AIは性能が急速に向上しており、リスクの見極めが必要であるので、GPT-4よりも強力なAIシステムの訓練を少なくとも6カ月は停止せよ」というものだった。

この公開書簡には、イーロン・マスクやスティーブ・ウォズニアックなどのテック業界の大物のほか、AI研究の大御所でモントリオール大教授のヨシュア・ベンジオをはじめとするAI研究者も多くサインしている。

そのことから当時は注目されたものの、結論から言えば、ほぼ無視される形になった。生成AIの学習は停止されず、むしろ大規模化が進行中だ。

グーグルが12月6日に発表した「Gemini(ジェミニ)」は、ゼロから学習し直した生成AI。性能の指針となるパラメーター数は公開されていないが、同社が今年5月から使ってきた「PaLM 2」よりもかなり規模が大きくなっていることは間違いない。

OpenAIも、GPT-4の改良・追加学習をずっと続けている。公開当時は2021年9月までの情報を学習した形だったが、11月に公開された「GPT-4 Turbo」以降は2023年4月までの情報で再学習が行われている。

OpenAIやマイクロソフト、グーグルなどは、FLIの公開書簡に反応をしなかった。一時は騒がれたものの、結局なにも起こらなかった。

大手も「AIの規制」には協力的

なぜなのか?

大手が利己的に技術を優先した、と考えがちだし、そうした側面もゼロではないだろう。

ただ、彼らが生成AIの危険性を意識していないのか、というとそうではない。

ビッグテック規制論が幅をきかせ、大手はそのことに反発の姿勢を示すことは多いものの、生成AIの活用ルールに「各国政府に協力する」姿勢を明確に示している。OpenAIのサム・アルトマンCEOにしろ、グーグルのスンダー・ピチャイCEOにしろ、生成AIの活用ルール策定という面では、政府による規制には前向きな姿勢を示している。

生成AIにはハルシネーション(間違った情報)の生成やフェイク作成への活用といった課題がつきまとっており、その対策は必須だ。12月14日には、自民党デジタル社会推進本部が、法制化を前提とした「AIの安全性確保と活用促進に関する緊急提言」をまとめた。政府も年内に、これに沿う新ガイドラインを年内に策定する予定だ。

国際的にルールが作られ、そのルールの中でビジネスを加速するのが1つの既定路線であり、各国も大手もその中で動いている。もちろんそれは「危険性」を理解しているからでもあるわけだ。

そもそもアルトマンCEOは、ChatGPTフィーバーの最中である今年前半、世界各地を回ってメディアに対応、「AIの活用には危険が伴う」こともアピールしていた。彼ら自身が、急速な発展に伴う危険性や倫理の問題に向き合う姿勢を示していたわけだ。

だがそれでも、冒頭で挙げたFLIによる懸念表明は、ほぼ無視された形である。

なぜなのか?

結局のところ、もっとも大きな要因は「懸念がどこまで正しく、切迫したものであるのか、誰も正確に答えることができない」からでもある。

生成AIが急激に賢くなり、人間に近い論理的思考や分析力を持つ時代は確実にやってくる。ただ、そこまでに超えなければいけない山はまだ多数ある状況だ。

2020年にGPT-3が発表され、2022年11月にChatGPTが公開されてからまだ1年くらいしか経ってない。だが、特に2023年中に起きた生成AIの進化はめざましかった。いきなり来年、数々の山を越えて「汎用人工知能(AGI)」が実現する可能性も、まったくのゼロとは言い切れない。

ただ逆に、5年経ってもAGIに達成していない可能性もある。

重要なのは「誰も明確なことは言えない」という点に尽きる。

そこで「まずは止まって考え直すべきだ」という人々がいる一方で、「作らないと先は見えない」と考える人々もいる。アルトマンCEOは明確に後者の立場である。

内紛の発端は「効果的利他主義」か

OpenAIでの内紛も、結局は「止まるべきか加速すべきか」に発火点があったのではないか……と言われている。

そこで取り沙汰されるのが「効果的利他主義(Effective Altruism、EA)」と呼ばれる考え方だ。

EAとは、社会貢献を考えるうえで、効率とインパクトの最大化を重視する思想のこと。社会に貢献することを考える際に、その行為がどれだけ効果を上げるかを数値化して把握し、功利の最適化を目指す。

発想自体は特に過激なものでも、問題があるものでもないように思えるが、特に昨今は、シリコンバレーではEAがある種の「思想」として語られるようになってきた。EAを信奉する人々と、あくまで1つの考え方とする人々の間に溝ができ始めているのだ。

ウォール・ストリート・ジャーナルは11月24日、OpenAIの内紛が「EAをめぐるもの」とした記事を掲載した。

OpenAIはその名のとおり、「オープンにAIを研究する組織」として生まれた。それはEAの思想にも通じたものだ。

だが現在、OpenAIは、開発した生成AIをオープンなものとしていない。開発にはマイクロソフトの強力なサーバー資産を必要とすること、オープンな開発自体が、無責任な第三者による意図しない「AIの悪用」を招く可能性もあるからだ。

アルトマン氏の解任劇では、当時OpenAIのCSO(最高科学責任者)だったイリヤ・サツケバー氏との衝突があったと言われている。そして、ウォール・ストリート・ジャーナルの記事など複数のメディアで、その衝突の背景には「EA支持者の考えるAIに対する懸念」があったと伝えられている。

サツケバー氏は今年7月から、OpenAI内で「スーパーアライメント」と呼ばれるチームを率いていた。これは、人間を超える能力を持つAIをどう監視すべきかを考える部隊であり、彼の懸念を示しているものでもある。

EAの思想性をどう考えるか、ここでは踏み込まない。ただアルトマンCEOはEAには否定的な立場であり、「ルールのもとに開発を加速し、その先を見る」という考え方を持っていた。そこである種保守的な立場であるEA支持者との間で軋轢が起きた……というのは、話としては筋が通る。

OpenAIは12月14日、AIの監視・解釈可能性など、安全性に関わるシステムに関する技術研究に、1000万ドルの助成金を出すと発表した。「スーパーアライメント」開発チームとともに、この基金は管理されていく。

チームは当面サツケバー氏がそのまま率いるとされており、社内の対立は少なくとも外見状、一段落したのだろうと思われる。

AIでも「オープン対クローズド」の対立

一方、AI開発のオープン性をどう考えるかは重要な課題である。

OpenAIのようにルールを守りながらもクローズドかつ大規模な体制で開発するのがいいのか、それとも、オープンな開発体制で「可視化」を重視するのがいいのか。


オープンなAI開発に向け、MetaやIBM、ソニーなどが団体を設立(画像:AIアライアンス公式サイトより)

MetaやIBM、ソニーなど50社以上が集まり、12月6日には「AIアライアンス」が発足した。この業界団体は、あくまでオープン・イノベーションによる責任あるAI開発を目指すもの。Metaが音頭を取っていることもあり、クローズドなOpenAIやグーグルの対抗、という意味合いもありそうだ。

ただ、過去の歴史を見ると、クローズドな体制とオープンな体制は併存しており、これまでは、オープンな体制がクローズドなやり方を呑み込む形で進んできた。

同じことがAIでも起きるかどうか、今結論を出すことは難しいが、「AIの開発をどう進めるか」「開発に伴う倫理性をどう考えるか」という意味では、注目しておくべき流れではある。


この連載の一覧はこちら

(西田 宗千佳 : フリージャーナリスト)