OpenAIのサム・アルトマンCEO。同社は最近、最も人間に近いバージョンのChat-GPTを発表した。 Photo: Jason Redmond/Getty

TECH INSIDER 2024年6月20日掲載の記事より転載

・AI研究者のロマン・ヤンポルスキーは、AIが人類を絶滅に導く可能性を99.9%と見積もっている。

・彼は、これまでのところ安全なAIモデルはなく、将来のモデルにバグがない可能性も低いと述べている。

・他のAI研究者は、AIが人類を絶滅に導く可能性について、もっと控えめな予測をしている。

ポッドキャスターのレックス・フリードマン(Lex Fridman)が最近のエピソードで語ったことろによると、彼が話をするほとんどのAIエンジニアは、AIが最終的に人間を絶滅させる可能性は1%から20%の間だと見積もっているという。

その予測は質問の仕方によって異なる。例えば、2700人のAI研究者を対象に実施された最近の調査では、AIが人類の絶滅につながる可能性はわずか5%であることが示された。しかしフリードマンは、それをはるかに高い確率で予測している人と話をすることが重要だと言う。例えば、AI研究者のローマン・ヤンポルスキー(Roman Yampolskiy)は、100年以内にAIが人類を絶滅させる可能性は99.9%だと、2024年6月2日に公開されたエピソードでフリードマンに語っている。

ヤンポルスキーはルイビル大学でコンピューターサイエンスを教えており、『AI: Unexplainable, Unpredictable, Uncontrollable』という本を出したばかりだ。

彼はフリードマンのポッドキャストで2時間以上にわたってAIのリスクについて語ったが、その予測はかなり暗いものだった。

彼によると、AIが人類を絶滅させる可能性は、今後100年以内に人間が「バグのない」極めて複雑なソフトウェアを作れるかどうかにかかっているが、その可能性は低いという。というのも、AIに設計されていないことをさせようとする人間から完全に安全なAIモデルは存在しないからだ。

「(AIは)すでに間違いを犯している。事故もあったし、ジェイルブレイク(脱獄:メーカーが承認していないソフトウェアを動作させること)もされた。今日、開発者が意図していないことはできないという大規模言語モデルは、ひとつもないと思う」

これまでの2年間、初期のAIモデルは、悪用や誤報の可能性を示すさまざまな赤信号を発してきた。ディープフェイクによって有名な女性の偽のポルノ画像が作成され、バイデン大統領の声を真似たAIロボコールによって選挙戦が脅かされた。

失敗してしまったAI製品の中でも最も新しいのは、グーグル(Google)のGemini AIモデルを基にした「AI Overviews」だ。グーグル検索のこの新機能は、特定のクエリに対する検索結果の概要をページ上部に表示し、有益な情報をすばやく提供することを目的としていた。ところが、接着剤を使ってピザを作ることを提案したり、アフリカにはKで始まる国はないと述べたりするなど、意味不明な回答を導き出したことで話題になった。

AIをコントロールするには、永続的な安全装置が必要だとヤンポルスキーは言う。人間が今後のGPTのいくつかのバージョンをうまく開発したとしても、AIは改善し、学習し、自己修正し、さまざまなプレーヤーと対話し続けるだろう。その実存的なリスクに関しては「チャンスは一度しかない」のだという。

ChatGPTの開発者であるOpenAIのサム・アルトマン(Sam Altman)CEOは、人間がAIの実験を行い、何が「本当に間違っていた」のか、何が「本当に正しかった」のかに基づいてAIを規制する「規制のサンドボックス(仮想環境)」を提案している。

アルトマンは2015年に、「AIはおそらく世界を終焉に導くかもしれないが、それまでにすばらしい企業が生まれるだろう」と警告した。あるいは単なる冗談だったのかもしれない。

最近の彼は、AIに関連する「あらゆるSF的なこと」のせいで夜も眠れないと語っている。「物事が本当にうまくいかないことが容易に想像できる」のだという。

2022年11月にChatGPTが世界を席巻して以来、AIが人類を破滅に導く可能性についてさまざまな予測がなされてきた。

ヤンポルスキーは、「より知的になったシステムが何をするかは予測できない」と警告している。彼はAGI(汎用人工知能)の文脈で人間をリスに例えて、「人間がリスをどのようにコントロールしたり、殺したりするのかを理解しようとするリスのことを考えてみてほしい。人間の1000倍も賢いシステムは、我々がまだ存在すら知らない何かを考え出すだろう」と述べた。

彼が予測する未来には3つのリスクの領域がある。ひとつは誰もが死ぬというリスク、もうひとつは誰もが苦しみ、死んだ方がましだと願うというリスク、そして最後に人間が完全に目的を失うというリスクだ。

最後のリスクは、AIシステムが人間よりも創造的で、すべての仕事をこなせるようになる世界を指している。そのような現実の中で、人間がどのように貢献できるか分からないとヤンポルスキーは述べ、AIが人間の仕事を奪うようになるのではないかという懸念に同調している。

一方で、この分野のほとんどの人が、AIにはある程度のリスクがあることを認めているが、悪い結果に終わる可能性は低いと考えている。イーロン・マスク(Elon Musk)は、AIが人類を滅ぼす可能性は10〜20%だと予測している。

グーグルの元CEOであるエリック・シュミット(Eric Schmidt)は、AIの本当の危険性はサイバー攻撃や生物学的攻撃であり、3年から5年後にはやってくると述べている。もしAIが自由な意志を発達させたとしても、シュミットの解決策は簡単だ。人間がAIの電源プラグを外せばいいのだ。

編集部より:一部、説明を加筆しました。 2024年7月8日 19:20

Ana Altchek [原文] (翻訳:仲田文子、編集:井上俊彦)
Photo: Jason Redmond/Getty