LLMが「越えられない壁」。AIの限界点が数学的に証明された
今年の終わりにどうなっているか、ですよね。
いつのまにかなくてはならない存在になりつつある人工知能モデル。その多くを支えている基盤技術は、機械学習と言語処理の一種である大規模言語モデル(LLM)と呼ばれるものです。
AI企業の多くは、LLMに十分な量のデータを与えれば、人間のように考え、機能する完全自律に近いものを実現でき、さらに人間以上の集合的な知識が加わると考えています。しかし、ある研究で「LLMはある一定の複雑さを超える計算的かつエージェント的なタスクを実行できない」ということが数学的に証明されたとのことです。
親子研究で出たAIの限界点
この論文は、Vishal Sikka氏(父)とVarin Sikka氏(息子)の2人の研究者によって発表されたもので、公開当初はあまり注目されていませんでしたが、その後大手メディア「WIRED」によって取り上げれ、注目を集めています。
結論自体はかなりシンプルですが、そこに至るまでには複雑な数学が多く使われています。できるだけ簡単に説明すると、LLMに与えられる特定のプロンプトやタスクは、モデルが処理できる範囲を超えた複雑な計算を必要とする場合があり、そういった状況では、モデルは要求された行動を最後まで実行できなかったり、誤った形でタスクを実行してしまったりするという考え方です。
人間のチェックを入れずに、手順がいくつもある作業を最初から最後まで自分で進められるのが、いわゆるエージェント型AIですが、そのエージェント型AIが汎用人工知能を実現する手段になるという考え方に対して、この研究はかなり冷静な視点を投げかけています。
もちろんこの技術には役割がないとか、今後良くならないという話ではありませんが、「可能性は無限だ」と謳っているAI企業があまり触れたがらない、現実的な上限が存在するということを示している研究結果ですね。
知能があるように見せているだけのLLM
LLMが期待されているほど万能ではないかもしれないと指摘したのは、この研究が初めてというわけではないですが、今回の研究はこれまで多くのAI懐疑論者が抱いてきた感覚に、数学的な裏付けを与えているものといえます。
昨年、Apple(アップル)の研究者たちが、LLMは実際に推論したり考えたりしているわけではなく、そう見せているにすぎないという結論の論文を発表しました。また、Cognitive Resonanceの創業者Benjamin Riley氏は、LLMの仕組み上、私たちが考える意味での「知能」を本当の意味で獲得することはないだろうと述べています。
ほかにもLLMを用いたAIモデルが新しい創造的な成果を生み出せるかどうか、その限界を検証した研究がありますが、結果はあまり印象的なものではありませんでした。
イーロンの予想とは正反対
複雑な数式の説明の方がしっくりくるという人にとっては、今回の親子による研究が求めていた証拠になるかもしれません。現在のAIはいろんなことができるけれど、少なくとも今年中に人間の知能を超える技術にはならないだろう、という見方を裏付ける証拠となりました。イーロン・マスクは「今年中に人間の知能を超える」と言い張ってますけどね。

