欧州のある大規模スーパーマーケットチェーンが、2019年の初めに人工知能(AI)を導入した。この企業はAIを使って顧客が毎日さまざまな店舗で購入する製品を予測し、コストのかかる製品廃棄の削減と在庫の維持とを両立させていた。

「AIの進歩は頭打ちに? このままでは「膨大な計算量」が壁になるという研究結果が意味すること」の写真・リンク付きの記事はこちら

売上を予測するためにこの企業は、すでに購入データとシンプルな統計的手法を使用していた。さらに、局地的な天気や交通状況、競合他社の動向といった追加情報に加えて、近年のAIの目覚しい進歩を加速させてきたディープラーニングを新たに導入したことで、エラーの数を75パーセントも削減したのである。

これはまさに、わたしたちがAIに期待するインパクトのあるコスト削減効果だった。しかし、そこには大きな落とし穴があった。新しいアルゴリズムに必要な計算の量があまりに多く、結局この企業はこのアルゴリズムを使わないことにしたのだ。

「言ってみれば、『クラウドコンピューティングのコストが下がるか、アルゴリズムがもっと効率的にならない限りは、大規模に導入する価値はありませんね』といった感じでした」と、マサチューセッツ工科大学(MIT)の研究者で、そうしたケーススタディーを集めているニール・トンプソンは語る。なお、トンプソンはこの企業の名を明らかにしていない。

この事例は、AIとそのユーザーに迫っている問題を浮き彫りにしているのだと、トンプソンは指摘する。近年のAIの進歩は圧倒的に速く、ゲームで人間を超えるプログラムや親切なパーソナルアシスタント、混雑した道路を自律走行するクルマなどを生み出してきた。しかし、こうした進歩を続けられるかどうかは、問題に対してより多くの計算リソースを常に投入し続けられるかどうかにかかっている。

トンプソンをはじめとする研究チームは新しい研究論文で、こうした進歩を続けるためにこれまでと同じペースで計算能力を高めていくことはできないか、まもなくできなくなるだろうと論じている。これにより、コンピューターヴィジョンや翻訳、言語理解のような分野におけるさらなる進歩には、歯止めがかかる可能性がある。

飛躍的に増加する計算量

AIに必要な計算量は、ここ10年で飛躍的に増加している。ディープラーニングのブームが始まった12年には、トロント大学のチームが2つのGPUを使って5日以上かけて画期的な画像認識アルゴリズムを生み出した。19年には、グーグルとカーネギーメロン大学の研究者らが、初期のGPUより格段に優れた性能の特殊なチップ約1,000個を用いて、6日間かけてより優れた画像認識アルゴリズムを開発した。

また、グーグルのチームによって19年に開発された翻訳アルゴリズムは、1週間でおよそ12,000枚の特殊チップを必要とした。ある試算によると、この膨大な計算能力をクラウド経由で利用すると、最大300万ドル(約3億2,000万円)かかるという。

「ディープニューラルネットワークは計算コストが非常に高いのです」と、MITの助教授でディープラーニングの効率化を専門とする韓松(ハン・ソン)は語る。韓はトンプソンの論文の共著者ではない。「これは重大な問題です」

韓のグループは、新たな構造のニューラルネットワークと特殊な構造のチップを使って、一般的なAIアルゴリズムのさらに効率的なヴァージョンを作成している。しかし、「ディープラーニングに必要な計算量を減らすには、まだまだ長い道のりです」と、韓は言う。

同じ手法での進歩は、ほぼ不可能?

ほかの研究者たちも計算需要の高まりを指摘してきた。フェイスブックのAI研究部門の責任者を務めるジェローム・ペゼンティは19年の『WIRED』US版のインタヴューに対し、AI研究者は計算リソース不足の影響を感じ始めていると語っている。

関連記事:AI研究はじきに行き詰まる:フェイスブックの責任者が見据える「限界」のその先

さらに優れた新しいアルゴリズムが登場しなければ、こうしたディープラーニングの限界によって複数の分野で進歩が滞り、コンピューターが人間の仕事にとって代わるペースに影響を及ぼす可能性がある──。MITのトンプソンらは、そう考えている。

「仕事の自動化は、恐らく予想よりゆっくりと進みます。人間レヴェルのパフォーマンスに達するには、予想されていたよりずっと高額のコストが必要になるからです」と、トンプソンは語る。「仕事の観点から見ると、自動化がゆっくり進むことはいいことに思えるかもしれません」と彼は指摘するが、これによって生活水準を高める上で鍵となる生産性の向上も遅くなってしまう。

トンプソンらは研究において、新しいアルゴリズムを提案した1,000を超えるAIの研究論文を参照した。すべての論文が計算の要件について詳細に説明していたわけではないが、性能の向上に必要なコストを割り出すには十分である。こうした示されたのは、これまでと同じ方法でさらに進歩を遂げることは、ほぼ不可能であるということだった。

研究者からは計算コストの不満も

英語からフランス語への機械翻訳を例に挙げよう。現在、このタスクのエラー率は約50パーセントだが、これを計算能力だけに頼って10パーセントまで改善しようとすると、実に現在の10の31乗倍という途方もない計算能力が必要になる。この論文は査読前論文の掲載サイト「arXiv」に投稿されており、まだ査読を受けたり、ジャーナルに掲載されたりはしていない。

「わたしたちは、すでにこの壁にぶつかっています」と、トンプソンは語る。トンプソンによると、特に大規模で最先端のAIプロジェクトに取り組む研究者らが最近、計算コストが非常に高くて複数のアルゴリズムの設計を試したり実験をやり直したりできないと、講演や論文で不満を言い始めたという。

確かに、よりパワフルなチップやより効率的なソフトウェアが登場すれば、AIがある種の限界に近づいているという考えを覆せるかもしれない。チップの部品の小型化による進歩は、原子スケールの製造に課題があるにせよ続いている。それにAI向けの新しい特殊チップは、ディープラーニングの計算をより効率的に実施できるのだ。

しかしトンプソンは、ハードウェアの改善によって、自律走行車やリアルタイム音声翻訳などを最先端まで進歩させる際のニーズが満たされる可能性は低いと指摘する。「アルゴリズムには相当な改善がありました。もちろんハードウェアにも多くの改善があります」と、トンプソンは言う。「でも、必要とされる計算能力はそれ以上に高まっているのです」

環境負荷を減らすために研究者ができること

こうしたAIの計算の大幅な増加は、環境への負荷にもつながる。とはいえ、実際はコンピューターの効率性を詳細に把握しないと、あるプロジェクトが生み出した排出物の量を計測することは難しい。最近の研究では、効率性が向上したことでデータセンターのエネルギー消費量が過去10年でほとんど増加していないことが示されている。

モントリオール大学の博士研究員で、AIの環境への影響を研究するサーシャ・ルッチオーニは、AI分野でより多くの計算能力が使われるようになっていると認める。そして大量の計算ニーズを減らすために、研究者が行動を起こせるのだと語る。クラウドのインフラとチップを注意深く選び、アルゴリズムの効率性を考慮し、プロジェクトにかかわる計算と排出量の両方を明らかにすることが重要なのだという。

アレン人工知能研究所の最高経営責任者(CEO)を務めるオレン・エツィオーニは以前、環境により優しいAIを求めていた。「近年のAIの成功において、計算能力は重要な要素です」と、エツィオーニは語る。「しかし、わたしたちは、継続的に効率性を向上させる限界に挑んでいるのです」

トンプソンは、最終的にディープラーニングの手法が改善されたときに、計算能力の消費が少なくなるだけではないことを期待している。「こうした新しい技術を見つけることは簡単ではありません。しかし、広く応用できる技術がいくつか見つかれば、きっとまた別の応用が生まれるのです」

※『WIRED』による人工知能(AI)の関連記事はこちら。ディープラーニングの関連記事はこちら。