写真提供:マイナビニュース

写真拡大

●AI分野にかけるインテルの意気込み
米インテルが開催した「Intel AI Day」では、同社の人工知能戦略が明らかになった。近年、AI分野ではディープラーニングの台頭に伴いGPUコンピューティングに押され気味の同社CPU群だが、AI市場においても再び存在感を表す意気込みが感じられる。

○AI市場にかけるインテルの本気

インテルは半導体市場における世界第1位の企業であり、特にCPUにおいては市場の8割近いシェアを持つ。だが、近年はスマートフォン・タブレット向けのARMアーキテクチャの台頭とPC市場の縮小などで以前のような存在感は薄れており、またAI市場においては、NVIDIAのGPUをディープラーニングに利用する手法が定着してからは、CPUは完全に脇役のような位置付けになってしまっている。

同社は2020年にはAI向けのコンピューティングサイクルは現在の12倍に拡大すると推測しており、クラウドからデバイスまで幅広く半導体を提供する同社にとって、AIに注力するのは、再び業界の中心として返り咲くための戦略として、当然の帰結ともいえる。

インテルは2015〜2016年にかけて、AI関連の企業を多数買収している。この中には独自のコグニティブコンピューティングプラットフォームを持つSaffron Technology、組み込み機器向けのコンピューティングビジョン用SoCの開発を行うMovidius、ディープラーニングを専門とするNervana Systemsなどがある。

特にNervana Systemについては非常に重視しており、同社のAI向けプラットフォームを「Nervana Platform」、データセンター向け製品群を「Nervana Portfolio」と名付けたほどだ。この中には、同社の「Xeon」および「Xeon Phi」といったCPU製品群も含まれている。

Xeonプロセッサはワークステーションなどに搭載されるCPUであり、研究室などで実際にAI開発に使われているCPUとしてはおそらく最大のシェアを誇る製品だ。またXeon Phiはメニイコア(数十以上のCPUコアを搭載するプロセッサ)のMICアーキテクチャを採用したCPUおよびコプロセッサボードの製品であり、GPUと同様に並列コンピューティング向けになる。Nervanaの中では高性能なマシンラーニング向けに提供される。

さらに、学習済みのディープニューラルネットワークを使った推論システム向けにはXeonと昨年買収したAltera通信社のArria 10 SoC(FPGA)の組み合わせを、ディープラーニングの学習向けにはクラス最高のニューラルネットワーク性能を実現するべく、XeonとNervanaのテクノロジーを投入する「Lake Crest」コプロセッサの組み合わせが提供される。

Xeon Phiについては2017年に販売される次世代版「Nights Mill」にいてディープラーニング性能が4倍に向上し、32ノードにスケーリングした場合はマシンラーニングにかかる時間が31倍高速化されるとしている。また「Lake Crest」およびXeonと統合された「Knights Crest」世代が投入されることにより、マシンラーニングにかかる時間は2020年までに現在の100分の1に短縮できるとした。

●オープンエコシステムでAI市場の拡大目指す
○無償のソリューション提供で普及に拍車をかける

さらにインテルは、Nervanaが開発していたディープラーニング向けのフレームワーク「neon」の提供や、ディープラーニング用SDK、マス・カーネル・ライブラリやデータ解析用ライブラリ(DAAL)を無償で提供するなど、オープンエコシステムを通じてAIソリューションを提供することで、AI市場全体の普及を促進するとしている。

また、グーグルとも提携し、コンテナ型仮想化技術「Docker」の管理フレームワーク「Kubernetes」、ディープラーニングソフト「TensorFlow」、そしてGoogle Cloud Platformを、ぞれぞれインテルアーキテクチャ上で最適化することを明らかにしている。特にAI関連の最適化はまだほとんど進んでおらず、最適化が行われるだけで、現在よりも数段高速化することが見込まれるという。

インテルはAI関連のソフトウェアの97%はインテルアーキテクチャ上で動作していると推測しており、こうしたAIのメインストリームにける圧倒的な実績と、データセンター向けコンピューティング向け「Nervana Platform」の提供、またさまざまな買収によって得られたAI関連の資産や提携・標準化への取り組みなどを経て、IoTからクラウドまでの市場ニーズを満たす唯一のサプライヤーとしての優位的な位置付けを活かしていきたいという意向を示した。

●インテルに残された課題
○AIはどのように発達するのか

人工知能にはさまざまなタイプや学習方法があるが、近年話題になっているディープラーニングでは、人間が特定のデータにラベルをつけて正解を教えてやらなくても自分で正解を探してくれるため、人間の仕事だった処理を自動化できるのが最大のメリットだ。ただしこの学習には非常に大きなデータが必要になり、データのやり取りを行うI/O自体がボトルネックとなってしまっている。

インテルがNervanaテクノロジーで目指しているのは、メニイコアを前提とした高並列の分散システムへの最適化と、それによるAI処理のスループットの向上だ。GPUを大きく上回る、高速かつ巨大なメモリへのアクセスが可能になることで、コア数あたりの学習速度は線形的に向上するようになる。学習速度が大幅に向上すれば、それだけAIが活躍する場面も増えてくる。インテルの目論見通り、現在の100倍も高速なディープラーニングが可能になれば、現在なら数カ月かかっていたものが1〜数日で解決することになる。よりユーザーの位置に近い、学習データを使った推論システムを搭載した機器類(=IoT)も、従来よりはるかに高い水準の性能と改良速度を得られるはずだ。

なにより、ベースとなる学習速度が高まれば、これまで時間の問題から検証できなかった新しい学習アルゴリズムが発見される可能性もある。演算速度の大幅な向上はAI自体の発展にも予測のできない影響を与える可能性があるわけだ。

ひとつだけ心配するとすれば、インテルはその歴史上、企業買収では失敗しているほうが多い。買収したはいいがその分野を伸ばせずに売却したり、消滅していった製品や企業も数多い。幸い、AIではハードウェアの改良もさることながら、ソフトウェアの最適化や改良も大きなポイントとなっている。

AI分野ではGPUに最適化されたソフトも多いが、主要なソフト類はまだまだインテルアーキテクチャ上で動作するものが大半だ。それらが高速化・最適化によって、何も手を入れない状態で高速に動作するようになるとすれば、開発コストの低減や開発サイクルの高速化に大きく貢献できるはずだ。

難しいことを考えずに導入したハードウェアで、これまでのソフトがそのまま高速に動作する、という状況を計画通りに作り上げることができれば、AI開発におけるインテルプラットフォームの重要性はこれまで以上に増すだろう。AI業界全体の発展のためにも、インテルの思惑がうまく作用することを期待したい。

(海老原昭)