写真提供:マイナビニュース

写真拡大

●CEOのジェンスン・ファン氏が講演
NVIDIAは10月5日、都内でGPU Technology Conference Japan 2016(GTC Japan)を開催した。GTCは2014年まで、米国と日本など限られた地域でのみ開催されていたが、2015年から中国やEU圏などに範囲を広げ、2016年は、米国で2回、中国、EUとすでに4カ所で開催。日本で5カ所目となる。

基調講演では、NVIDIA創業者でCEOのジェンスン・ファン氏が登場。すでに各地のGTCで発表した内容も含め、近年、同社が傾倒するGPUを使ったディープラーニング技術の紹介や、取り組みを中心に講演を行った。

まずファン氏は、コンピューティングの歴史を簡単に振り返る。1995年にインターネット接続が可能になり、10億人のPCユーザーが登場した。さらに2006年からAmazonやYahooのクラウドサービスやスマートフォンなどが登場し、モバイルユーザーは25億人に達した。

そして現在、AI技術やIoTなどにより、さまざまな機器がインターネットに接続しはじめた。この流れは加速し、数千億台のデバイスがインターネットに接続するようになるとファン氏は予測する。同氏がそう考えるのにはわけがある。GPUが可能にするディープラーニングにより、新しい「コンピューティングモデル」が登場し、AI革命が始まるからだ。

ファン氏は「すでにディープラーニングによる"AI革命"の準備が整った」という。ディープラーニングを使った画像認識は、2012年に人が書いたプログラムよりも高い認識率を達成し、現在では、人間よりも画像を正確に認識できるようになった。また、マイクロソフトは、2016年に誤差率6.3%と従来よりも遙かに高い性能をディープラーニングで実現した。

こうした中、「NVIDIAは"AIコンピューティングカンパニー"に変貌した」とファン氏は表現する。いまでは「GPUコンピューティング」「ビジュアルコンピューティング」「AI」が同社の注力分野になっているという。

○GPUディープラーニングは「新しいコンピューティングモデル」

ファン氏は、GPUディープラーニングは「新しいコンピューティングモデル」なのだと説明する。これまで、「サーバー、クライアント」、「クラウド」といったコンピューティングモデルが登場したが、GPUディープラーニングでは、クラウド側にあるデータセンターで大量のデータから学習を行い、ニューラルネットワークを作る。この学習モデルを使って、さまざまな推論を行い、「インテリジェントデバイス」やサービスを構築する。

「インテリジェントデバイス」はインターネット経由でこれを利用するだけでなく、高性能なものでは、それ自身がニューラルネットワークを実行し動作できる。こうした「インテリジェントデバイス」が、センサーなどにより、大量のデータをクラウド側に送信、これが学習データとなり、さらにニューラルネットワークを進化させる。

精度の高い学習モデルを構築するために、ニューラルネットワークの規模はどんどん大きくなる傾向にある。それに応じて学習に必要な計算パワーも大きくなっていく。例えばMicrosoftの画像認識システムでは、エラー率を3年間で1/4にしたが、一方でモデルのサイズは16倍になり、計算量も同様に増えた。

また、Baiduの音声認識システムでは、当初7,000時間のデータを使っていたが、エラー率を半分にした次世代のシステムでは、学習に必要な処理は10倍と大きく増大した。このようなデータの増大に対応するには、並列処理が可能で、性能向上が早いGPUを利用するしかないという。

○"Pascal"でディープラーニングをさらに加速

そこでファン氏は、現在のGPUアーキテクチャである"Pascal"を紹介した。Pascalは、アーキテクチャの改善や16nm FinFETプロセス、広帯域メモリ「HBM2」などの技術を使って高性能を達成したGPUで、4年前に登場した"Kepler"アーキテクチャと比べて、65倍の性能がある。また、数多くのディープラーニング用フレームワークに対応し、学習時間を短縮できる。

ディープラーニングでは、作成したニューラルネットを使い、クラウド側にアップロードされた大量の画像や音声、動画を日々分析している。このためにも高速な計算が必要になる。こうした用途に対して、NVIDIAが現在提供するのが、科学技術計算用のGPU、Teslaシリーズで、2016年9月に発表されたばかりの新モデルが、「推論処理アクセラレーター」Tesla P4とTeslaP40だ。

どちらもPascalアーキテクチャをベースとしている製品で、P4は50Wで動作し、汎用CPUの40倍のエネルギー効率を実現する。一方でP40は、250Wで動作、汎用CPUの40倍の性能を持つ。Tesla P4、P40は、現行のPascalアーキテクチャだが、推論処理用に新たに8bit整数演算機能を持つ。

また、これに合わせ、推論処理を高性能化する「TensorRT」も紹介した。これは、かつてGIE(GPU Inference Engine)と呼ばれていたソフトウェアだが、実行するニューラルネットワークの最適化や、結論を変えない不要な計算の削除、さらに16bit浮動小数点演算を8bit整数演算に変換するなどして処理を高速化するもの。

こうしたシステムのデモとして、動画を絵画風に変換できるアプリ「ARTISTO」による動画変換を披露した。このデモは、ニューラルネットワークを使って、画像をピカソ風にするもの。最初は録画された動画を変換したが、続いて会場を映すカメラの映像をリアルタイムで変換してみせた。

●着実に進化する自動運転
○さまざまな企業と協業するNVIDIA - 日本ではファナックとの提携を発表

ファン氏は、すでにNVIDIAの製品によるAIコンピューティングのエコシステムが形成されているという。多くのコンシューマー向けサービスが、クラウドやアプリでディープラーニングを活用するほか、MicrosoftやIBM、アマゾンなどのクラウド構築サービスでAIを利用できるようになっている。また、オンプレミス向けとしてもシスコ、デル、HPエンタープライズ、IBM、レノボといった企業がエンタープライズAIを提供している。また、NVIIDAは1,500以上に上るAI関連のスタートアップ企業と協力しているという。

続いて、GTC Japanに合わせて、日本のAI技術についても触れた。すでにレコメンデーションや株取引などにディープラーニングが応用され、IoT向けのディープラーニング構築も可能になり、さまざまな製品が登場しつつある。

こうした市場向けに、NVIDIAは、組み込み開発ボードJetson TX1を提供しているという。TX1を利用する製品は「インテリジェントデバイス」であり、カメラと組みあわせれば「誰が来たのか」を認識可能で、ドローンは人の近づけない場所を自律飛行し、配送ロボットにも応用できるとした。

そしてファン氏は、今回の大きなトピックとして、日本のファナックとの提携を発表した。ファナックは、AIを製造ロボットに導入するが、そのときにNVIDIAのテクノロジーを採用することを決定、NVIDIAと提携を行うことにしたという。壇上には、ファナック 取締役執行役員でロボット事業本部長の稲葉清典氏が登場し、ファン氏とAIと製造ロボットの未来について話し合った。

○着実に進化する自動運転

さらにファン氏は、AIは「トランスポーテーション」市場を大きく変化させ、それには1,000兆ドルの市場規模があるという。そのうえで、自動運転は交通における利便性や安全性の向上に加えて、交通渋滞なども解消可能で、将来の都市計画にまで影響を与えるとした。

自動運転は、AI技術のさまざまな要素が必要で、さらに実用化しても新たな経験に対応するために学習と改善を継続しなければならない。そのためにNVIDIAが提供しているのが、車載向けの開発プラットフォーム「DRIVE PX2」とそのOSとなる「DRIVEWORKS ALPHA 1」だ。

DRIVE PX2は、高速道路の自動運転である「オートクルーズ」から、完全自律運転までを同一アーキテクチャで対応するスケーラブルなシステム。自動運転には、単純に高速道路を自動走行することから、目的地まで自動で運転するもの、さらにまったくドライバーを必要としない自律運転まで広い幅がある。

必要とされるソフトウェアも多数あり、高度なシステムになれるほど必要なソフトウェアが増えて積み上がっていく。このため、同一アーキテクチャでスケーラブルに拡大できるシステムを使い、ソフトウェアを共通化することが重要だという。

Drive PX2は、PascalアーキテクチャのGPUを内蔵するSoCを使ったものから、複数のGPUを搭載する高性能な製品があり、さらに高度な要求には、複数のDrive PX 2を利用することも可能だ。ファン氏は、このうち、オートクルーズレベルの自動運転に対応する「DRIVE PX 2 AUTOCRUSE」を紹介した。これは、10WのSoCを搭載、水冷などのアクティブ冷却が不要な製品となっている。

そして、こうした製品で利用できる自動運転車のためのOSが「DRIVEWORKS ALPHA 1」だ。これは、さまざまな自動運転用コンポーネントからなるソフトウェアで、自動運転に必要な基本的な機能を備える。

自己位置推定機能や、画像から周囲の物体を認識するディープニューラルネットワークである「DriveNET」と、走行可能な「フリースペース」を認識する「OpenROADNET」を使い、周囲をどのような物体が占有しているのかを記述する「オキュパンシーグリッド」を作る。また、運転を制御する「PilotNet」は、オキュパンシーグリッドから、交通状況がどうなっていくかを予測、自車の走行路を計画し、それに基づいて自動車を制御する。

オキュパンシーグリッドを使って、自車と周囲の状況を俯瞰するグラフィックスを表示することも可能だという。このため、将来の自動車では、自動運転しない場合でも、ミラーは不要になるという。

その後ファン氏は、実際に「DRIVEWORKS」を使った走行実験のデモビデオを見せた。運転席からの録画画像に、DRIVENETが認識した他車を立方体で示し、道路上のラインを認識して走行路を判別する。その上で、自車が進行可能な「フリースペース」を判断、これに応じて自車のコントロールを行っている。また、こうした走行状態を後方や側面からの俯瞰画像にして表示することもNVIDIAのビジュアルコンピューティングで可能になるという。

さらにNVIDIAが実際に開発している自動運転車BB8の走行デモビデオも合わせて紹介された。BB8は、人間が実際に運転して得たデータを学習し、画像から進行方向を判断、道路の工事などを判断し必ずしも道がなくても、コーンの間を走り抜けることができるようになったという。

NVIDIAのプラットフォームは、中国BaiduやオランダのTOMTOMといった企業の自律走行車開発でも採用されている。クラウドを利用するオープンプラットフォーム「CLOUD-TO-CAR」を構築するもので、クラウド側にTesla、車側にDRIVE PX 2を搭載する。

また、ファン氏は、次世代の製品としてXAVIER(エグザビアー)を紹介した。これは、次世代アーキテクチャ"Volta"をベースとしたGPUに加え、64bit ARMアーキテクチャの改良版であるDenverコア8基を統合するもの。コンピュータービジョン処理のハードウェアであるCVA(Computer Vision Acceralerter)も搭載している。

このXAVIER SoCを使えば、現在のDRIVE PX2と同性能のボードを20Wのコンパクトなボードとして実現できるという。

そしてファン氏は「NVIDIAは、すべての領域にAIコンピューティングを提供できるパートナーである」とし、AIはすべての人が利用可能になるという。「AIはもはやSFじゃない」としてファン氏は講演を締めくくった。

(塩田紳二)