写真提供:マイナビニュース

写真拡大

●NVIDIAは次世代の成長の柱はAIとVR
「GPU Technology Conference 2016(GTC 2016)」は、例年のようにJen-Hsun Huang CEOの基調講演で幕を開けた。ここで、Jen-Hsunが何を喋るかは、NVIDIAのビジネス戦略を理解する上で重要である。

Jen-Hsun Huang CEOは、まず 2012年には2350人であったGTCの出席者が、2016年は5000人と4年で倍増を上回るペースで増えていることを指摘し、Top500スーパーコンピュータ(スパコン)ランキングでも2013年に500位以内にランク入りしたGPUベースのシステムは50システム強であったが、2015年には100システム余りと倍増している。また、CUDAの開発者は2016年には30万人となり、2012年と比べると4倍に増加していると述べ、NVIDIAのCUDA GPUのエコシステムが急速に広がっていることをアピールした。

○NVIDIAの開発の概況

そして、次のスライドを示して、「GAMEWORKS」、「VRWORKS」、「DESIGNWORKS」、「COMPUTEWORKS」、「DRIVEWORKS」、「JETPACK」の6分野での開発状況を説明した。最初に説明したゲーム分野では、物理シミュレーションのPhysXと虎の毛の表現、波や炎の表現の改良をアピールした。しかし、売り上げの割にはGAMEWORKSの扱いは小さく、発展が期待される戦略分野とは位置づけられてはいない。

デザイン分野では、レイトレースのIRAYや材料の質感を高精度で表現するプロのデザイナー向けのMDLという画面表現の改善を取り上げたが、これも扱いは小さいものであった。

NVIDIAは次世代の成長の柱は、「AI(Artificial Intelligence、自動運転関係を含む)」と「VR(Virtual Reality)」と見ているようで、基調講演でも長い時間を割いていた。VRの描画は普通の描画であるが、ユーザが顔の向きを変えるとそれに応じてリアルタイムに描画を変更する必要があるという点が異なる。このため、複数GPUを使用するSLIや違和感の無い画像を効率よく描画する技術を開発している。また、Oculus RiftなどのHMD(Head Mount Display)を主要なゲームエンジンに組み込む努力を行っているという。

HPCやDeep LearningなどでのCUDA GPUの躍進を支えているのは。高い計算能力である。そのComputeについてはCUDA 8は6月リリース、cuDNN 5は4月、nvGRAPHは6月、ParaView用のIndexプラグインは5月とリリース予定を発表した。

自動運転はNVIDIAが最も力を入れている分野で、DriveNetというニューラルネットを自社で開発している。DriveNetは共同開発を行うパートナにはすでにリリースされており、アーリーアクセスも今年の第2四半期には始まる予定である。そして2017年の第1四半期には一般公開という予定で進んでいる。

JETPACKはJetson TX1を使った装置の開発関係で、Jetson TX1を使ったディープラーニングの認識エンジン(GPU Inference Engine)は5月に提供予定である。また、Jetsonによるメディア処理のJetson Media SDKなども開発されている。

○NVIDIAのバーチャルリアリティ

NVIDIAはバーチャルリアリティにも力を入れており、GTC 2016の展示ではVRビレッジと言うコーナーを作ってデモを行っていた。これは非常な人気で、デモを体験する予約には長い列ができていた。しかし、デモ初日ではちゃんと動かないものもあり、十分な完成度とはなっていないようであった。

展示会場でのデモはともかく、基調講演ではエベレスト山を訪問するVRと2030年の火星でローバーを操縦して探検を行うというVRのデモを見せた。ただし、基調講演ではHMDは使えないので、インタラクティブな画面ではない。

また、2030年には火星に基地を置き、徒歩やローバーを操縦して基地の近傍を探検するというVRデモを見せた。2枚目の写真のHMDを付けた人物はデモに引っ張り出されたApple-1を開発したSteve Wozniak氏である。

また、VRに関して、「IRAY VR」と「IRAY VR LITE」という技術を紹介した。IRAYはNVIDIAのレイトレーシングのパッケージで、光の反射なども正確に計算して高精度の絵を作ることができる。しかし、レイトレーシングは計算量が膨大で、1画面を作るのに少なくとも数秒、長ければ何分も掛かり、とても顔の向きに追従して絵を変えるVRに使えるようなものではない。

NVIDIAは、リアルタイムでVR画面を作ることができるIRAY VRとその簡易版であるIRAY VR LITEをGTC 2016で発表した。ただし、リアルタイムでレイトレースを行う訳ではなく、あらかじめライトプローブがどうなるかを計算して置き、それを位置情報を使って変形して使うというゲームエンジンなどで使われている手法を使っているとのことである。

●ディープラーニングの研究を加速させるGPUの発展
○NVIDIAが社運を賭けて力を入れるAI

今回のGTC 2016の主要テーマはAIである。2015年からの1年間はAIに関しては、驚くべき発表が相次いだ。Imagenetの画像認識チャレンジでは150層を超える超ディープなニューラルネットを使うMicrosoftが優勝した。これらのネットは、すでに人間より高い認識精度を実現している。カリフォルニア大バークレイ校が開発したロボット「Brett」は人間が学ぶように、強化学習で部品の組み立て方を習得することができることを示した。Baiduの「Deep Speech 2」は1つのネットワークで英語と中国語を理解でき、両言語間の翻訳ができることを示した。そして、Google DeepmindのAlphaGoは、正式な碁の試合で世界トップレベルのプロ棋士を4勝1敗で下した。これらはいずれも驚くべき成果である。

従来のコンピュータビジョンでは、画像処理の専門家が色々なアルゴリズムを組み合わせて認識を行っていたが、認識プログラムの開発は非常に時間のかかる作業であった。これに対してディープラーニングを使い、大量のデータを使って学習を行わせると、学習には高い計算能力を必要とするが、より簡単に認識が可能になる。ILSVRCのコンペでは、2012年にトロント大のHinton教授のグループがディープラーニングを使って良い結果(右端の図のオレンジのドット)を示し、その結果、2013年には大部分の応募がディープラーニングを使うようになり、2014年以降はディープラーニング一色になってしまった。

ディープラーニングによる画像認識は、従来のCV(コンピュータビジョン)とはまったく異なる計算モデルを使っており、コンピュータが処理すべき計算のモデルが変わってきていると言える。

ビッグデータをGPUで処理して認識を行うという現代AI界のビッグバンから、先進的な大学による研究の段階を経て、コアテクノロジやCaffeやTheanoなどのディープラーニング用のフレームワークがオープンに使えるようになり、また、NVIDIAのGPUとcuDNNが実行速度を改善してきた。

そして、IBMのWatsonやAmazonのWeb ServiceなどAIをプラットフォームとして提供する動きが出てきた。また、ディープラーニングを使ってビジネスを展開しようとする多くのスタートアップ企業が出てきた。

現在では、AlibabaやBaiduなどの大手ネット企業、Ford、BMWなどの自動車メーカーなどの大企業がAIに強い関心を示し、開発に乗り出すという大きな広がりを見せている。

調査会社によると、ディープラーニング関連の売り上げは2024年には1000億ドルを超え、2015年から2024年の10年間の累計の売り上げは5000億ドルに達するという。利用分野別にみると、広告サービスのテクノロジが1位、投資関係が2位で、この2分野で50%を超える。そして、メディア、石油採掘、製造一般などの分野がそれぞれ10%程度となっている。

○NVIDIAはディープラーニング用に幅広いGPUを品揃え

NVIDIAのGPUは多くのハイパースケールのクラウドサービスに使われているとのことで、Alibabaをはじめとして21社のロゴが並んでいる。左の写真はTesla M40と、1Uのサーバに収容でき実装密度の高いTesla M4 GPUである。

そして、新しいフラグシップのTesla P100を発表した。ただし、P100については以前のレポートで詳しく紹介したので、ここでは軽く触れるだけにとどめる。

そして、Tesla P100を搭載したサーバが2017年の第1四半期にIBM、HPE、DELL、CRAYなどから発表されることをプレアナウンスした。

NVIDIAはGPUで加速化されたディープラーニングは、クラウドでも大企業でも使われ、すべての市場でディープラーニングが使われる事になって行くと見ている。

ここで、Jen-Hsun Huang CEOはBaiduのSenior ResearcherのBryant Catanzaro氏を登壇させて、BaiduのDeep Speechが、PascalでNVLINKがサポートされるとどれだけ恩恵を受けるかを説明させた。

続いて、GoogleのフレームワークであるTensorFlowのテクニカルリード兼マネージャのRajat Monga氏が登壇し、TensorFlowがGoogleのニューラルネットワークの開発者の効率を大きく改善しており、TensorFlowを使う開発プロジェクトが急増していると述べた。

そして、Jen-Hsun Huang CEOは、これも新製品であるディープラーニング向けのDGX-1と呼ぶ開発システムを発表した。P100を8台搭載し、ディープラーニングの場合はこれでも良いとされる半精度のFP16の演算であるが、170TFlopsという高性能で、12万9000ドルというのはお買い得な値段である。なお、DGX-1については別のレポートでカバーしたので詳細は省略する。

そして、Jen-Hsun Huang CEOは、ディープラーニング立ち上げたパイオニアの研究機関として、カリフォルニア大バークレイ校、カーネギーメロン大など11校の名前をあげて敬意を表した。

●ディープラーニングの進化が後押しする自動運転開発
○NVIDIAの自動運転

基調講演の最後は自動運転を取りあげた。自動運転の分野では、先進的に自動運転を研究してきたAudi、BMW、Daimlerが実用化に備えて高精度地図の作成を行っているHEREを買収し、トヨタ自動車は米国に研究所を作った。UberやBaiduも自動運転に参入してきた。というような象徴的な出来事が起こっている。

自動運転では、まず、車線まで書かれた高精度の地図が必要になる。この地図を使って目的地までの走行プランを立てる。そして、自分の位置を確定し、周囲の状況を見て、レーンマークや標識なども見て、地図に沿って車を走らせる。自分がどこにいるか、周囲の状況がどうなっているのかなどを常にモニタして把握してフィードバックする必要がある。

これらの動作を行って状況を確認して車を走らせる頭脳としてNVIDIAが開発しているハードウェアが「DRIVE PX2」で、Tegraを2個と未発表の(中程度の規模と思われる)Pascal GPUを2個搭載している。そして、DRIVE PX2の本当の頭脳ともいうべきソフトウェアはディープラーニングを使うDriveNetである。DriveNetは、次のスライドの右側に示すように、他の車の検出を行うKITTIベンチマークで識別が困難、あるいは中程度の難しさのケースではトップの認識性能を誇っている。

自動運転には車線まで書き込まれた高精度地図が不可欠で、他社に先駆けて実用化を目指すAudi、BMW、Daimler連合はHEREを買収して地図を手中に収めた。HERE以外で地図を手掛けている会社はオランダのtomtomと日本のZENRIN(ゼンリン)である。今後、これらの会社がどのようになって行くのかは興味深い。

最後にJen-Hsun Huang CEOは、Roboraceを紹介した。2016/17シーズンのFormula E(電気だけで走るレーシングカー)のレースの一環で、Roboraceは自動運転レーシングカー同士が戦う。出場の10チームはDRIVE PX2で制御される、まったく同じレーシングカーを使うことになっている。

一般の人の知らないところでディープラーニングの適用はどんどん進んでいて、突然、AlphaGoが人間のトップ棋士を破って人々が驚くような事例が出てきている。また、レントゲン、CT、MRIの画像の読影も、人間の医師では見逃してしまう僅かな異常をディープラーニングが見つけるということで、病院に読影サービスを提供する会社が出てきている。

近い将来は、Uberに乗ったら、運転手のいない自動運転車だったなどということも出てくるのではないであろうか。色々と考えさせられるJen-Hsun Huang CEOの基調講演であった。

しかし、NVIDIAの稼ぎ頭のPCグラフィックスの開発の手を抜いて、ディープラーニングに経営資源を集中するという事ができるのは、やはり、Jen-Hsun Huang氏が創業者のワンマン経営者だからである。いくつかのベンチャーの経営者を別とすると、このような経営者は日本には居らず、それが日本のエレクトロニクス産業の衰退の原因ではないかと思わずにはいられない。

(Hisa Ando)