Google、スマホVRを劇的に強化するSeurat発表。スター・ウォーズの映画級CGをリアルタイム描画
開発者カンファレンス Google I/O 2017 の VR / AR セッションより。Google がモバイルVRのグラフィックを数千倍に引き上げるソフトウェア技術「Seurat」 を発表しました。名称は点描画で知られるフランスの画家ジョルジュ・スーラから。

デモではスター・ウォーズ映画『ローグ・ワン』に使われた非常に複雑なシーンにこの Seurat を適用することで、本来はハイエンドPCでも1コマ1時間必要なところを、スマホのGPUで滑らかにリアルタイム描画させています。

Google の Daydream などモバイルVRは、導入が容易でケーブルに縛られない利点がある一方で、ハイエンドなデスクトップGPUで描画するPC VR と比較すれば、特にリアルタイム描画のグラフィックはかなり貧弱なのは動かし難い事実です。



しかし Google はこの手法 Seurat を適用することで、ハイエンドデスクトップ級、さらにはデータセンタのレンダーファームで処理する映画CG級のグラフィックを、モバイルでリアルタイム処理可能にするとうたいます。



プロセッサパワーの差は動かしようがない以上、やっていることはもちろん最適化です。画像はステージで示された解説から。右側の街が複雑なシーン。

まず制作者はユーザーがVR空間で移動できる範囲と、許容されるポリゴン数などを設定します (画像左)。手で作業が必要なのはここまで。



ここからはスーラによる自動最適化。まずスーラはあらかじめ設定した範囲内で動き回って視点を変えた場合、複雑なシーンがどう見えるか、どこまで見えるかを求めます。



次に、そうして求めた結果から、必要な部分だけを再構成した新たなシーンを自動生成。

こうすることで、当初の複雑なシーンからはジオメトリもテクスチャも大幅に削減された、データ上ではまるで違うシーンになっているものの、設定した範囲内からは、まるで何も変わっていないように見えるという仕組み。



必要な部分は3Dのシーンになっているため、いわゆる遠景の一枚絵や書き割りではなく、6軸自由度で自由に視点を変えたり動き回ってもちゃんとVRとして描画されます。

概念図では説明のため離れた小さな範囲を設定していますが、複雑なシーンを通り抜けるようなことも可能です。(「向こう側に回ってみる」といった自由度を増やせば増やすほどリソースは必要になりますが)。

​​​


スーラを適用したシーンに、キャラクターなどインタラクティブにフル描画する要素を加えることも可能です。

Google によれば、Seurat を使えば体感上は遜色ないVR体験を維持しつつ、処理に必要なテクスチャやポリゴン数は数百〜数千分の一まで縮小可能。

一例では、ハイエンドGPU搭載のデスクトップPCでも1コマ1時間かかるシーンに Seurat を適用することで、スマホGPUで1コマ13ミリ秒つまり60fps以上のリアルタイム描画が可能になったとしています。



あまりに劇的な効果の例を聞いて、「PCのVRだって涙ぐましく最適化に最適化を重ねてるし、そもそも3Dグラフィックスは本質的に書き割りで、必要な部分だけ描くことで実現しているのに、今さらそんなうまい話があるかい」と思ったところで、デモ協力として紹介されるのは ILMxLABS。

ディズニー / ルーカスフィルムで、VR / AR などの技術により映画品質の没入型ストーリーテリングを制作する部門です。ILMxLABS の開発者によると、デモで示されたシーンは映画ローグ・ワンに使われたもの。

元はポリゴン数5000万、テクスチャ3GBというシーンが、Seurat でリアルタイムに描かれています。



Google によれば、Seurat は現在 Unity、Unreal、Maya用のコードがあり、年内に一般向けに提供する見

込み。

速報:HTCとレノボから単体Daydream VRヘッドセット発売。インサイドアウト式トラッキング WorldSense採用

VRの世界では、PCの3Dグラフィックスで10年20年に渡って続いてきた技術革新を何倍速で再現するように、新たな技術や最適化技法が次々と導入されています。

Seurat のような技術と、GPUを含むコンピューティング全体のパラダイム変化、開発ツールの洗練、そしてムーアの法則を軽く飛び越えるモバイルGPUの進歩が続けば、現在のモバイルVR と PC VR にある超えられない壁は意外と早く曖昧になり、単体VRヘッドセットやスマホVRでも説得力のあるアプリが増えてゆくかもしれません。