【西田宗千佳のRandomTracking】Meta Questは地盤固め。Metaが狙う「グラスとAI」での未来戦略
Meta Connect 2024はMeta本社内で開催
米・メンローパークで開催中の開発者会議「Meta Connect 2024」の基調講演では、同社のAIとXRについての戦略が語られた。
中でも大きな話題は、「未来のスマートARグラス」のプロトタイプである「Orion」だろう。
ARグラス・Orionを発表するマーク・ザッカーバーグCEO
それ以外にも、AI連携スマートグラスである「Ray-Ban Meta」についても新しい機能が多数公開されている。
日本での発売予定はないが、戦略の要となる「Ray-Ban Meta」
残念ながらRay-Ban Metaは日本での発売予定がないが、その未来はOrionへと通じている。
ここではそうした連携の可能性を考えながら、基調講演について説明していきたい。
なお、Orionについては別途詳しいレポートを予定している。
Quest 3Sでユーザー層拡大、安定・大型プラットフォームへ
基調講演では、まず「Quest 3S」が発表された。詳しくは以下の記事をご覧いただきたい。
大幅に安くなり、普及という意味では大きな役割を果たすだろう。後述するが、OSのアップデートも続く。
基調講演はいきなりQuest 3Sの発表から始まった
しかし、今年はジャンプの年ではない。
Mixed Reality(MR)担当バイスプレジデントを務めるマーク・ラブキン氏は、基調講演後に続いて行なわれたテクノロジー関係発表の中で、「3rd era is stable era」(第3世代は安定の世代)と語った。Quest 3Sを軸とした世代は安定を重視し、アプリケーション市場の拡大を目指すということなのだろう。そのためには、安価でよりプラットフォームを広げるQuest 3Sの存在は大きい。
Questシリーズで使うOSは「Horizon OS」と改称し、ストアも再構築した。
その中ではいままでのQuest向けの3Dアプリに加え、ウェブベース(PWA)アプリやAndroidアプリなど、いわゆる「2D」のアプリもオープンに扱うことになった。
すなわち、スマホ向けに作られたAndroidアプリがあれば、それをQuest向けにそのまま発売できる。結果として、Questの中では「Androidなどのアプリが空間上で、2Dのまま使える」ようになる。いままでもapkなどを自分でインストールすれば使えなくはなかったのだが、正式にアプリ販売・配布が可能となる。
これは、アップルがVision ProでiPhone・iPad向けアプリをそのまま使えるようにしていることへの対抗であり、Googleとサムスンが開発を表明している「XRプラットフォーム」でGoogle Play Storeアプリがそのまま使えると公言していることへの対抗と言える。
Metaはマイクロソフトと共同で、Windows 11とMeta Questの接続性改善にも取り組む。従来はシンプルな1画面のバーチャルスクリーン機能だったが、マルチディスプレイを含むより本格的な連携が搭載されるという。これまではPCに別途ソフトをインストールす必要があったが、(おそらくは)不要となり、より簡単につながるようになる。
Windows 11との連携が強化、リモートデスクトップ機能はマルチスクリーン対応に
要は「MacにおけるVision Pro」の関係が、「Windows 11におけるMeta Quest」という形で成立するようになるのだ。
またAVファンにとっての朗報として、Dolby Atmosへ正式対応し、内蔵スピーカーだけで空間オーディオを扱えるようになる。すなわち、Dolby Atmos対応のビデオをMeta Quest 3の中で見られるようになるわけだ。
Dolby Atmosに正式対応、内蔵スピーカーだけで空間オーディオや「空間オーディオ対応の映画作品」も楽しめるようになる
Orionは「タイムマシンのようなデバイス」
そして、基調講演の最後にマーク・ザッカーバーグCEOが「タイムマシンのようなデバイス」と呼んで紹介したのが「Orion」(英語では「オライオン」発音だが、日本では「オリオン」でおなじみ)である。
トランクケースに入って運ばれてきたのは、ARグラスのプロトタイプである「Orion」
Metaは10年前から「どこでも使えるARグラス」を目指して開発を進めてきた。5年前にも「ARグラスを開発する」と当時の開発者会議(Oculus Connect 6)で宣言してもいる。
5年前のキーノートより(ARグラスについては29分あたり)。そこから着実な開発を続けてきた
今回公表したのは、内部でテストを続けているものだ。
光学系として、炭化ケイ素(シリコンカーバイド、カーボランダムとも呼ばれる)を素材とした反射型ホログラム光学素子(HOE)を採用、視野は70度と一般的な光学シースルー式AR機器(40から50度)よりかなり広い。光源はマイクロ「LED」。小型かつ消費電力が低いことが特徴だ。
光学式としては非常に広い視野角である70度を実現。視野にアプリや情報が自然に広がる
秘密はMetaが独自開発した光学系にある
その上で視線・手・音声に加え、手首からの筋電位を使ったニューロ認識操作に対応し、空間にアプリケーションを配置して利用する。
手首の筋電位からニューロンの動きを推定して操作に反映する機構を採用
この辺の詳細は別記事に譲るが、Metaとしては明確に「次世代のコンピューティングプラットフォーム」を作りにきているのがわかる。
社外のセレブリティも体験。中にはNVIDIA CEOのジェン・スン・ファン氏の姿も
「グラスは次のAIデバイスである」
そう考えたとき、想像以上に大きな存在になってきたのが「Ray-Ban Meta」だ。
Ray-Ban Metaは昨年のヒット商品であり、同社のAI戦略の柱でもある
Ray-Ban Metaは同社が昨年発売したスマートグラス。画像表示の能力はなく、カメラとマイク、スピーカーを備えている。情報は通信で自分のスマホへと伝え、AIからの返答を音声で返す。
OrionもRay-Ban Metaもメガネ型であり、背後にはMetaのAIの力がある。
残念ながら今回も日本での発売はないのだが、どんなことができるかは、今年の1月にレポートしている。
この時はマルチモーダルAIによる「外界認識」の機能は限定テスト中だったが、現在は(販売している国々では)一般公開されている。だから「Hey Meta, What it is ?(ねえMeta、これはなに?)」などと質問すれば、今見ているものがなにかを答えてくれる。
マルチモーダルAIの例。目の前の模型を見て「それがなにか」「何年製のどこの自動車か」などを答える
今回のMeta Connectではさらに様々な機能が追加された。電話をかけたりQRコードを読んだりと、さらに実用的になる。
数字やQRコードを認識、電話をかけたりウェブにアクセスしたりも可能に
中でも興味深いのは「見ているものを覚えておく」という要素だ。
見ているものについて次々と質問していくこともできるが、それ以上に「この先のために覚えておく」という要素が重要だろう。
例えば「駐車場の番号を覚えておいて」「ホテルの部屋番号を覚えておいて」というと、カメラで撮影をして番号を認識し、あとで「部屋番号何番だっけ?」と思った時に質問すればいいわけだ。
駐車場の番号など、「覚えておいてほしい内容」を記憶する機能も
また、料理の際に「これは2人分に十分な量?」といったことを聞いてみることもできるようになった。
料理の際に手順を聞いたり、分量の確認に使ったりもできる
もちろん写真撮影を伴わなくてもいい。「3時間後に母に電話する、って覚えておいて」と言えば、それをリマインドしてくれる。
声や画像をアシスタントとしてのAIのインターフェースとして考えると、自分が見ているもの・聞いているものを把握して行動に活かすことが可能になってくる。
こうした機能はRay-Ban Metaで重要であるのももちろんだが、Orionでも重要になる。
だからザッカーバーグCEOは「メガネは次のAIデバイス」という言い方をしたのだ。
ザッカーバーグCEOは「メガネは次のAIデバイス」と説明
では、その「次のAIデバイス」の先をゆく存在であり「タイムマシンのようなもの」というOrionはどんなものなのか?
そしてRay-Ban Metaの先にあるのが「Orion」などのデバイスだ
現地で体験してきたが、その様子は別途お届けするのでお楽しみに。