Meta Connect 2024はMeta本社内で開催

米・メンローパークで開催中の開発者会議「Meta Connect 2024」の基調講演では、同社のAIとXRについての戦略が語られた。

中でも大きな話題は、「未来のスマートARグラス」のプロトタイプである「Orion」だろう。

ARグラス・Orionを発表するマーク・ザッカーバーグCEO

それ以外にも、AI連携スマートグラスである「Ray-Ban Meta」についても新しい機能が多数公開されている。

日本での発売予定はないが、戦略の要となる「Ray-Ban Meta」

残念ながらRay-Ban Metaは日本での発売予定がないが、その未来はOrionへと通じている。

ここではそうした連携の可能性を考えながら、基調講演について説明していきたい。

なお、Orionについては別途詳しいレポートを予定している。

Quest 3Sでユーザー層拡大、安定・大型プラットフォームへ

基調講演では、まず「Quest 3S」が発表された。詳しくは以下の記事をご覧いただきたい。

大幅に安くなり、普及という意味では大きな役割を果たすだろう。後述するが、OSのアップデートも続く。

基調講演はいきなりQuest 3Sの発表から始まった

しかし、今年はジャンプの年ではない。

Mixed Reality(MR)担当バイスプレジデントを務めるマーク・ラブキン氏は、基調講演後に続いて行なわれたテクノロジー関係発表の中で、「3rd era is stable era」(第3世代は安定の世代)と語った。Quest 3Sを軸とした世代は安定を重視し、アプリケーション市場の拡大を目指すということなのだろう。そのためには、安価でよりプラットフォームを広げるQuest 3Sの存在は大きい。

Questシリーズで使うOSは「Horizon OS」と改称し、ストアも再構築した。

その中ではいままでのQuest向けの3Dアプリに加え、ウェブベース(PWA)アプリやAndroidアプリなど、いわゆる「2D」のアプリもオープンに扱うことになった。

すなわち、スマホ向けに作られたAndroidアプリがあれば、それをQuest向けにそのまま発売できる。結果として、Questの中では「Androidなどのアプリが空間上で、2Dのまま使える」ようになる。いままでもapkなどを自分でインストールすれば使えなくはなかったのだが、正式にアプリ販売・配布が可能となる。

これは、アップルがVision ProでiPhone・iPad向けアプリをそのまま使えるようにしていることへの対抗であり、Googleとサムスンが開発を表明している「XRプラットフォーム」でGoogle Play Storeアプリがそのまま使えると公言していることへの対抗と言える。

Metaはマイクロソフトと共同で、Windows 11とMeta Questの接続性改善にも取り組む。従来はシンプルな1画面のバーチャルスクリーン機能だったが、マルチディスプレイを含むより本格的な連携が搭載されるという。これまではPCに別途ソフトをインストールす必要があったが、(おそらくは)不要となり、より簡単につながるようになる。

Windows 11との連携が強化、リモートデスクトップ機能はマルチスクリーン対応に

要は「MacにおけるVision Pro」の関係が、「Windows 11におけるMeta Quest」という形で成立するようになるのだ。

またAVファンにとっての朗報として、Dolby Atmosへ正式対応し、内蔵スピーカーだけで空間オーディオを扱えるようになる。すなわち、Dolby Atmos対応のビデオをMeta Quest 3の中で見られるようになるわけだ。

Dolby Atmosに正式対応、内蔵スピーカーだけで空間オーディオや「空間オーディオ対応の映画作品」も楽しめるようになる

Orionは「タイムマシンのようなデバイス」

そして、基調講演の最後にマーク・ザッカーバーグCEOが「タイムマシンのようなデバイス」と呼んで紹介したのが「Orion」(英語では「オライオン」発音だが、日本では「オリオン」でおなじみ)である。

トランクケースに入って運ばれてきたのは、ARグラスのプロトタイプである「Orion」

Metaは10年前から「どこでも使えるARグラス」を目指して開発を進めてきた。5年前にも「ARグラスを開発する」と当時の開発者会議(Oculus Connect 6)で宣言してもいる。

5年前のキーノートより(ARグラスについては29分あたり)。そこから着実な開発を続けてきた

今回公表したのは、内部でテストを続けているものだ。

光学系として、炭化ケイ素(シリコンカーバイド、カーボランダムとも呼ばれる)を素材とした反射型ホログラム光学素子(HOE)を採用、視野は70度と一般的な光学シースルー式AR機器(40から50度)よりかなり広い。光源はマイクロ「LED」。小型かつ消費電力が低いことが特徴だ。

光学式としては非常に広い視野角である70度を実現。視野にアプリや情報が自然に広がる

秘密はMetaが独自開発した光学系にある

その上で視線・手・音声に加え、手首からの筋電位を使ったニューロ認識操作に対応し、空間にアプリケーションを配置して利用する。

手首の筋電位からニューロンの動きを推定して操作に反映する機構を採用

この辺の詳細は別記事に譲るが、Metaとしては明確に「次世代のコンピューティングプラットフォーム」を作りにきているのがわかる。

社外のセレブリティも体験。中にはNVIDIA CEOのジェン・スン・ファン氏の姿も

「グラスは次のAIデバイスである」

そう考えたとき、想像以上に大きな存在になってきたのが「Ray-Ban Meta」だ。

Ray-Ban Metaは昨年のヒット商品であり、同社のAI戦略の柱でもある

Ray-Ban Metaは同社が昨年発売したスマートグラス。画像表示の能力はなく、カメラとマイク、スピーカーを備えている。情報は通信で自分のスマホへと伝え、AIからの返答を音声で返す。

OrionもRay-Ban Metaもメガネ型であり、背後にはMetaのAIの力がある。

残念ながら今回も日本での発売はないのだが、どんなことができるかは、今年の1月にレポートしている。

この時はマルチモーダルAIによる「外界認識」の機能は限定テスト中だったが、現在は(販売している国々では)一般公開されている。だから「Hey Meta, What it is ?(ねえMeta、これはなに?)」などと質問すれば、今見ているものがなにかを答えてくれる。

マルチモーダルAIの例。目の前の模型を見て「それがなにか」「何年製のどこの自動車か」などを答える

今回のMeta Connectではさらに様々な機能が追加された。電話をかけたりQRコードを読んだりと、さらに実用的になる。

数字やQRコードを認識、電話をかけたりウェブにアクセスしたりも可能に

中でも興味深いのは「見ているものを覚えておく」という要素だ。

見ているものについて次々と質問していくこともできるが、それ以上に「この先のために覚えておく」という要素が重要だろう。

例えば「駐車場の番号を覚えておいて」「ホテルの部屋番号を覚えておいて」というと、カメラで撮影をして番号を認識し、あとで「部屋番号何番だっけ?」と思った時に質問すればいいわけだ。

駐車場の番号など、「覚えておいてほしい内容」を記憶する機能も

また、料理の際に「これは2人分に十分な量?」といったことを聞いてみることもできるようになった。

料理の際に手順を聞いたり、分量の確認に使ったりもできる

もちろん写真撮影を伴わなくてもいい。「3時間後に母に電話する、って覚えておいて」と言えば、それをリマインドしてくれる。

声や画像をアシスタントとしてのAIのインターフェースとして考えると、自分が見ているもの・聞いているものを把握して行動に活かすことが可能になってくる。

こうした機能はRay-Ban Metaで重要であるのももちろんだが、Orionでも重要になる。

だからザッカーバーグCEOは「メガネは次のAIデバイス」という言い方をしたのだ。

ザッカーバーグCEOは「メガネは次のAIデバイス」と説明

では、その「次のAIデバイス」の先をゆく存在であり「タイムマシンのようなもの」というOrionはどんなものなのか?

そしてRay-Ban Metaの先にあるのが「Orion」などのデバイスだ

現地で体験してきたが、その様子は別途お届けするのでお楽しみに。