6月5日、アップルの世界開発者会議「WWDC 2023」でプレス向けに公開されたヘッドセット「Apple Vision Pro」(筆者撮影)

アップルはアメリカ太平洋夏時間6月5日10時から、世界開発者会議「WWDC 2023」を開催し、Macの新製品、各種ソフトウェア、そしてまったく新しいデバイス「Apple Vision Pro」を発表した。

特に注目度が高いのは、「空間コンピューター」という新しい提案となるVision Proで、発売タイミングはアメリカ国内で2024年初頭を目指しており、価格は3499ドル(約49万円)。アメリカ以外では2024年後半の発売をアナウンスした。

Apple Vision Proとはどんなデバイス?

Apple Vision Proは、アップルにとって、コンピューター、音楽プレイヤー、スマートフォン、タブレット、スマートウォッチに次ぐ、第6のプラットフォームとなるハードウェアだ。

5000を超える特許を詰め込んだテクノロジーの集合体のようなデバイスだが、見た目は思った以上にコンパクトな印象だ。またファブリックの柔らかな印象と落ち着いたグレーで、あまり存在感を強く主張しすぎない。基調講演後は写真撮影のみで、装着することはできなかった。

表面は湾曲したガラスとなっており、装着している人の没入感のレベルに応じて表示が変化する。周囲の環境が見えている場合は装着している人の目が表示され、完全にバーチャル空間に没入しているときには目が表示されなくなる。また人が近づくと目が表示されて自然に会話ができるようになるなど、周囲の人とのコミュニケーションが円滑に成立するよう工夫されていた。この機能を「EyeSight」と呼んでいる。


正面から見たApple Vision Pro。EyeSightは、完全没入感の状態を表している(筆者撮影)

Apple WatchやAirPods Maxのような緩やかに弧を描くアルミニウムのフレームには、遮光パッドが取り付けられ、これをしなやかなヘッドバンドによって固定する形で装着する。これらのパーツはモジュール式となっており、交換可能となっている。

頭に装着すると、視界には、マイクロOLEDという新しい技術が用いられたディスプレーが内蔵されている。切手代のサイズで、片目ごとに4K、合計2300万ピクセル以上の広大な表示空間が手に入る。高解像度である点は、Apple Vision Proを体験するうえで重要な差別化要因となるはずだ。またその空間に馴染んで、周囲から音が出ているように聞こえる、進化した空間オーディオを単体で楽しむことができる。

バッテリーは外付けとなっており、2時間の連続駆動。プロセッサーにはMacBook Airと同じM2チップと、低遅延に特化したセンサー処理を束ねる新しいR1チップが搭載される。

Apple Vision Proでできること

Apple Vision Proは、M2チップが搭載された独立した「空間コンピューター」としての機能があり、iPhone、iPadアプリもそのまま実行可能だ。視界の中にアプリをウインドーとして配置することができる。サイズ変更も自由自在だが、これまで表示領域が限られてきたコンピューターの画面のように、ウインドーが重なることもない。


グラス下部はハンドトラッキング用カメラや放熱機構が見える。電源ケーブルは専用バッテリーで2時間駆動、コンセントとつなげば常時利用可能だ(筆者撮影)

フレームにあるデジタルクラウンを回すと、周囲の環境が今自分がいる現実空間から、仮想空間が広がり、ミックス状態、完全に仮想空間に没入する状態へと切り替えていくことができる。

例えば飛行機の中などで使う場合、完全に仮想空間にしたほうがいいが、職場や学校など他の人とコミュニケーションを取る可能性がある場所では、現実空間に、Apple Vision Proの中の映像を重ねる形が自然だ。

Apple Vision Proには12のカメラ、5つのセンサー、6つのマイクが内蔵されている。このカメラやセンサー、マイクを用いて、空間ごと記録することができるカメラとしての役割もある。奥行きのある映像と音声を記録することで、いつでも楽しむことができるようになる。


自分で撮影したパノラマ写真の中に入り込める体験も(筆者撮影)

一方、個人の作業やテレワークのような仕事で使う場面も想定されている。顔の一部を覆うVRグラスでは、既存のビデオ会議への参加が難しかったが、Apple Vision ProではFaceTimeやZoom、WebEx、Teamsといったビデオ会議に参加可能だ。

それを可能にしているのが「Persona」と呼ばれる、自分の3Dモデルだ。機械学習処理で自分を生成し、ビデオ会議の画面に登場させることで、相手にその姿を伝えることができるという。デバイス下部に用意されているカメラによって、身振り、手振りも相手に伝えることで、自然なコミュニケーションを取り持ってくれる。

「見て、つまむ」新しいインターフェース

Appleは新しいカテゴリーのデバイスに参入する際、必ず新しいユーザーインターフェースを提案してきた。Macにはマウス、iPodにはクリックホイール、iPhoneにはマルチタッチ、Apple Watchにはデジタルクラウン、といった具合だ。

Apple Vision Proに対しては、視線とジェスチャー、そして声という3つのユーザーインターフェースを与えた。中でも主要な操作方法となるのが、視線とジェスチャー。これが「見て、つまむ」という動作になる。

この中で最もイメージが湧きにくいのが視線入力だ。内部にハイスピードカメラとLEDリングを配置し、両目の動きをトラッキングする。これによって、使う人は、映像のある箇所に視線を移動させただけで、それが選択され操作可能になる。見ると同時に、指でつまむような動作(英語ではタップ)を用いて操作する。

これまで、ディスプレーと操作するインターフェースは別々に用意されていた。これに比べると、見ることも操作に組み込まれており、より直感的な操作方法を実現することになる。

また、音声入力による文字入力や、バーチャルキーボード、Bluetoothを通じてキーボードやマウスが利用可能だという。

Apple Vision Proのプレゼンテーションで注意深く調整されていた点は、バーチャル世界に閉じこもるような見え方を避けていた点だ。

あくまで、現実空間と完全なバーチャル空間を切り替えられることを前提としており、このデバイスを装着しているからといって、現実空間にいる人とコミュニケーションを取れないわけではない。この点は、いままでのヘッドセット型デバイスの前提には入っていなかった。


Apple Vision Proを空間再現の写真やビデオを撮影するカメラとして利用できる(筆者撮影)

もう1つは、より汎用的な活用を行おうとしている点だ。

ゲームや映像視聴だけでなく、オフィスや遠隔での仕事にも活用するシーンを強く押し出したことによって、用途を特定せず、幅広い範囲での活用を目指している点が色濃く出てくる。視線と手の動きだけで操作でき、特別なコントローラーを必要としていない点も、より手軽な活用を可能にしている。

その一方で、専用チップを組み込んでまで、遅延の少なさや反応速度の速さにこだわっている点は、ヘッドセット型デバイスに時折生じる「酔い」を低減するための技術であり、できるだけ多くの人が、できるだけ多くの用途で利用できるようにすることを目指している点が指摘できる。

高すぎる価格がハードルに

汎用性を高め、ヘッドセットを利用するユーザー層をより拡大しようとしているApple Vision Pro。製品の普及サイクルのなかで、とりあえず飛びつくイノベーター、アーリーアダプターの先にある断絶(キャズム)を超えて、マジョリティへと普及していくかどうか。

そこで大きな問題となるのが、3499ドル(日本円で約49万円)という高すぎる価格だ。5000件の特許を伴って開発されたというほど、研究開発に時間とお金をかけているし、ディスプレー技術もチップも新しいものを用いている。


基調講演ビデオの中でティム・クックCEOはApple Vision Proを「Macがパーソナルコンピューティングを、iPhoneがモバイルコンピューティングをもたらしたように、Apple Vision Proは空間コンピューティングをもたらします」と紹介した(筆者撮影)

しかしながら、向上する生産性やコミュニケーション、ゲームなどの体験が、49万円という金額に見合うかどうか。今のところ、それを判断できる材料も、経験も乏しいのが実際のところだ。未来は存分に感じられるが、今現在の強烈な「必然性」を物語るわけではないからだ。

例えば、どこにでも持ち運べる超巨大映画スクリーン、3D再現写真や3D再現ビデオが撮影できるカメラ、ポシェットに入る3枚分の高解像度外付けディスプレーと考えると、納得できる人も出てくるかもしれない。

今後、価格が低下していくこと、そしてさまざまなアプリが空間コンピューターに対応していくことで、あるタイミングで「あってしかるべき」「当たり前」になることは、十分予測できる。また「当たり前」になることを加速させるキラーアプリケーションの登場については、WWDCの主役であるアプリ開発者の手に委ねられている。

(松村 太郎 : ジャーナリスト)