Image: The Verge/YouTube

普通のメガネっぽいデザインゆえ、機能の制限があります。過渡期ですね。

Intel(インテル)がついに方法を見つけたみたいです。今や私たちのほとんどのコンピューターに使われているCPUを製造するあのIntelが、Google Glassでは実現できなかったこと(そして、Magic Leapが何が何でも実現したいと思っていること)を実現してくれる新たなスマートグラスを作っているみたいなんです。それも、普段かけたくなるスマートグラスです。まぁ、外でかけたいかと言われれば、ちょっと違うかもしれませんが。

「Vaunt(ヴァント)」と呼ばれるこのスマートグラスは、私たちが一般的にかけているメガネというよりは、工業用安全メガネのように見えるかもしれません。ただこのメガネは、Google Glassの「プリズム」で表示していた情報を、ユーザーの眼球(網膜)に直接レーザーを照射して表示してくれるんです(ご心配なく。詳しくは後ほど)。これにはかなりワクワクするのは事実なんですが、Vauntに関するVergeの記事を読んだところ、私はちょっと「それで十分なの?」と思ってしまいました。

ハッキリさせておくと、そもそも私は自分の眼球に直接情報を送ってくれる“パーソナルなPC”が欲しいんです。たとえば、レストランを見つめると、そこの料理が美味しいのかどうかがわかったり、人と握手したらその人の名前がわかったり、チラッと目を動かすだけで誰から電話がかかってきているのか確認できたり、目を上下動かすだけでTwitterフィードが読めたりする、そんなやつです。いわゆるHUD(ヘッドアップディスプレイ)と呼ばれるこの手のプロダクトが失敗するのをもう見たくないんです。Google Glassが驚くほど大コケしたおかげで、HUDが再び登場するのが少なくとも5年やそれ以上遅れたはずです。

そして、Intelのスマートグラスは物としてかなり控えめです。カラフルなディスプレイの代わりに、「VCSEL(Vertical-Cavity Surface-Emitting Laser)」と呼ばれる技術を使って、小さな赤いディスプレイを直接目に照射するそうです。これはプリンターやマウス、iPhone XのTrueDepthセンサーに使われているドットプロジェクターに似たレーザーです。Intelによると、レーザーは微力なので、目に照射しても網膜にはまったく害のないように作られているんだとか。

Vauntグラスから照射される微量のレーザーで失明する可能性があるなんてことだと、誰も使いたくないでしょうから、これはいいことです。ただ、このスマートグラスはスマートウォッチやスマホの待ち受け画面で通知を受けとるのと似たような感じで、ユーザーに通知を送ってくれるだけです。

Image: The Verge/YouTube

見え方は決してMagic LeapのARほどのレベルではありませんし、スマホのARのレベルにすら及びません。それよりは、10年以上前に登場した車のフロントガラスにイメージを投影するPontiacに近い感じ。すごくシンプルなので、本体も小型にできています。そのため、Vauntグラスをかけていても周りの人はあなたがHUDを付けているなんてすぐには気づかないはずです。

これは私たちがHUDを導入するようになるための重要な第一歩でしょう。ただ、Intelがとった控えめな試みは、Magic Leapのようなプロダクトが登場するとかなり存在が霞んでしまうかもしれません。Vauntグラスの解像度は400×150ピクセルと低く、モノクロディスプレイですが、少なくとも使用していないときは視界から消えてくれますし、目の悪い人が見え方の調整をする必要もありません。しかし、スマホ上で確認できること以上のデータを集めることもできません。そのため、自分の周囲を認識して、それに合わせて何かを操作することもできませんし、食べ物がのったお皿を見て、パスタの種類を調べたりなんてこともできないんです。

The Vergeによると、このグラスの操作方法についてはまだ構想の段階だそうです。現状のテストモデルにはコンパスと加速度計が搭載されていますが、そのほかはまだ何も載っていません。

しかし、Intelのニューデバイスグループのプロダクト代表のItai Vonshak氏は、このグラスの操作にAlexaを使う例を紹介しました。これはちょうどVuzixがCES 2018で披露していたのと似たような感じですね。となると、のちにはマイクとスピーカーも必要になってくるはずです。

ただ、メガネに話しかけることが果たしてウェアラブルデバイスにおけるインターフェイスの未来なんでしょうか? 電車に乗っているときやモールをぶらぶらしているときにAlexaに話しかけなくてはいけないんでしょうか? それとも、Magic Leapのようなコントローラーを使うことになるのでしょうか? はたまた、Microsoft(マイクロソフト)のHoloLensのようなジェスチャー操作?

Vauntグラスは、パーソナルHUDを利用する世界に私たちを一歩近づけてくれるとは思いますが、一体全体どうやってこの未来のコンピューターを使っていけばいいのでしょうか? Intelがこれをどう乗り越えるのか説明してくれなかったのは残念ですが、Vonshak氏は「社会的におかしく見えてはいけない。かけている人がおかしな人に見えたり、機械オタクっぽく見えたり、指でパチパチ操作したりしていたりすると、それは失敗だってことです」と語っています。

パーソナルコンピューターは、マウスが誕生するまで一般向けに普及することはありませんでした。スマートフォンだって、Apple(アップル)がピンチ/ズーム操作を思いつくまでそれほど大きな人気を呼びませんでした。つまり、新しい技術を開発するだけで十分という話ではなく、どうやったら人間がその技術を自然に扱えるのかまで解明する必要があるんです。The Vergeによれば、Intelはまだグラスの操作性については確定させていないそうです。

まぁこれに関しては、Intelが早く思いついてくれることを祈るしかありません。Vauntグラスは、今年後半にまずはデベロッパー向けに提供が開始される予定で、Android/iOSともに対応しているそうです。瞳孔間距離は必要になるみたいですが、メガネをかけている人ならみんな眼科からもらっている情報です。メガネを作ったことのない人だと、一度眼科に行って計測してもらわないといけないかもしれませんね。


Image: YouTube
Source: The Verge, YouTube(1, 2)

Alex Cranz - Gizmodo US[原文]
(Doga)