Image: Android/YouTube

いつ登場するかは不明ですが。

2025年12月9日、Googleが「開発中のAIグラス」を公開しました。音声で大規模言語モデル「Gemini(ジェミニ)」を呼び出し・その場で通訳や道案内をさせるデモが披露されました。最近のGeminiは高性能と評判ですから、期待大。…が、発売日の予告などはなし。

今回紹介されたのはプロトタイプで、単に「AIグラス」と呼ばれていました。仕様が異なる2バージョンを作っているそう。

1. 「AI Glasses」

フレームにスピーカー・マイク・カメラを内蔵し、耳元で音声を聞きながらGeminiと会話したり・通話したり・写真を撮ったりできます。

2. 「Display AI Glasses」

スピーカー・マイク・カメラに加え、小さなディスプレイをレンズ内に備えています。このディスプレイに通知や案内などの情報をプライベートに表示できる──音声だけでなく視覚的にもサポートしてくれる上位モデル的な感じです。

紹介動画では「できること」が確認できますが、なかなかに多才で「かけるAIアシスタント」といった感じです。

画像認識:テーブルに並んだお菓子を見ながら「このスナックは何?」と尋ねると、Geminiがカメラ映像を解析して製品名や味を説明したりしていました。

推論:疑問(タンパク質が多い食べ物を教えて)に答えてもらい、そのまま買い物リストに追加する、というやりとりが実演されていました。

写真撮影:Geminiに指示してグループ写真を撮影してもらっていました。何気に画像生成AI的なこともできて、その写真にAndroidのキャラクターを合成することまでしていました。

リアルタイム翻訳:韓国語のトークをリアルタイムで英語に翻訳していました。Googleクオリティの翻訳は海外旅行・出張でマジで便利そう。

街歩きガイド:見かけたお店の情報をその場で調べて内蔵ディスプレイに表示、良さげだから保存しておく、なんて使い方が紹介されていました。予定がある場所まで道案内なんかもしてくれます。スマホださなくていいのが便利そうです。

このAIグラス・プロジェクトには、パートナー企業としてアイウェアメーカーが参加しています。1つめの企業「Warby Parker」はアメリカ発の眼鏡ブランドで、日常使いしやすいデザインとオンライン販売戦略で成長してきた企業です。もう1つはGentle Monster、ファッション性の高いサングラスやアイウェアで知られる韓国発のブランドです。「日常的にかけていたくなるデザイン性」も重視している感じですね。

AIがどんな形のハードウェアに組み込まれ、日常の道具として根づいていくのか。このGoogleのAIグラスはそのひとつの答えを示してくれるかもしれません。ライバルも来年なんか出すつもりらしいし、これも来年だといいな(一応、報道では2026年にくると言われています)。

Source: Android/YouTube, Bloomberg

2025年12月9日13:40追記:報道では2026年発売とされていることを追記しました。