画像提供:マイナビニュース

写真拡大

●なぜGoogleがハードウェアを手がけるのか

Googleが自らハードウェア製品を開発・販売する「Made by Google」の2年目となった2017年、スマートフォンの「Pixel 2」シリーズ、スマートスピーカーの「Google Home Mini」や「Google Home Max」など数多くのハードウェア製品がリリースされました。同時に「Made by Google」の1年目にはぼんやりとしていた、Googleがハードウェアを開発する理由がはっきりとしてきました。本稿では、Googleデバイスの存在意義を再確認しながら、2017年に登場したGoogleデバイスを振り返ります。

なぜGoogleがハードウェアを手がけるのか?「Appleに対抗するため」とも指摘されていますが、ここ数年のGoogleとAppleを思い返してみると、2社の関係は対立よりも共栄に傾いています。

Googleは以前より積極的にiOSアプリをリリースしていますし、AppleにとってGoogleはiOSの標準検索プロバイダの契約を結ぶパートナーです。そしてApple MusicをAndroidにも提供しています。今Googleが対立色を強めているのは、Appleではなく、クラウド事業で競合するAmazonやMicrosoftです。

2016年のGoogle I/OでGoogleは、HTML5、モバイルの次を見据えて「モバイルファーストからAIファーストへのシフト」を宣言しました。そして今Googleが「Made by Google」で様々なハードウェア製品を自ら手がける理由も「AIファースト」にあります。

○"人がコンピュータに合わせる"状態から脱却

Googleが考えるAIファーストの世界とは「人々がコンピュータに合わせるのではなく、コンピュータが人々のことを知り、コンピュータが人々に寄り添う環境や社会」です。たとえば、朝起きて予定やニュースに関するアプリを1つずつ確認しなくても、Google アシスタントに「今日はどんな日」と訊くだけで、天気、通勤経路の交通状況、その日のスケジュール、ニュースなどをまとめて教えてくれます。

でも、今はまだ、ユーザーがGoogle アシスタントに対応するスマートフォンやスマートスピーカーに向き合い、デジタルアシスタントが理解してくれる言葉を選びながら会話しないと便利に機能してくれません。人々がコンピュータに合わせている状態です。

Gogoleが目指すAIファーストの世界を実現するには、これからAIも、デバイスも、人々の意識も変わらなければなりません。AIがもっと自然に人々と会話できるようになり、スマートフォンだけではなく、多種多様なデバイスやスクリーンにAIが広がり、そしてAIの価値がもっと人々に理解され、AIが学習し適応できる環境を整える必要があります。

その進化を加速させるには「AI+ソフトウェア+ハードウェア」、つまりは機械学習を前提にソフトウェアとハードウェアも設計していく必要があります。2017年10月のMade by Googleイベントで、Google CEOのSundar Pichai氏は「AIはモバイルに匹敵するプラットフォームになる」と述べていました。WebアプリやHTML5の普及を加速させるためにChromeブラウザを手がけ、モバイルWebの普及を加速させるためにAndroidを手がけたように、今GoogleはAIファーストの世界を実現するためにAI優先のハードウェアを自ら手がけています……それが今日の「Made by Google」です。

Made by Googleデバイスの第1弾だった初代Pixelは、初のGoogle アシスタント対応デバイスでした。そして2017年に登場したGoogleデバイスも多くがGoogle アシスタントに対応、さらに機械学習に関連しています。

では次のページから、2017年にGoogleが発表したハードウェア製品を一つずつ見ていきましょう。

●2017年に発表した製品をおさらい

○Pixel 2、Pixel 2 XL

スマートフォンの新製品「Pixel 2」と「Pixel 2 XL」は、Google アシスタントへの簡単なアクセスを特徴としています。側面フレームをギュっと握るとGoogle アシスタントが起動します。同時に発表されたワイヤレスヘッドセット「Pixel Buds」(詳細は後述)を接続していたら、Pixel Budsに触れて長押しするだけで、Pixel端末を取り出さなくてもGoogle アシスタントを使えます。

○Pixel Buds

Pixel BudsはGoogle アシスタント対応端末と組み合わせると、同時通訳のようなスタイルでGoogle翻訳を使えます。Pixel Budsを装着した状態でGoogle アシスタントに通訳を頼むと、話し相手の言葉が自分の言語に翻訳されて聞こえ、自分の言葉もPixel Budsのマイクを介してPixel端末で翻訳、相手に伝わります。Pixel 2シリーズの発表ではほかにも、画像検索機能「Google Lens」やARステッカー機能「ARスタンプ」がアピールされました。

ただし、こうした新機能はPixel 2シリーズ限定ではなく、初代Pixelでも利用できます。Pixel 2シリーズのみの新機能にしておけば、同シリーズの売上が伸びるはずです。でも、そうしないのは、最新端末の販売台数を伸ばすことがGoogleの目的ではないからでしょう。Pixel 2シリーズの訴求点は減ってしまいますが、AIファーストのスマートフォン全体に最新の機能やサービスを提供することで、AIプラットフォームの普及を促せます。

○Google Clips

2017年にGoogleが発表したハードウェア製品の中で、論争を巻き起こしたのが小型カメラ「Google Clips」でした。家族、友人、ペットなどを自動的に認識し、子供のベッドや乗り物などにClipsを装着しておけば、子供が笑顔になったときなどシャッターチャンスを逃さず自動的に記録してくれます。

これまでAIが撮影や補正をサポートしてくれるカメラはありましたが、ClipsはAIが自分の判断で記録するカメラです。発表後、「AIに監視されているようでCreepy (不気味)」という反応が多数でした。確かに、ちょっと先取りが過ぎている感があります。でも、AIに対する人々の意識が変化していけば、Clipsのようなカメラを抵抗なく設置できる人が増えるのかもしれません。

○Google Home Mini、Google Home Max

スマートスピーカーのGoogle Homeシリーズには、ミニサイズの「Google Home Mini」と、オーディオ性能を追求した「Google Home Max」が加わりました。ラインナップ拡大の狙いは明らかです。一家に1台ではなく、一部屋に1台。そうなると、ユーザーがGoogle Homeの場所を意識することなく、家中のどこにいても「OK Google」でGoogle アシスタントにアクセスできるようになります。

○Pixelbook

Chrome OSノート「Pixelbook」もGoogle アシスタント統合になりました。音声コマンド「OK Google」のほか、キーボード専用キーやPixelbook Penを使って素早くアクセスできます。たとえば、再生中の音楽のアーティスト名が分からなかったら、Pixelbook PenでGoogle アシスタントを呼び出し、アートワークに写っている顔写真をペンで囲むだけでアーティストの情報を表示してくれます。

○Daydream View

日本でも発売開始になったDaydreamプラットフォーム対応VRゴーグル「Daydream View」は、レンズや装着方法などが改良されました。WebにおいてモバイルVRは、これまでの「ものを知る」ためのWebの世界を、「ものを体験する」世界にシフトさせます。自然なインタラクションを実現するという点で、音声とともにAIファーストの世界に私たちを導く技術になるでしょう。

○創造的破壊へと歩み始めたGoogle

Gartnerの「2018年以降の米ITトレンド予測」というレポートで、1位は「ビジュアル/音声検索」でした。2021年までにブランドがビジュアル/音声検索をサポートするようにWebサイトをデザインし直すことで、デジタルコマースの売上が30%伸びると予測しています。そして2位は「デジタル大手によるセルフ・ディスラプション (自己による創造的破壊)」でした。2020年までにGoogle、Amazon、Apple、Facebookといったデジタル大手7社のうちの5社が、新たな成長のために、自らのビジネスを破壊して再構築すると見ています。

Googleはすでにセルフ・ディスラプションに進み始めたと言えるでしょう。Web検索をしない生活なんて今は考えられませんが、ググらない未来をGoogleが作ることで、次代もGoogleがIT分野におけるリーダーシップをとっていけます。2018年もGoogleは、AI+ソフトウェアに相乗効果をもたらすハードウェアを提供し続けることでしょう。

一つひとつは小さな変化です。「AI+ソフトウェア+ハードウェア」の効果を実感している人はまだまだ少ないと思います。でも、それほど遠くない将来、私たちは人々に寄り添ってくれるコンピュータにすっかり慣れてしまって、人々がコンピュータに合わせることを不自然に思うようになるのかもしれません。