画像提供:マイナビニュース

写真拡大

●ユーザーに合った会話ができる

いよいよ日本語版がリリースされたGoogle アシスタント。音声認識により、ユーザーの呼びかけに対応してくれる機能だ。5月29日には都内で発表会を開催。いち早くGoogle アシスタントを体験すべく、発表会に参加してきた。

Google アシスタントは、Android 6.0 MarshmallowやAndroid 7.0 Nougatを搭載した端末で利用可能。対象機器は、数週間のうちに順次アップデートしていく予定だ。

OSのバージョンのほか、720p以上の画面解像度と1.5GBのメモリも条件として必要なので、手持ちの端末でGoogle アシスタントが使えないのであれば、上記の条件に当てはまっているか確認する必要がある。また、現在はAndroid端末向けのサービスとなっているが、将来的にはiOSにも対応する予定だ。

Google アシスタントを起動するには、ホームボタンを長押しするか、もしくは「OK,Google」と呼びかけるだけ。他のどのアプリを起動しているときでも立ち上げることができる。

起動方法が「OK,Google」なので、これまで搭載していた音声検索と何が違うのか、ユーザーにはわかりにくいかもしれない。

実際、これまでの音声検索と同じようなことができるので、混同しがちだ。ひとつ音声検索と決定的に違うのが、各ユーザーに合った会話ができることだ。例えば、名前や好きな場所、好きな食べ物などをGoogle アシスタントで登録すると、その情報をもとに検索結果などを紹介してくれるようになる。

Googleがこれまで培ってきた自然言語処理の技術で、言葉の理解力が向上しており、文脈から「何を質問されているか」を判断できるようになっている。また会話の精度は、ディープラーニングにより使うほどに上がっていく。

●Google アシスタントの目指すところ

今、巷に出回っているAI的なものでも、文脈を理解して会話することは難しく、直前の文に対してのみの回答をすることが多い。しかしGoogle アシスタントは文脈を読み取るので、本当に人間と会話しているような感覚で利用できる。

例えば、Google アシスタントである場所への行き方を訊くと、電車での行き方を示してくれる。さらに「車だとどう?」と聞くと、同じ目的地への車での行き方を表示してくれるというわけ。ひとつの文にしか反応しないのであれば、「車だとどう?」という文に対して、「車」についての検索結果を表示してしまうことだろう。

同じように、会話でコミュニケーションがとれるものとして、女子高生AIの「りんな」があるが、それと比べても文脈を読み取る力は格段に差がある。

りんなの場合は、基本的にひとつ前の文章にしか反応しないので、会話が成り立たないことも多い。例えば「ラーメン食べたい」と話しかけると、ラーメンの写真を表示してくる。なので「どこの店?」と訊くと、「どーする?」と自分が表示した写真のことを無視して答え、さらには直前の文章に対してもよくわからない返事がきたりする。そこが女子高生AIりんなの持ち味だが、これではタスクやスケジュールの管理などは頼めない。

コンテクストの理解力の増強とともに、今後は他アプリとの連携もはかり、それぞれのアプリ内でGoogle アシスタントが活躍できるようになる予定だ。タクシーの配車アプリと連携すれば、いつどこに来て欲しいのかを伝えるとタクシーを呼んでくれるようになる。また、家の窓の開け閉めや照明のオンオフなどもGoogle アシスタントを通じて行えるようになる。まさにアシスタントを雇っているような感じで、「アシスタントに言っておけばとりあえずやってくれる」というのが最終的なイメージなのだろう。

●これまでの「OK,Google」と何が違う?

実際に、Google アシスタントが入っている端末を使ってみた。

まずは今日の天気を訊いてみた。従来の音声検索でも同じことができるので、特に何か変わった感じはしなかったが、とりあえずは、これまでできたことがしっかりできるということがわかった。

次に「六本木 ランチ」と聞いてみたところ、具体的な店名で候補をいくつか提案してくれた。これを従来の音声検索でやると、普通にGoogle検索で「六本木 ランチ」と入力したときと同じ結果となるので、これはGoogle アシスタントならではの表示だ。また、ここから表示された店舗の詳細を確認するために、提案された店のうち「一つ目を見せて」と聞いたら、一軒目に表示されていた店の詳細が表示された。

ちなみに、従来の音声検索で同じように試すと、「一つ目」の妖怪などが検索されてしまった。なお、Google アシスタントでも何回か試していると、同様に一つ目妖怪の検索結果が出てしまうこともあったが、これは今後日本中のAndroidユーザーが使いこんでいくことで精度が上がっていくものと思う。それでも、最初に試したときはひとつ前の文「六本木 ランチ」を受けての「一つ目を見せて」であることを判断できていたので、文脈を理解する力は認められるところだろう。

曖昧な言葉を理解するまでにはしばらく時間がかかるとのことだが、人に話しかけるのと同じような感覚でスマートフォンを操作するための第一歩としては、十分な機能ではないだろうか。特に日本語は主語を省略して話すことが多いので、ある言葉が何を指したものであるかを理解するのは、英語などの他の国の言葉よりも難しい。その曖昧さを解消すべく、Google アシスタントは日々改善されていく。

今後、多くの人がGoogle アシスタントを使い倒すことによって、より精度があがり、使いやすくなっていくだろう。これからは、ユーザーがGoogle アシスタントを育てていくことになるのだ。