写真提供:マイナビニュース

写真拡大

●Alexaとは何か
次世代の操作方法として注目される音声認識。いま、この分野でもっとも熱い視線を浴びているのが米Amazon.comの「Alexa(アレクサ)」だ。数ある音声認識サービスの中で注目を集める理由はどこにあるのだろうか。

○マイクで音声を拾い、クラウドで音声認識

Alexaの使い方は簡単だ。室内に家庭用スピーカーのAmazon Echoを置き、「アレクサ、音楽をかけて」と話しかけると、言葉を理解して音楽をかけてくれる。リモコン操作なども必要なく、音声だけで使えるのがAlexaの特徴だ。

Alexaの実体はクラウド上にある。Echoは「アレクサ」と話しかけられるまで常時待機しており、その後に続く音声データをクラウドに送信する。クラウド上では「音楽」「かけて」といった単語を認識し、Echoにフィードバックする仕組みだ。

マイクの性能もポイントだ。iPhoneを手に持って話しかけるSiriとは異なり、Echoのマイクは部屋全体の音を拾う。リビングのソファや寝室のベッドで、あるいはキッチンで洗い物をしながら話しかけるだけで、Echoは反応してくれるというわけだ。

これが普及すれば、家庭内のインターネット体験はスマホからEchoに置き換わるかもしれない。その可能性を悟ったグーグルは、2016年に「Google Home」というスピーカーを発売して対抗している。

●日本で普及の芽は?
○数千種類の「スキル」で機能拡張

Alexaを使えば、Amazonでの買い物やオーディオブックの読み上げなど、様々な機能を音声で呼び出せる。だが、サードパーティのアプリやデバイスと連携させることで、Alexaの可能性はさらに広がる。

たとえば配車サービスの「Uber」がAlexaに対応している。ユーザーはAlexaを通して音声でUberのクルマを手配できるのだ。こうした機能は「スキル」と呼ばれ、すでに6000〜7000種類のスキルがAmazonのサイトに登録されている。

このようにAlexaが公開するAPIを利用すれば、自社で独自の音声認識サービスを開発することなく、アプリやデバイスを音声操作に対応させられる、というわけだ。また、Amazon Echoに相当するデバイスを作ることもできる。2017年1月のCES 2017では、Alexaを利用するためのマイクを搭載した冷蔵庫やクルマ、Echoそっくりのスピーカーなどが登場した。

サードパーティにAlexaを開放することで、Amazonにはどのようなメリットがあるのだろうか。少なくとも、Echoというデバイスを売ることが最大の目的ではなさそうだ。

重要なのは、Amazonが音声認識におけるOSとでも呼ぶべきプラットフォームを完成させつつある、という点だ。Amazonと競合するサービスやデバイスも含め、すべてがAlexaを通してつながれば、次の時代にもAmazonの優位性は約束されることになる。

○日本語は未対応、音声操作は一般化するか

だが、まだまだAlexaは日本で知られていない存在だ。Amazon Echoが日本で発売されていないことに加え、使える言語は英語とドイツ語のみ。肝心の日本語に対応していないのだ。

また、クルマ移動の多い米国では、スマホに音声でテキストメッセージを入力することが一般化している。だが、日本の通勤電車で音声コマンドは使いにくい。

オフィスや電車内での音声操作は難しいが、家庭内であれば日本でも普及の見込みはありそうだ。Alexaの一刻も早い日本語対応を待ちつつ、どのような形で日本に上陸するのか注目したい。

(山口健太)