Google HomeやAmazon Echoなど、2016年はスマートホーム時代を象徴するAIアシスタント・デバイスが躍進した年でした。しかし、声のみに頼る製品ならではの落とし穴があることもまた事実です。ニュースで読み上げられた製品を勝手にAIアシスタントがAmazonで注文してしまう事件がアメリカで発生しました。

「ドールハウスを注文して」TVで発言

ことの発端はテキサスのダラスで、6歳の子供がAmazon Echoに向かって「ドールハウスで私と遊んでくれる?ドールハウスが欲しいの」と頼んだところ、両親のあずかり知らぬところで注文が成立し、170ドル(約2万円)のドールハウスが「4ポンド(約1.8kg)のクッキー」とともに届けられた、という微笑ましいニュースでした。
 
amazon echo
 
これをサンディエゴの朝のニュース番組が採り上げ、キャスターが「『Alexa、ドールハウスを注文して』なんて、愛らしい小さな女の子ですね」と発言してしまったのだから大変です。この発言を耳にしてしまった、世の中のAmazon Echoが一斉に反応し、勝手にAmazonへドールハウスを注文し出したのです。

サンディエゴ中の視聴者から苦情

幸いにもAmazonは商品が未開封であれば、発送から30日以内なら全額返金を受け付けていますが、「彼が発言するなり、サンディエゴ中の視聴者から、Echoがドールハウスを注文しようとしたという苦情がやってきた」そうですから、迷惑を被った視聴者はかなりの数に上ると思われます。
 
Amazon Echoは設定で、声による注文をオフにしたり、パスワードをかけて購入までワンクッション置いたりすることが可能です。下記に肝心の動画を紹介しますが、EchoのオーナーはAlexaが勝手にAmazonへ発注しないよう、くれぐれも注意してください。ちなみに先日も、子供の前でAmazon Echoがポルノを再生するという事件が話題となったばかりです。
 

 
 
Source:THE VERGE,BGR
(kihachi)