ペッパーにポーカーフェイスは通じない 家庭用ロボットの現状と課題

写真拡大

家庭用ロボットやソーシャルロボットの一大ブームが訪れようとしている。ソフトバンクが開発・販売する「ペッパー」は、2014年頃から携帯ショップの店員としてキャリアをスタートさせたが、いまや街角のあらゆるシーンで見かけることができるようになった。

接客・顧客対応、家庭のセキュリティー、子供の見守りなどなど、人間の生活を支援する機能を持つソーシャルロボットは、ペッパー以外にも多い。日本のメーカーが開発している製品だけでも、「RoBoHoN」(シャープ)、「Sota」(ヴィストン)、「EMIEW3」(日立)、「KIROBO mini」(トヨタ自動車)、「Orihime」(オリィ研究所)、「Unibo」(ユニロボット)など枚挙に暇がない。

また、「Zenbo」や「BIG-i」といった、海外製品も市場に続々と登場してきている。人間の過程生活を支援する機械という意味であれば、「アマゾンエコー」などスピーカー型音声アシスタントも、家庭用ロボット、もしくはソーシャルロボットの範疇に属するかもしれない。

それら新時代のロボットには、人工知能技術が多用される傾向がある。特に話題にのぼるのが画像認識や動作認識、音声認識技術だ。ロボットが家庭や社会空間で普及・活躍するためには、対象となる家族メンバーや顧客など対象を、まず正確に把握する必要がある。認識できなければ支援もサービスもできないからだ。

中国のベンチャー企業が開発を進めるBIG-iには、認証を受けたユーザー以外の指示には従わない機能が実装されている。言い換えれば、画像認識および音声認識技術を駆使して”ご主人様”を正確に認識するということになる。

家庭用ロボットの主要な用途のひとつに家のセキュリティーがあるが、空き巣犯など悪意ある人物が侵入した場合、ロボットを操作し情報を引き出そうとするかもしれない。BIG-iの機能は、そういう防犯上のシチュエーションなどを想定したものだと言える。

また、ソーシャルロボットには通訳機能を搭載したものもある。日立が開発を進めるEMIEW3は、海外観光客の増加や東京五輪に向けて空港への導入が進むが、現場では人間に代わって通訳・案内業務を担当すると公表されている。そうなると、上記の音声認識技術に加え、会話の内容を理解・発話するための「自然言語処理」の技術も搭載されることになる。

ペッパーにポーカーフェイスは通用しない

ソーシャルロボットの中で、おそらく世界一有名なペッパーの場合、人間とロボットが共存する社会を見据え、より高度な認識=感情認識をセールスポイントとしている。

開発担当者によれば、ペッパーはセンサーやカメラで「音声(正確には声紋)」や「表情」などの情報を複合的に収集し学習。対象の感情を理解するように設計されているという。なお、うれしい声なのに怒った表情をしているとき、もしくは悲しい声なのにうれしい表情をしているときなどは、それぞれ音声情報を優先。情報を取捨選択し相手の感情を理解する。つまり、ペッパーにポーカフェイスは通じないという訳だ。

ただ実際には、ロボットが人間の感情を適切に”理解”するという作業は非常に困難を極める。同じ人間同士であっても、相手の感情を読み間違えることが多々あるし、シチュエーションによって、人間には「うれしい」「悲しい」など複数の感情が混在しているケースがありうる。それらを正確に判断し、人間の感情を認識するという高度な作業を完璧に処理するためには、膨大なデータと人工知能によるさらなる学習が必須になってくる。

ペッパーの感情認識技術がまだまだ発展段階にあるというのは、開発担当者たちも認めるところである。

海外、また日本で期待されていたソーシャルロボットのひとつに「JIBO」があった。これは、米マサチューセッツ工科大学(MIT)の准教授シンシア・ブリジール氏らが開発を牽引しているもので、2014年時点では「世界初のソーシャルロボット」として世界中から注目を浴びていた。