<?php the_title_rss(); ?>

写真拡大 (全14枚)

4月22日から開催されている日本経済新聞社が主催する大型のAIイベント「AI/SUM 2019 アプライドAIサミット 〜AIと人・産業の共進化」(アイサム)。登壇者のトップバッターが安倍首相のビデオメッセージだったことでも注目されている。

その「AI/SUM」では注目の各種セッションが行われているが、そのひとつがソニーの「新型aiboとAIテクノロジー」だろう。ソニーが2018年1月に発売したエンタテインメントロボット、新aiboの商品コンセプトや特徴のほか、開発の裏話やそのコンセプトを支える搭載AIや3つのコアテクノロジーについて解説された。

ソニー株式会社 AIロボティクスビジネスグループ SR事業室 統括部長 松井直哉氏と、同SR事業室 統括課長 森田拓磨氏

冒頭では、松井氏はソニーが「AI×ロボティクス」を開発する理由やそれがaiboに繋がった経緯などを説明した。画像解析や人を認識する技術、デジタルカメラやビデオカメラで培ってきた技術がaiboに応用され、そのフィードバックがそれぞれのソニー製品に活かされるというプラスのスパイラルを生んでいるようだ。

会場には2019年限定のaiboチョコも登場

●開発の裏話

aiboの開発はわずか1年半で行われたという。

短期間で開発できた理由として、「AI×ロボティクス」が社長直轄のプロジェクトですべての意思決定や判断が素早く進められたこと、ソニー内の精鋭のメンバーが招集されたこと、旧型aiboで開発した技術とノウハウが活かされたことなどをあげた。更に、ワンワンワンの語呂にこだわって、11月1日に発表、1月11日に発売というスケジュールを先に決めた。その中でできる限りの技術と機能を盛り込もう、という発想をしたことも開発期間を短縮できた理由のひとつになった。

aiboは「かけがえのない物語」というキーコンセプトがある。各家庭にいるaiboはAIが周囲を学習し、すべて異なる個性をもっている。それを支えているのがクラウドとAI技術だ。

●aiboの溢れる生命感を生み出しているポイント

デザインの重要なポイントは「生命感」。

その例のひとつして、電源を入れたときには寝起きを意識し、ノビをしたり、ブルブルと身体を素早く揺さぶる犬らしさの動作を加えている。また、計22軸のアクチュエーターが内蔵されているが、首のアクチュエーターを一軸追加して「かしげ」(首をかしげる動作)の表現力にもこだわった。かしげは旧aiboには実現されていなかった。

また、腰の表現力も追加された。尻尾をブンブンと振る動作がダイナミックになり、よく見るとaiboは歩き方も性格や固体によって違うものになっている。部品点数は4,000点からなる。

●3つのコアファクターとディープラーニング

続いて森田氏がaiboの技術的なしくみと流れが解説され、これは興味深いものだった。

概要として、aiboはユーザーと周辺環境をセンシング技術によってまず認識する(上図の下から)。その情報をハイレベルな状況理解を行った上で「こうしよう」とaiboが自ら決める。やることが決まればそれに対するアプローチやどのような行動を行うかを具体的にAIが思考して行動制御して自律動作する。

こうしたことから「気づく」「考える」「行動する」が3つのコアファクターで構成され、それぞれにAI技術が活用されている。

例えば、「気づく」ではaiboの鼻先のカメラで周囲を確認し、人、それが誰なのか、aiboのおもちゃ、充電ステーション、家庭内のペット(犬や猫)、ほかのaibo、旧aiboすべて、を認識することができる。ここにはディープラーニングが使われている。

aiboはお腹を撫でられていることを認識できる。しかし、実はaiboのお腹にはセンサーが装備されていない。しかし、開発中に周囲から犬はお腹撫でられてることがわかるはず、という意見から他のセンシング技術を駆使して、センサーのないお腹も撫でられることを理解できるようになった。それにはaiboのお腹をひたすら撫で続け、他の部位のタッチセンサーの信号からディープラーニングでひたすら学習した結果、識別できるようになった。

また、aiboは抱きかかえられるとそれわ認識して、独特の「抱きかかえられ姿勢」をとるが、これもディープラーニングで機械学習して認識できるようになった。

褒められたこと、叱られたことを記憶し、眠っている間(充電中)に学習する(クラウド)が、こうしたしくみでaiboの個性が形作られていく。

今後の発展としては、現在は教えられたものしか学習できないが、将来は所見のものも自律的に学習したり、遊ぶ行動に繋げることに挑戦してみたいと語った。

(神崎 洋治)