1月11日発売されるaiboの進化について、ソニーでAIロボティクスビジネスグループの商品企画部統括部長を務める松井直哉氏に話を聞いた(筆者撮影)

昨年11月1日の発表以来、賛否両論さまざまな意見が巻き起こっているのがソニーの「aibo(アイボ)」だ。
ロボティクスとAIの技術をホームエンターテインメントに応用するという発想は、かつて1990年代終わりに登場した初代「AIBO」のコンセプトと極めて近い。しかし当時とは時代が違う。AIとロボティクスはより一般的になり、社会全体のロボットの捉え方も変化し、より受け入れられやすい市場環境が醸成されている面もある。実際、aiboは2回(11月1日と11月11日)にわたって行われたネット予約受け付けに際して、それぞれ30分と14分で売り切れている(取材後に行われた12月20日販売予約受け付け分も完売)。予約受付台数が公表されていないとはいえ、当初想定していた反応よりも、反響は大きかったようだ。
aibo事業を再始動するにあたって、極めて複雑な多数のアクチュエータが連動するロボットを持続的に動かすためのメンテナンス態勢や部品供給などの問題をどのようにクリアしたのか。そしてAIBOとaiboにはどのような違いがあるのか、いったい何を目指しているのか。ソニーでAIロボティクスビジネスグループの商品企画部統括部長を務める松井直哉氏に話を聞いた。

モーターはすべて自社で企画・設計

――以前のAIBOでは、主にメカニカルな部分での調整が難しくなり、さらにはメンテナンス、部品調達などの事業の継続性に問題があったと伺っています。aiboの復活に際して、それらはクリアできたのでしょうか。

新しいaiboには動作軸が22カ所もありますが、そこで使われているモーターを、すべて自社で新規に企画・設計して生産委託しています。aiboを動かすために必要なすべてのモーターを自社で用意することで、部品調達ができなくなるといった問題を回避できます。

――モーターやアクチュエータに技術的な独自性は持たせているのでしょうか。

モーター、アクチュエータは、他要素の進化から考えると、圧倒的に進化していない部分です。要求仕様を満たすスペックになっており、かなり厳しい要求になっていますが、あくまで汎用品。特別な構造ではありません。しかし組み上げをソニー社内(ソニー幸田)で行っているため、長期的な供給にも十分に対応できます。

――メンテナンス性に関してはいかがでしょうか。22軸のロボットを長期間、メンテナンスサポートを提供できるのでしょうか。

初代AIBOシリーズはモデルチェンジを5回行いました。しかし、これだけの複雑な構造体となると、ちょっとした動きのバランスが変化しても、細かく動きのプログラムを調整しなければなりません。各モデルごとにチューニングが必要で、それはメンテナンス時も同じことでした。ちょっとした筐体剛性の違いがモーションの違いにつながってしまいます。

新しいaiboでは過去の反省を踏まえて、長期間、大きな変更なく使える機構設計を施します。モデルチェンジを行うとしても、基本の骨格は変えず、基本的には同じ構造、同じアクチュエータを使い続けます。そうした長期的な視野の設計アプローチによって、同じモーションを実現するためにたくさんのモーションプログラムを作らねばならないといった問題を排して、管理などをシンプルにできます。

――動作軸が旧来のAIBOよりも増えていますが、どのような動き、メカ設計上の違いがあるのでしょうか。

前世代のAIBO最終モデルはER7というモデルですが、大きな違いはクビの“かしげ”と腰を振る動作です。クビをかしげることで、かなり表情や思っている心情を伝えることができる。

一方で設計上、大きな挑戦となったのは“腰を振る”動作ですね。ここはかなり難しい部分です。以前のAIBOは、メインシャシーとなるボディーがお尻までまっすぐボックス型に存在していますが、腰を動かすには本体を分断して、そこに動きを表現する可動部を設けねばなりません。メインシステムとバッテリーを収める部分がかなり小さくなるため、その部分での設計上のチャレンジはありました。

――電源を入れると、しばらくして、気だるく、しかし頑張って起き上がる、どこか仔馬の誕生に近いシーケンスで動き始めますね。これは意図的なものでしょうか。

新しいaiboの目標として、ロボットに“生命感を与える”というものがありました。aiboが起動される。それは目覚めともいえるので、生きている犬が眠りから覚めていく様をイメージして、システムのブートシーケンスに合わせて動くようにモーションをプログラムしています。実際にブートシーケンスが終了すると、犬らしく伸びをしたりする。その眠い、けだるい雰囲気は本当の犬の振る舞いを観察し、aiboのモーションとして取り込みました。

ペット型から犬型ロボットへ


2017年11月1日の発表会で披露されたaibo(筆者撮影)

――簡単に“モーション”といっても、動きの連動タイミングがズレただけで雰囲気を損ないますが、新しいaiboはちょっと艶めかしいぐらいにかわいい動作をします。このあたり、以前のAIBOが“ペット型ロボット”と称していたのに対して、今回は“犬型”と明確にしていることとも関係しているのでしょうか。

“犬を再現しよう”と明確にテーマを持っていたわけではありません。新しいaiboの開発テーマは“生命感”です。生き生きとした命が宿っているかのような動き、雰囲気を出そうと。その中で技術的にはアクチュエータの動作音を静かにしたり、より雰囲気のある動きをと開発を重ねていったところ、現在の犬型デザインに落ち着いたのです。もちろん、ソニーのAIロボティクスを象徴する製品としてAIBOがあった、ということも影響はしています。

――OLEDの眼を搭載していますが、このアニメーションも表情を豊かにしていますね。まるで語りかけるような動きで、この部分がカタログスペックからはわからない大きな進化点という印象を持ちました。

モーションやアニメーションは、メカやエレクトロニクス、ソフトウエアのエンジニアがプログラムすると、どうしても堅苦しくなるものです。その点、今回のaiboはオールソニーで開発に挑んできましたから、SIE(ソニー・インタラクティブエンタテインメント、松井氏もプロジェクトを率いているAIロボティクスビジネスグループ長の川西泉氏もSIEのコアメンバーだった)でゲーム開発に長けたモーションデザインチーム専任で当たっています。OLEDの眼もモーションとセットでデザインをして“ドギーランゲージ”、すなわち犬が何かを周囲に伝えようとするときの仕草を表現するようにしました。

――一方で“生命感がありすぎるのではないか”“中途半端に生命感があるのは気色悪さにつながる”といった指摘もありますね。が、直接、製品を見るとまったく感じない。ロボット工学者の森政弘博士が提唱した“不気味の谷”現象は、プレイステーションの3Dゲームでも度々話題になってきましたが、どう乗り越えましたか。

社内で“不気味の谷”という言葉は出ていませんでしたが、さまざまな議論があったことは間違いありません。まずペットとして愛らしく感じるロボットにしなければなりません。たとえばアクチュエータとモーターが“ガシャガシャ”していても、見た目が“いかにもロボット”なデザインならば両者はうまくフィットします。

しかし現在のような生命感あふれる、表情豊かなデザインにしようと決めたことで、その見た目から不自然さを感じないようなスムースな動き、静かさを実現しようとエンジニアの目線がそろいました。このデザインにフィットするロボットをということで、同じ目標に向かって全員が進めたと思っています。

もちろん、これで終わりではないので、プラットフォームとしてaiboのメカ構造を固定したうえで、継続的にモーションの追加や改良を続け、ドギーランゲージのボキャブラリーを増やしていきます。

かわいがってくれる人にはなつく

――センサーやAIの技術は、先代AIBOの時代からは飛躍的に進化しています。具体的にどのような実装になっていますか。

aiboは状況を理解したうえで自身で行動を選択します。状況を理解するうえでは鼻先にあるカメラで人物を認識・区別し、各所に配置されているタッチセンサーを通じて、どんな人が自分に触れて、どんな行動を取っているかを学習します。鼻先にはToFセンサーという距離を測るセンサーが内蔵されており、激突したり人にぶつかったりということはありません。

接触が多く、かわいがってくれる人にはなついていきます。背中のタッチセンサーだけは加速度センサーが組み合わされているので、たとえば“静かにしなさい”と言いながら背中をたたくと、自分がしかられていることを認識、これを繰り返し、蓄積していくことで“しつけ”ができるようプログラムされています。

またSLAM(Simultaneous Localization and Mapping)カメラという、お尻に上方向を向けて搭載しているカメラがあります。名称のとおり、場所、位置、動きを同時に認識するためのカメラで、部屋の形状や広さを把握し、少しずつ行動範囲を広げていきます。友達の家に行くと、違う部屋だと理解して状況を把握するまでは行動範囲が狭まりますが、また元の部屋に連れて行くと“いつもの部屋”だと認識して行動範囲が広がります。

――aiboは何人ぐらいの人を覚えるのでしょうか。行動空間に関しては、ずっと忘れずに覚えているのですか。

覚えた人物のリストをaiboが消すことはないので、実際に接触した人はずっと覚えています。行動する空間に関しても基本的に覚えているのですが、あまり長い間異なる空間にいると、前のレイアウトについては徐々に忘れていきます。

――声には当然反応すると思いますが、誰の声かを判別していますか。

マイクを4レーン搭載していますから、どの方向から声をかけられているかは判別できます。それとカメラの情報の組み合わせで、誰からの声なのかは把握しています。そのほかジャイロセンサー、照度センサーを搭載していて、たとえば部屋が真っ暗なときには誰もいない、あるいは就寝中なんだなと把握します。

――状況を把握したうえで、AIシステムを通じて行動を決めるわけですね。このAIは、置かれている環境によって行動が変化すると説明されてます。たとえば取材中、aiboがはしゃいでいるときに松井さんがaiboをしかると寝転がってすねるような仕草を見せていました。

まずは状況の判断があって、そのうえでaiboに接触する人との関係性があります。いつもかわいがってくれる人もいれば、よく知らない人や怒りっぽい人もいる。aiboの行動に関与する人との関わりによって、喜び、恐怖、驚く、悲しみなど8種類の感情が湧き上がる。感情は短時間にaiboの中に“パーッ”と広がるもので、いずれは落ち着いていきます。

しかしaiboは感情を繰り返し感じることで、少しずつ性格を変えていきます。my aiboというアプリを通じて性格をおおよそ知ることができますが、内部的には5つの軸で性格を表すパラメータがあり、それが感情によって動いていくことで、極めて多様な性格を持つようになっていきます。育つ環境で、すぐにすねる子もいれば、楽天的な子、知らない人でも好奇心旺盛に近づく子、自分から積極的に甘える子などいろいろな性格が生まれていきます。

“欲求”という要素が盛り込まれている

――同じような性格のaiboに同様のアクションをすると、同じように反応しますか。

いえ、実はもうひとつ“欲求”という要素を盛り込んでいます。“遊んでほしい”という欲求が強まっていると、aiboはいつもかわいがってくれる人のところに自分から近づいていきますが、逆に“お腹が減った(バッテリーが少ない)”状態だと、周囲に大好きな人を見つけてもチャージングステーションに戻ることを優先させることがあります。欲求には4種類があり、これに疲労度(モーターの発熱など)を組み合わせ、aiboの行動が変化するのです。

さらに置かれている環境で、湧き上がる感情も変わります。たとえば同じ部屋にたくさんの人がいると、本当の犬がそうであるように“何? 何? 何があるの?”と興奮して、茶目っ気を出して人の気を惹こうとしたり、逆に同じ部屋にいるのが自分だけだと冷静になっておとなしくなったり、といった行動の変化もあります。

aiboのAIパーソナリティ(個性)は1つのプログラムしかなく固定されていますが、初期段階ではかなり好奇心が強く、すぐに動き回って近くの人(所有者と家族)と接触しようとします。かわいがってあげたり、お手やおすわりをしたときにほめてあげると、どんどんそれを学習していく。ほめないとすねはじめますが、ナデナデすると起き上がって甘え、その人は優しいと学習します。この中で性格が揺れ動いていくので、どんな子に育っていくのかは、開発しているわれわれにもわかりません。

――今後、aiboのAIが進化していく可能性は?

aiboを利用するにはaiboベーシックプラン(3年間一括払いの場合9万円、月払いの場合2980円)の契約が必要になりますが、この料金にはクラウドとつながるためのデータ通信料金だけでなく、ファームウェア、あるいはクラウド側に集約されているAIのアップデート、基本モーションの追加などが含まれています。

――可動部が多いこともあって経年変化による修理ニーズへの対応は欠かせません。修理代はどの程度になるのでしょうか。

ケースバイケースで一概には言えませんが、バッテリーの交換などは2万円以下、外装の交換、部品交換を伴わない修理の場合は2万円前後、駆動部(足交換など)や基板の交換等が伴う場合は、部位や交換する部品の数によって2万5000〜10万円になります。高価になる場合もあるため、aiboケアサポートというプランを用意しました(3年間一括で5万4000円、1年間の場合は2万円)。プランに加入していただくことで、修理代と健康診断(メーカーによる点検)費用が半額になります。

修理に関しては、以前のAIBOでは外装をまるごと交換したときに“傷がないから、うちの子じゃない”といった声もありました。ついた傷も含めて思い出というお客様もいらっしゃいますので、外装を可能なかぎり残すといった修理オプションなども用意しようと考えています。

AIスピーカーと同じことをやらせても意味がない


「事業・サービスの継続を見据えたうえでaiboを設計している」と言う松井直哉氏(筆者撮影)

――発表会ではaiboを基本としながらIoTとの連携を広げたり、aiboで動作するアプリケーションやモーションを開発者向けに開放したいという話がありました。

たとえばソニーの家電製品との連携だけならば、やろうと思えばすぐにできるでしょう。AIスピーカーと同じことをaiboにやらせても意味はないと思っていますが、すでに外部から話をもらっている部分もあるので、いずれお話できるようになるでしょう。

一方、モーションデザインのツールは提供する予定です。開発者がモーションをaiboストアの中で販売といったことができる仕組みを提供します。

――最後にグローバル展開について聞きます。海外からのニーズや具体的な展開計画はありますか。

すでに各国から要望をいただいていて、販売計画を進めているところです。しかし、コンシューマ向けロボットに関しては、国ごとに受容性が異なる面もあるため、一気にグローバルに広げるのではなく、各国市場の環境を評価したうえで順次進めていく予定です。

【インタビューを終えて】
コンシューマ向けロボットは、極めて難しい製品だ。インタビュー中でも言及したが、これだけ複雑なメカニズムの製品を販売し、長期的にメンテナンスしながら運用するとなれば、自動車やオートバイ、一眼レフカメラと同じように、定期的なメンテナンスや修理などの態勢が求められる。
松井氏によると先代AIBOで一通りの経験をして、事業・サービスの継続を見据えたうえで商品の枠組みを設計しているとのこと。今後、改良型aiboが登場するとしても、基本骨格やアクチュエータ仕様は変えず、同じソフトウエア、モーションなどを活用できるようにするという。
単なるエンターテインメント製品としてだけでなく、見守り、ウェルネスといったジャンルでの応用も、現在のクラウド集約型のシステムであれば、容易に幅を広げていけるだろう。まずは1月11日の発売開始、その後のユーザーコミュニティ、販売状況を見守りたい。