「ロボットが「感情知能」を身につける? 歩き方から人間の気分を“理解”する技術、米研究チームが開発」の写真・リンク付きの記事はこちら

悲しくて、肩を落としてうなだれながら、とぼとぼ歩いている人。怒って周囲を警戒しながら、背筋を伸ばして急ぎ足の人。まわりから疎まれるほど幸せ一杯で、通りをスキップしていく人──。

どんな歩き方であれ、表情と組み合わせによって、その人にどのくらいのパーソナルスペースが必要なのかは言外に伝わってくる。そしてこのようなヒントを正確に読み取る能力は、社会的動物である人間には欠かせないスキルだ。

そして、これはロボットにも不可欠なスキルかもしれない。メリーランド大学の研究者が、このほど「ProxEmo」と呼ばれるアルゴリズムを開発した。ProxEmoを搭載した小さな車輪つきロボットは、リアルタイムで人間の歩き方を分析することで、その感情を推測できる。

ロボットは推測した感情に基づいて人間に与えるパーソナルスペースの広さを判断し、進行経路を決める。これはヒューマンロボットインタラクション(HRI)においては、ささいなことに思えるかもしれない。だが、将来的に機械が十分な発達を遂げれば、機械が歩き方からその人が悲しんでいることを読み取り、助けの手を差し伸べるようになることも考えられるだろう。

「悲しんでいたり、困っていたりする人がいたら、このロボットは近づいていって『今日は悲しそうですね、どうしました?』と尋ねることができます」と、メリーランド大学のロボット工学と人工知能(AI)の研究者で、ProxEmoの開発を支援したアニケット・ベラは言う。歩き方を解釈する能力は、ロボットとの交流を望んでいない人を避ける上でも役立つかもしれない。「悲しい人や幸せな人とは対照的に、怒っている人が歩いて向かってきたら、ロボットはその人と距離をとろうとするはずです」と、ベラは言う。

歩行者の動きを分析するアルゴリズムを使用

最初に注意しておくが、この感情知能(EQ)の高いロボットは、推測した感情に基づいて行動する。実際に人の心を読みとることはできない。

人間でさえ、その人が幸せか、悲しいか、または怒っているのか、見るだけで100パーセント確実に言い当てることはできない。しかし、社会的な動物としての人間は、歩き方からその人の感情を示す明確なヒントを読み取ることを学んできた。これは、すでに腹を立てている人を余計に怒らせないようにする上で役立つ能力だ。

このシステムを構築するために、ロボット工学の研究者はまず人間の調査から始めた。人を集め、ほかの人が歩いているところを見てもらい、歩行者がどのような感情を抱いていると思ったかについて質問した。この質問の回答は主観的なものであるが、研究者は他人を観察する人の主観的なデータを収集し、そのデータをそれぞれの人の歩き方に関するデータと関連づけた。

しかし、ロボットが歩き方の見た目を理解するには、主観的な判断ではなく客観的なデータが必要になる。そこで研究者は、歩いている人の映像を分析するアルゴリズムを使用し、歩行者の画像を首、肩、ひざを含む16の関節をもつ骨格に重ねた。次に、深層学習(ディープラーニング)アルゴリズムによって、人間の調査参加者がほかの人の歩き方を見てそれに関連づけた感情を、先ほどの骨格で表現された特定の歩き方に関連づけた。

VIDEO BY ANIKET BERA

こうして新たなProxEmoのアルゴリズムが完成した。研究者はカメラを装備したかわいらしい黄色の小型四輪ロボットに、このProxEmoアルゴリズムを搭載した。Clearpathという企業が開発した「Jackal(ジャッカル)」というロボットである。

Jackalが動き回ると、搭載されたカメラが歩行者を観察し、ProxEmoは歩行者に客観的な歩き方の指標となる16関節の骨格を重ねる。アルゴリズムはその骨格が表す歩き方と特定の感情との結びつきを学習している。

歩行者のパーソナルスペースを尊重

この方法によってProxEmoは歩行者の感情の状態を推測し、ロボットが歩行者のパーソナルスペースを尊重できるようになっている。歩行者が怒っているとシステムが判断すれば、パーソナルスペースを広くとる。歩行者が幸せだと判断すれば、狭くとることになる。

このパーソナルスペースは完全な球形ではなく、楕円形のような長方形だ。「人間の前方には広いスペースがあり、側面にはそれなりのスペースがあり、後方にはあまりスペースがありません」とベラは説明する。

ロボットが人間に正面から近づく場合、前方に多くのスペースを確保する必要がある。これに対して人間の横を通過するときや、人間の後ろを通ってロボットが元のコースに戻るときは、それほどスペースを確保する必要はない。

VIDEO BY ANIKET BERA

ただし、注意が必要なのは、実験環境で歩行している人から抽出されたクリーンなデータでロボットがトレーニングされている点である。つまりこの環境では、常に歩行者の手足はすべて見えている。だが、現実世界では常に手足が見えるとは限らない。

したがって、ロボットを無秩序な世界に対応させるために、研究者は少しのカオスな状況を“ノイズ”のかたちで組み込む必要があった。ここで言うノイズとは音のことではなく、人の衣服や、何かを手に持っていて手が覆われている可能性がある、といった変数を処理できるようトレーニングすることだ。

「ノイズを追加しても感情は変わりません。そこで、さまざまな種類のノイズを追加し、しばらく歩行者を観察させた上で、片方の手が見えなくても理解できるようにシステムをトレーニングしたのです」と、ベラは説明する。

顔の表情も“理解”できる未来がやってくる?

将来、顔の表情を読み取る別のシステムとProxEmoを組み合わせれば、さらに複雑な感情知能を構築できるかもしれない。そうなれば、相手に助けの手を差し伸べるべきか、または広いパーソナルスペースを与えるべきか正しく判断できる可能性が高まる。人間やロボット自身を傷つけることなくロボットが人々の間を歩き回れるようになることを望むなら、ロボットはそういったニュアンスを拾い上げる能力を飛躍的に向上させる必要がある。

「ロボットが不自然な動作をすると、人間が不快に感じるだけでなく、ロボットの動きを予測できずに衝突してしまう可能性もあります」と、マサチューセッツ工科大学のコンピューター科学者であるディーナ・カタビは言う。カタビはProxEmoの研究にはかかわっていない。「例えば、ロボットが人に接近しすぎて不快感を与える状況を回避できれば、それは有益なことです」

結局のところ、高性能なロボットを“高価な嫌われ者”にしてしまっては、意味がないのだ。

※『WIRED』によるロボットの関連記事はこちら。