人間の動きを遠隔でトレースできるロボットが実現!? 双腕型ロボットとは

写真拡大 (全2枚)

スポンジを握ったり、コップにペットボトルの水を入れたりするのは、人間なら迷うことなくできる。
しかし、これらの動きをロボットにさせるのは難しい。
対象物の硬さによって握る強さは異なるし、かける力の量や角度は変わってくるからだ。

ロボット制御の中でも「人間のような腕や手指の動き」は特に難しいとされてきた。
それが、これからのロボットには容易になるかもしれない。

NEDOと慶應義塾大学が、視覚、聴覚、触覚、移動感覚などの身体感覚を伝送する双腕型ロボットの開発に成功したと発表した。このシステムは、マスターとスレーブの2つの作業システムからなり、人がマスター側に入り操作者となる。


身体感覚を伝送する双腕型ロボット「General Purpose Arm(GP-Arm)」による、肩を揉むデモンストレーション


アーム部で左右の腕の動き、指の動きを伝送し、遠隔で同じ動きを再現する。
へッドマウントディスプレイとステレオカメラからなるビジョンシステムは、スレーブ側の視覚、聴覚情報をマスター側に共有したり、スレーブ側で何かに接触するとマスター側にその感覚を返したりする。
この伝達は、ものの硬さや衝撃の強さなど、リアルに触れた感覚に近いという。

スレーブ側は下部に移動機構があり、筋収縮測定システムによって操作者の移動を伝え、同じ距離だけ移動することが可能だ。

◎リアルハプティクスでいよいよ触覚を実世界で活用
触覚技術の研究は「ハプティクス」と呼ばれ、VR、MRデバイスなどの登場で次世代コンテンツのキーテクノロジーとして注目を浴びている分野だ。

フィードバックを与え擬似的に触覚を伝える。
これはゲームのコントローラーなどにすでに用いられているが一方向の通信であることから、エンターテイメント以外への応用がなかなか難しい。

というのも、視覚や聴覚と異なり、触覚(力)は双方向で確立されるものだからだ。
人が何かを触る、触ったことを感じるのは、対象物からの抵抗や物体の感触を皮膚が受け取るからだ。
単に振動などでフィードバックを受け取るだけでは、自分が何かに力を作用させていると感じることはできない。

たとえば、スポンジを押すのと、石を押すのとでは、返ってくる力が違う。
違うから、"それ"を今自分が押していると感じるのだ。

慶應義塾大学 理工学部 大西公平教授らが特許を取得している「加速度規範双方向制御方式」では、加速度に基づく位置と力の加減の制御により双方向での力の伝送(「リアルハプティクス」と称する)を可能にした。
この技術を用いることで、力の作用を人とロボットで共有することができる。


加速度規範双方向制御方式の原理デモ。手前のバーで風船を押すと、もう一方のバーが風船を押す。このときに、押している弾力を感じる。この作用に関する力を記録したり、その力を強く、あるいは弱くしたりすることも可能だ


今回の双腕型ロボットはこの技術の実用化を目指したもので、NEDOおよび慶應義塾大学理工学部野崎助教らが進めるプロジェクトだ。

デモンストレーションでは、操作者の
「ものをつかむ」
「コップに水を入れる」
「肩を揉む」
などの動作をロボットがトレースした。

クラウドを経由して伝達された動作を記録することで、自動的に繰り返し行うことも可能だという。
将来的には、アバターとして、放射性環境や深海など人が入り込めない場所や高所、遠隔地での作業をロボットが代行することを目指す、としている。


<ムービー>
IMG_0614.MOV

来週開催のCEATEC2017でブース展示が行われるとのこと。


大内孝子