マサチューセッツ工科大学(MIT)のコンピュータ科学・人工知能研究所(CSAIL)が、筋肉を動かす際に体内で発生する「筋電位信号」を使ってロボットを制御することが可能となるシステム「Conduct-a-Bot」を開発しました。

Controlling drones and other robots with gestures | MIT CSAIL

https://www.csail.mit.edu/research/controlling-drones-and-other-robots-gestures

MIT muscle-control system for drones lets a pilot use gestures for accurate and specific navigation | TechCrunch

https://techcrunch.com/2020/04/27/mit-muscle-control-system-for-drones-lets-a-pilot-use-gestures-for-accurate-and-specific-navigation/

MITのCSAILが開発した筋肉制御システム「Conduct-a-Bot」は、手や腕のジェスチャーのみでロボットを細かく完全制御することが可能となるもの。以下のムービーの中ではConduct-a-Botを用いてドローンを飛行させる様子をチェック可能で、ジェスチャーのみでかなり細かくドローンの動きをコントロールできることがわかります。

Controlling Drone with Gestures - YouTube

赤い帽子をかぶった男性が右腕を動かすと……



ドローンが赤く光り……



移動します。



CSAILが開発したのは、手や腕のジェスチャーのみでドローンを制御することができるConduct-a-Bot。



筋電図用表面電極とモーションセンサーを上腕二頭筋……



上腕三頭筋……



前腕に装着。



Conduct-a-BotではCSAILが開発したアルゴリズムがセンサーから受信した筋電位信号を処理し、ジェスチャーを検出。



ドローンを操作するためのジェスチャーは以下の通り。手をひねるとドローンが方向転換。



拳を上にあげるとドローンが浮上。



拳を握り込むとドローンが前進。



Conduct-a-Botはユーザーごとの「オフラインでの調節」や「トレーニングデータ」を一切必要とせず、簡単にロボットのジェスチャー操作を導入することが可能。



上腕二頭筋と上腕三頭筋に力を入れるとドローンがストップ。



ドローンを用いたConduct-a-Botのテスト時には、ジェスチャーの81.6%を正しく識別することに成功。なお、記事作成時点では前進・後退・右へ移動・左へ移動・上昇・下降・方向転換・停止という8つのジェスチャーだけが設定されています。



Conduct-a-Botは他のロボットやアプリケーションに拡張することも可能で、「人間とロボットの相互作用を容易にすることができる」とCSAILは述べています。



CSAILによると、Conduct-a-Botは簡単なウェアラブルセンサーとアルゴリズムだけでドローンを制御可能なシステムであり、「ロボットとのやり取りを行うカジュアルユーザーが感じる『操作が難しい』などの障壁をなくすために開発されたシステム」であるとのことです。