たとえばウェアラブル端末で撮影した複数のフレームから、ある人物が静止しているか歩いているか、動いているならどの方向かといったデータを取り出し、クラウドを経由して識別されるほうの端末に問い合わせ、特定のタイムスタンプ (たとえば15秒前) にどのような動きをしていたかモーションセンサーのログとマッチングするなど。
論文では普段どおりの自然な服装の被験者15人を使ったコンセプト実証実験の結果、正面からでは自撮りのビジュアル指紋だけでも高い認識精度が得られたとしています(1人なら100%、15人でも93%)。背面からの場合、初期状態の自己ビジュアル指紋では正答率40%ほど(「分からない」が約55%、誤認は低く数%)。ここからシミュレーションで指紋の精度を上げていったところ、背中からでも約93%の正答率に達したとされています。(実際にどういった環境だったのかは元論文へ)。
さて、顔認識ではない外見認識が有望であるとして、ありそうな反応は:
1. 顔を隠しても個人を認識されるなんてプライバシー的に恐ろしい。
2. 服装は毎日変わるから非実用的。
が挙げられます。どちらも一面の真実ではありますが、論文の執筆者が議論するのは、アプリケーション例としての InSight はあくまで識別されたいユーザーが任意で使う仕組みであること。自己ビジュアル指紋は自分で登録するため、使っていなければ InSight のユーザーからは該当なしにしか見えません。
またマッチしたときに表示される情報も自前で用意するため、名前やニックネームなどなんらかのアイデンティティを含める必要もなく、「求む xx」のようにプラカードで掲げたい情報にすることもできます。(論文ではURLを書いた名札や、メッセージTシャツに擬えている)。
「服装は毎日変わる」については、逆にある日、ある場所でしか有効でないことで、プライバシーを守りつつ「今日のイベントでは XX が目当てだから、InSight を有効にしてこっちのアカウント名を載せて、XX求むと書いておこう」が可能になるともいえます。
(ただし、あくまで特定アプリケーションの設計やユースケースを前提に技術的な長短について述べただけなので、顔認識やBluetooth トラッキング などこれまでの技術と同様、プライバシー上問題のある使い方をされる可能性も考えられます。)
(余談。元論文にある利用例のひとつは、「求職フェアで学生が自分のスキルセットや希望の職を表示する」。文化の違いというか、一斉に無難なリクルートスーツに着替える日本ではかなり技術的にチャレンジングな環境になりそうです。実用化されたとして、ユーザーが頭上に表示したい内容と位置情報などからマッチングした商売はもちろん、あまりにもビジュアルフィンガプリントが更新されないユーザーには「季節の変わり目くらいは服を買おうセール」の広告が表示されるかもしれません。)
下は InSight とほぼ関係ないGoogle Glass動画。強いていえば「Glass + 服」つながりです。(デザイナー Diane von Furstenberg と、モデルやスタイリストに Glass を着けてもらい撮影したファッションショーの主観短編動画。)
- 前へ
- 2/2
外部リンクEngadget 日本版