写真提供:マイナビニュース

写真拡大

日立製作所は3月27日、AI(人工知能)を利用して、性別や服の色、所持品など100項目以上の人物の特長をリアルタイムに判別することで、探したい人物を即座に発見し追跡可能な技術を開発したと発表した。

新技術では、不審者や迷子などに関する目撃情報を手掛かりに、大規模施設や街区などの防犯カメラ映像から、特長に合致する人物の発見が可能という。

さらに、発見した人物の全身画像を解析することで、顔の映らない後ろ姿や遠方の映像からでも、広範囲に人物の足取りを把握できるとしている。

空港や駅などの大規模施設や街区などの公共空間では、安全確保のために防犯カメラによる監視や警備が行なわれているが、事件の早期発見と解決には、施設利用者などの目撃情報を下に不審者や迷子の映像を即座に絞り込み、該当する人物がどこにいるのかを、広域の防犯カメラ網からリアルタイムに把握する必要があるという。

限られた人員で全ての映像を確認することは困難なため、これまで、服装の色や入口などで事前に撮影した顔の画像を手掛かりに、人物を発見・追跡する技術の開発が進んできたとのこと。

しかし、似た色の服を着用している場合や、手掛かりとなる目撃情報が限られている場合、また、体の向きや照明の影響で防犯カメラに顔が正確に映らない場合には、人物の発見・追跡が困難だったとしている。

同技術では、AIにより性別や年齢層、服装など多数の特徴情報をリアルタイムに判別することで該当する人物を見つけ出し、さらに、その人物がどのような足取りを取ったのかをリアルタイムに広域の防犯カメラ映像の中から抽出するという。

同技術の特長として同社は、人物の外見と動作の特長を判別・検索する点及び、人物の全身画像を詳細に解析し同一人物の映像を抽出する点の2点を挙げる。

人物の外見と動作の特長の判別・検索に関しては、カメラに映った人物の性別・年齢層・髪型・服装の種類・色・所持品など、12種類100項目以上の外見に関する特長と、歩く・走る・しゃがむなど、10項目の動作に関する特徴をリアルタイムかつ同時に判別するAIを開発した。

特長を判別する際、従来は項目ごとに異なる演算が必要だったというが、今回は複数の項目を同時に判別可能な演算方法を用いることで、必要な計算量を同社の従来技術と比べて約40分の1に削減したという。

AIによりリアルタイムに判別した人物の特徴情報を基に条件を指定することで、高速に人物を発見可能になったとしている。

同一人物の映像の抽出については、カメラに映った人物の全身画像をリアルタイムに画像解析・数値化することで、体の向きや明るさが異なる映像でも同一人物だと把握可能なAIを開発したという。

AIによる画像解析結果を同社独自の高速ベクトル検索データベースに記録することで、数万人の人物画像を記録した映像の中から1秒以内で同一人物の映像を抽出可能としている。 また、今回開発したAIを用いた場合、顔画像を解析した場合と比較して同一人物の発見精度を同社の従来技術と比べて3倍以上に改善したとのことだ。

(山本善之介)