防止から予知へ テロ相次ぐ英国で進む「AIx犯罪捜査」

写真拡大

英国でテロが相次いでいる。5月22日、米歌手アリアナ・グランデのマンチェスター公演を狙った自爆テロの悲しみが冷めやらぬなか、6月3日にはロンドン中心部でも悲劇が起こった。英国でのテロ事件は、2017年に入ってすでに3度となる。

英国は世界で最も進んだ「監視社会」のひとつに数えられている。ここで監視カメラの総設置台数や細かい法案についてすべて言及することは叶わないが、最近、発表された国連の報告書からは、その実態がにわかに浮かびあがってくる。

5月29日、国連は英国政府の対テロ戦略には本質的な欠陥があると指摘。市民の自由を奪いかねないテロ関連法の立案および施行、また警察による行き過ぎた取り締まりにより、過度な「監視国家」への道をひた進もうとしていると警鐘した。加えて、その行き過ぎたテロ対策が特定の層の人々に「テロ予備軍」としてのレッテルを貼り、反感を招くことで、想定とは裏腹に過激思想を助長する温床になっているとも指摘している。

そんな渦中にある英国から、ひとつ気になるニュースが聞こえてきた。それは、警察当局が「対象を拘束すべきか否か」など、容疑者ほか特定人物に対する捜査上の判断を行う上で、人工知能(AI)を活用する準備をしているというものだ。

5月上旬、英ダラム警察は「Hart(Harm Assessment Risk Toolの略)」と呼ばれる「犯罪リスク評価AI」のテスト導入について言及。今後、数か月以内に実戦配置し、その性能を試していく旨を明かした。

Hartの全貌については詳細に知られていないが、BBCなど英大手メディアが報じたところによると、容疑者や特定個人の犯罪の可能性を「低」「中」「高」の三段階に分類することが可能だとされている。

また「拘束するか否か」というケースの他にも、「適正な拘禁期間はどのくらいか」「長期的な拘禁が必要な人物か」「適正な保釈金はいくらか」など、さまざまな捜査・司法判断の用途で使われる計画だとされている。

なおダラム警察は、2008年から2012年の間に収集した犯罪記録などのデータに基づき、Hartを使って、容疑者および特定人物の危険性をテスト的に分析してきたとも伝えられている。2013年に行われた最初のテストでは、低危険度な容疑者を予測する精度は98%、高危険度のそれは88%となったそうだ。

低危険度、もしくは高危険度が何を指すかは具体的に示されていないが、いずれにせよ、人工知能による捜査判断は極めて高精度であるという側面がアピールされている。

もし人工知能が学ぶデータにエラーや間違いがあれば、冤罪など重大な人権侵害を招く恐れもあるだろう。

ダラム警察側はその点について、「テスト期間中、Hartは(人間の判断を支える)アドバイザーの役割にとどまる」とし、あくまで最終的な判断は人間が行うものとしている。また、Hartの判断過程を追跡できる「対AI監査システム」も構築される計画だとした。

このような英警察の動きを見るに、犯罪捜査はテクノロジーによって別次元に移行しつつあるとも思えてくる。つまり、「犯罪を防止する」という局面から一歩進み、「犯罪を予測する」、もしくは「犯罪予備軍」を人工知能で割り出すという段階だ。

ちなみに、人工知能を開発する研究者や企業関係者たちは「AIの優れた能力のひとつは未来予知」と口を揃える。それらはあくまで機械の故障や企業経営などにおいて、という意味合いだが、はたして犯罪捜査という文脈ではどのような結果を生むのだろうか。

人工知能が犯罪捜査に用いられることになれば、そして人間がその判断を盲信するようになれば、「犯罪監視社会」ならぬ「犯罪予測社会」が到来するかもしれない。そしていずれ、映画「マイノリティ・リポート」や日本アニメ「PSYCHO-PASS」、もしくはジョージ・オーウェルの小説「1984」に登場するような「犯罪予知システム」が現実になるのではないかとも妄想したくなる。

「そんな心配は、専門知識に乏しい記者の杞憂に過ぎない」と言われてしまえばそれまでかもしれないが……世界各国では、似たようなAI研究・開発の実例が意外と少なくないとだけ補足しておきたい。