画像はイメージです。

写真拡大

 今年8月に、軍事利用を目的に自律型AIに兵装のコントロールを行わせるいわゆる殺人ロボット、公的な用語ではLAWS(Lethal Autonomous Weapons Systems、自律型致死性兵器システム)の規制を巡っての、初の専門的かつ公的な国際会合が開かれる。

【これまでも】殺人ロボット(自律型致死兵器システム)は規制されるべきか

 殺人ロボット。SF小説には大昔から登場するアイデアの一つである。現代の先端科学は、多くのSF的アイデアを実現へと導いてきた。まだ実現不可能なものも無数にあるが、これは、技術的な観点からいえばさほど「難しくはない」テクノロジーであるといえる。ただし「難しい」のは、それが道義的な観点から見て我々人類が存在を許すべきものなのか、ということだ。

 2017年5月現在、少なくとも公的には、完全自律型のLAWS、つまり完全にオートメーションで動作し人を殺傷することを目的として造られたロボットはまだ存在しない、ということになっている。ただし、人工知能の軍事利用というだけでいえばもちろんとうの昔から実行されており、LAWSの定義もまだ明確に共有されるものが存在しているわけでもなく、問題は微妙な部分を孕んでいる。

 たとえば、標的を自動追尾する「スマートな」ミサイル。運搬に利用できる軍用四足歩行ロボット。潜水艦を探知するロボット。そして、これはかなり微妙なライン上なのだが、無人の戦闘飛行機械。

 現在世界を代表する科学者のひとりと言われる物理学者スティーブン・ホーキング博士をはじめとする約1,000人のAI研究者たちは、2015年、公開書簡を呈し、完全自律型のLAWSが完成するまでの技術的な時限はもうあと十数年ではなくほんの数年しか残っていない、と警鐘を鳴らした。

 しかし国際人権団体、ヒューマン・ライツ・ウォッチは、米国、英国、中国、イスラエル、ロシア、韓国などが自律性の高い兵器を開発していると指摘している。

 これまで、LAWSを巡る議論は「特定通常兵器使用禁止制限条約」(CCW)の非公式専門家会合で話し合われてきた。今後の禁止条約制定などをにらみ、LAWSを専門的に取り上げる会合を新たに作る、というのが今回の流れである。