By Insomnia Cured Here

テスラのイーロン・マスク氏やDeepMindのムスタファ・スレイマン氏といった識者が、ロボットによる第三次世界対戦を防ぐために「自律型殺人兵器の使用を禁止するように」と国連に訴えかけています。

Elon Musk leads 116 experts calling for outright ban of killer robots | Technology | The Guardian

https://www.theguardian.com/technology/2017/aug/20/elon-musk-killer-robots-experts-outright-ban-lethal-autonomous-weapons-war



自律型殺人兵器の使用禁止を訴えかける公開書簡には、イーロン・マスクやムスタファ・スレイマンといった著名人のほか、26か国116人もの専門家が署名したそうです。国連はドローンや戦車、自動機械銃などの自律型兵器について正式に協議を開始することを決議しており、これに先だってイーロン・マスクら識者が自律型殺人ロボットによる軍拡競争を防ぐべきという公開書簡を送ったというわけ。

公開書簡の中では自律型の殺人ロボットが「戦争における第3の革命」になる可能性があると警告しています。実際、書簡の中には「いったん自律型殺人兵器が開発されてしまえば、これまで以上の規模の武力紛争が、人間が理解できないほど早いタイムスケールで起きることとなるでしょう。また、そういった兵器がテロリストに使用され罪のない人々の脅威になったり、ハッキングされたりする可能性もあります」「我々が行動できる時間はそれほど残っていません。このパンドラの箱が開けば、閉じることは難しい」と記してあり、自律型殺人兵器の危険性を説くと共に、迅速に規制を設けるべきであると訴えています。



By Pascal

実際、これまでにも一部の専門家は、人工知能(AI)技術は数十年後ではなく、数年以内に自律型兵器に導入できると警告してきました。AI技術は戦場を軍人にとってより安全な場所にするために使用することもできますが、自律型の攻撃兵器が誕生すれば戦争行為に対する敷居が低くなり、多くの人間の命が失われてしまう可能性も十分にあります。

公開書簡はメルボルンで開催された国際人工知能会議の開会式で公表され、1983年に発効された「特定通常兵器使用禁止制限条約(CWW)」に自律型殺人兵器を追加することを要求しています。

公開書簡に署名したイーロン・マスクと言えば、これまでも人工知能の持つ潜在的な脅威について訴えかけていました。

「北朝鮮よりも人工知能の方が危険」とイーロン・マスクが発言 - GIGAZINE



さらに、ロボットの悪用を防ぐ人工知能の非営利研究組織「OpenAI」の設立に一役買ったり……

ロボットの悪用を防ぐ人工知能の非営利研究組織「OpenAI」がIT業界の著名な起業家や投資家らによって設立される - GIGAZINE



スティーヴン・ホーキング博士らと共にAIの危険性を訴えたりもしています。

人工知能は核兵器よりも潜在的に危険、ホーキング博士が「100年以内に人工知能は人間を超える」と警告 - GIGAZINE



他にも、自律型移動ロボットを開発するClearpath Roboticsの創設者であるライアン・ガリピー氏が、「AIにおける他の潜在的な兆候とは異なり、自律型兵器システムは既に開発の最前線にあり、無実の人々に重大な害をもたらし、世界に不安定さをもたらす可能性がある」と自律型兵器の危険性について語っています。

しかし、イギリス政府は2015年に自律型殺人兵器の使用禁止に反対する立場を示しており、イギリス外務省は「国際人道法は既にこの分野での十分な規制を提供している」と述べています。