自動運転のクルマが事故を起こしたら、裁かれるのはロボットか人間か?

写真拡大 (全2枚)

近い未来、社会の中心にいるのは人工知能だろう。

すでに人工知能の活用は始まっている。自動車の自動運転は代表的な例であり、すでにアメリカの運輸省は自動運転車の運転手を「人工知能」とみなす見解を示している。

では、もし人工知能がバグを起こして、自動運転車が暴走してしまった場合、それは一体誰の過失になるのだろうか?

人工知能? それとも製造者? もしかしたら乗っていた人間?

もし、人工知能を搭載したロボットが罪を犯した場合、誰の責任になるのかという問題は、自動運転車に限った話ではない。

スタンフォード大学で人工知能が及ぼす影響と知能について教鞭を取る、ジェリー・カプラン氏は 『人間さまお断り』(三省堂刊)の中で、私たちに一つの解を授ける。

■罪に問えるかどうかの基準になる「道徳的行為者性」

まずカプラン氏は、中世において、動物が「道徳的行為者性」を持っていると信じられており、裁判にかけられていたことがあるという事例を持ち出す。

この「道徳的行為者」であるためには、ふたつの能力が必要とされている。

1つは、自分の行為が及ぼす道徳的な影響を認識する能力。
もう1つは、それに応じて自分の行為を選択する能力である。

この2つの条件はどちらも、主観的に善悪を感じているかどうかに依存するものではない。

つまり、「善悪を感じるかどうか」が問題ではなく、推定できる道徳的な基準に照らし合わせて、自分の行為がどのような影響を及ぼすか評価できることが必要だと言っているのである。

もっと簡単に言えば、罪に問うためにその対象が感情を持っているかどうかは関係ない。独自に決めて行動できるのであれば、問うことができるのである。

■法律上、ロボットと奴隷は同じ扱いになる?

とはいえ、もしロボットが事故を起こした時に、その所有者が責任を負わないわけにはいかない。ロボットはその所有者の「代理」として動いていたわけだから、その所有者に責任があるのではないか? と考えられるだろう。

一方、その所有者は、ロボットの設計を信頼して購入した。なおかつ本来の用途に応じて使っているのだから、この事件の責任はロボットを販売した会社だと訴えるかもしれない。

この責任を問うための前例はどこにあるのか?

カプラン氏が取り出すのは、17世紀から18世紀、南北戦争以前の「奴隷条例」である。南北戦争以前は州ごとに奴隷の扱いや法的立場や責任を定めていたが、ほとんどの場合、奴隷は所有物とみなされていた。

それにも関わらず、奴隷が罪を犯したときは例外なく、所有者でなくその奴隷が法的に有罪とされていたのである。

ようは、奴隷は法的には「所有物」だが、独自に意思決定をおこなう能力もある、と考えるのではないかというのだ。

■ロボットをどのようにして罪に問うか

――責任はロボットにある。

それが、カプラン氏が導き出す答えである。

では、どのようにしてロボットを罰するべきなのか。こちらはこちらでカプラン氏による面白い議論が展開されている。

現状、ロボットには財産がなく、労働力しか提供できるものがない。

そのため、「人工人格に財産の所有を認めよという強い圧力も生じてくるだろう。なぜなら、人工人格の所有者とは無関係に、そのような財産の差し押さえや科料の対象になりうるからだ」とカプラン氏は予測する。



人工知能の法整備については、今後の課題になっていくだろう。カプラン氏の考えはどうなるのか。

(新刊JP編集部)

【関連記事】

認知症になってからでは遅い! 今急増している「モメる相続」の原因
成婚率10%でも経営安定 結婚相談ビジネスのカラクリ