ロボットは倫理の狭間で葛藤する:実験結果

写真拡大

ロボットはいつの日か、倫理的な決断を行い、より適切な行動を自分で選択できるようになるだろうか? このことを明らかにしようと試みた実験がある。

「ロボットは倫理の狭間で葛藤する:実験結果」の写真・リンク付きの記事はこちら

「ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない」。これは、70年以上前に──つまり、まだそうした懸念のなかった時代に──有名なSF作家アイザック・アシモフが宣言したロボット工学三原則の第1条だ。

明解かつ説得力があり、誤解の余地はないように思える。しかし、罠はすぐ近くに潜んでいる。例えば、ロボットが、危険にさらされている2人の人間を前にしていると考えてみよう。そのうち1人しか助けられないとしたら、ロボットはどのように行動するべきか選択できるだろうか?

アシモフの創作のなかでは、ロボットのポジトロン脳(アシモフが創作した電子頭脳の中枢)が停止することで結末を迎えるが、翻って今日では、現実の世界でも起こりうる話として議論できる。そこで、初めてロボットの倫理のテストを行ったのが、ブリストル・ロボット工学研究所(Bristol Robotics Laboratory)の研究者、アラン・ウィンフィールドだ。

彼は同僚たちとともにロボットにプログラミングを行い、他のロボット──人間の役割を果たす──が穴の中に落ちないようにした。実験の結果は、雑誌『Advances in Autonomous Robotics Systems』で発表された。

まず、最も単純なシナリオにおいて、ロボットは「成功」した。すなわち、そのロボットにとっては人間にあたる別のロボットが穴に向かって行くと、期待通りに急いでその軌道を変え、危機から救い出した。

しかし、ウィンフィールド氏が「倫理トラップ」と定義した状況においては、成り行きは違う結果を見せた。内容はと言えば、もう1台の人間役のロボットを加え、2台が同時にそれぞれ別の穴へと向かって進んでいく。救助するロボットは、選択を強いられることになったわけだ。

いくつかの場合において、ロボットは穴に向かう2台のうちの1台を救うことに決めて、もう1台を死なせた。両方を救うことに成功したこともあったが、33回のテストのうち14回は、ロボットは決定を下すまで時間をかけすぎて、「人間」を2人とも穴の中に落とすことになった。

ウィンフィールド氏は実験に先立ち、『New Scientist』に対してロボットが自律的に選択をすることは不可能だろうと確信していたと言葉少なに語っていたが、「いまはただ、考えが思い浮かびません」と語る。

TAG

EthicsIsaac AsimovRobotSci-fiWIRED IT
ロボットが人間の日常生活の中に入ってくるにつれ、こうした問題への解答がどんどん必要なものになってきている。例えば、自動運転の自動車を考えてみよう。いつの日か、ロボットは乗客の安全と、他の自動車の運転手や歩行者の安全の間で、選択をしなければならなくなるかもしれない。そして、このような状況のための規則を機械にプログラミングすることは簡単ではない。

また、『New Scientist』が示唆しているように、解答は軍の戦闘用に開発されるロボットからやって来るかもしれない。アトランタのジョージア工科大学の情報学者、ロナルド・アトキンは、ロボットが戦場においてインテリジェントな決定を行うのを補助する目的で、軍用ロボットのためのアルゴリズムの組み合わせを開発した。彼はこれを「倫理統治者」(ethical governor)と名付けた。

システムは戦闘シミュレーションにおいてテストされ、例えば、アトキンのアルゴリズムによってプログラムされたドローンは、戦争法によって保護された地域の近くでの戦闘の最中に、発砲しない、もしくは損失を最小限にすることを選択できることが証明された。

もっとも戦争に関しては、まずはわたしたち人間が、もう少し倫理を学ばなければならないだろうが。

TAG

EthicsIsaac AsimovRobotSci-fiWIRED IT