1

自動運転カーが実用化されれば「人間のミス」が原因で起こる事故がなくなり、交通事故で亡くなる人が激減すると期待されています。その一方で、自動運転カーの技術が進歩するにつれて、「万一、事故が避けられない状況に陥ったときに、自動運転カーは歩行者の命よりも乗客の命を優先することが許されるのか?」という倫理的な問題をどう解決すれば良いのかという非常に難しい問題についての議論がわき上がりつつあります。自動運転カーが誰の命を優先するべきかという「倫理的なジレンマ」をどう解決していくべきかについて、MIT Media Labのリヤド・ロウワン教授がTEDトークで解説しています。

The Social Dilemma Of Driverless Cars | Iyad Rahwan | TEDxCambridge - YouTube

アメリカだけでも2015年に自動車事故で3万5000人の人が亡くなっており、世界全体で見れば120万人という人が毎年自動車事故で亡くなっています。「事故で亡くなる人の数を90%以上減らすにはどうすればいいか?」という答えは「人間のミスを減らすこと」であり、これこそが自動運転カーの開発が急がれる大きな要因の一つです。



2030年の自動運転カーを考えてみましょう。



後部座席に座ってこの古典的なTEDトークのムービーを見ています。



ここで突然、機械的なトラブルが発生したとしましょう。自動運転カーは止まることができなくなってしまいました。



前方に多くの歩行者がいる場合、自動運転カーが歩行者の列に飛び込んで多くの人が亡くなるかもしれません。



多くの歩行者の命を優先させることで、道路脇の人をはね飛ばすことも考えられます。この方が、多くの人命を救うことにつながるでしょう。



別の方法もあり得ます。



自動運転カーは誰もいない壁に激突して停止することもできます。この場合、失われるのは自動運転カーに乗っていた人だけです。



「人が亡くなるのが避けられない状況で、誰の命を優先させるのか?」というのは数十年前から議論されている倫理的な問題です。



「こんなシナリオは現実的でない」と言って目を背けることは簡単ですが、それでは問題は解決しません。



「どの方向に進めば誰がどれだけの確率で死に至るかを瞬時に計算して判断する」という方法論もあります。



「ドライバーを守るのか?それとも、歩行者を守るのか?」は非常に複雑な計算が必要となるでしょう。そこには依然として、一方を選べば他方を捨てることになるという「トレードオフ」の問題が含まれているからです。



技術の進歩が解決してくれる、という考えもあります。いずれ、事故がまったく起こらない技術が登場するのだからそれを待つべきだというわけです。



事故を90%減らす技術はそう難しい事ではありません。10年以内に事故が90%も減少することはあり得ます。しかし、残りの10%をゼロにすることは、事故を激減させるのとは比較にならないほどの難しさを伴います。



科学者の予想では90%を100%にするには50年かかるとのこと。仮に一定の割合でこれを達成したとすれば、事故がゼロになる日までに6000万人が命を落とすことになります。



SNSなどでさまざまな解決策が出されています。



「自動車は群衆の間をなんとかして華麗にすり抜ける」というアイデアもあります。もちろんこれができれば素晴らしいことですが、実現不可能なアイデアでは意味がありません。



あるブロガーのアイデアでは、「緊急脱出ボタン」を取り付けて、事故が起こったときにはパラシュートを使って脱出するというものもありました。



「自動車は道路上ではトレードオフから逃れられない」ということを前提とすると、私たちはこのトレードオフをどのように考えれば良いのでしょうか?そして、その決定はどのようにして行うべきなのでしょうか?最終的な結論は、規則や法律で決めることになりますが、それらは私たちの社会的な価値観を反映したものでなければなりません。



この問題を考える上で、二人の有名な哲学者の考えが参考になります。



ジェレミ・ベンサムは、「最大多数個人の最大幸福」こそが正しい道だと説きました。この考え方では、最も犠牲者の少ない方法である、脇道の人をはねるか、壁に激突することが選ぶべき道となりそうです。



これに対してイマヌエル・カントは、普遍的な道徳規則に無条件に従うべきという義務論を唱えました。これによれば、他者を死なせることになろうとも自分を殺すべきではないということになるでしょう。



あなたはどのように考えますか?



たいてい人はベンサムの立場に立ちます。より多くの人命が助かることこそが正しい解決策だと考えます。



しかし、「では、他人の命を守るために自分を犠牲にするかもしれない自動運転カーを買いますか?」という質問に対しては、みな「ノー」と答えます。



自分は自動運転カーを買わないけれど、他の人には自動運転カーを買ってもらって、ぜひとも交通安全を改善して欲しいと考えるのです。



このような状況は「社会的なジレンマ」として知られており、1800年代のイギリスの学者ウィリアム・フォースター・ロイドの「コモンズの悲劇」として議論されてきたものと同種です。



みなでコモンズ(共有地)を分け合って羊を飼っている状況を考えましょう。羊の数が少ない場合、みなが幸せになります。



ここで、ある人がこっそり1匹多くの羊をコモンズに入れたとします。この人は少しばかりの得をしますが、他の人にはそれほど大きな影響を与えないので大きな問題にはなりません。



しかし、みなが理性を失い1匹多くの羊をコモンズに入れてしまうと、牧草が足りなくなり羊は全滅。このような状況は、誰にとっても悪夢です。



同じことは現代でも起こっており、魚の乱獲の問題や温室効果ガスの排出問題などがこれに当たります。そして、自動運転カーでもコモンズの悲劇と同じことが起こり得ます。しかし、自動運転カーの場合、少しばかり構造が異なっていることには注意が必要です。なぜなら、決断するのは自動運転カーを買うユーザーではなく、自動運転カーをプログラムする自動車メーカーだからです。ユーザーは決断する必要がないという違いがあるのです。



そして、自動車メーカーは「自動運転カーが自分で考えて結論を出す」ようにプログラムをするでしょう。



コモンズの悲劇の羊になぞらえれば、自分で考えて決めるデジタルな羊のようなもの。デジタルな羊が決定し、飼い主は羊の考えがわかりません。



私はこれを「アルゴリズム・コモンズの悲劇」と呼ぶことにしましょう。現代に起こった新しいタイプの問題です。



これまで、私たちはこの種の社会的なジレンマを規則(規制)によって解決してきました。政府や市民が集まり意見し合って、何がもっとも良いことかを話し合い規則を決めて解決してきたのです。こうして社会的に良好な状態が保たれてきたのです。



事故が起こり、多くの人命を助けるために自分が犠牲になることも仕方がないという自動運転カーに関する規則ができたとして、規則は守られるでしょうか?



まず最初に起こり得る反応は、規則に反対する声でしょう。次に出てくるのは、そんな規則によって作られる自動運転カーなら買わないという意見でしょう。



つまり、道路上での安全を目的にして作られた規則によって、かえって自動運転カーを買わない、使わない人が増える結果として、目的だった安全性が実現されないという皮肉な状況が生まれてしまうのです。たとえ自動運転カーの方が人間のドライバーよりも安全だとしてもです。この問題を解決するための方法論を私は持ち合わせていません。しかし、今この時点こそが自動運転カーに関する社会的ジレンマやトレードオフの問題のスタート地点だと考えています。



私が教えている優秀な学生がアンケートを募るウェブサイトを作りました。このサイトでは歩行者の数や属性などさまざまな条件を変えた状況で、自動運転カーはどのような判断を下すことが望ましいのかを、世界中の人に判断してもらっています。



すでに世界中の100万人以上の人から500万を超える種類の回答が集まっています。これらの意見は、トレードオフの問題を解決するための初期の青写真作りに非常に役立つことでしょう。



そして、それ以上に大切なことは、このようなアンケートを通じて考えることが、トレードオフの問題での選択の難しさを理解してもらう助けになるということです。規則を作る側も、不可能な選択を強いられているのだということを理解してもらえるということです。最終的には規則で解決しなければならない問題に対する社会の理解が深まるということが重要なのです。



多くの人たちの意見が要約されて規則になります。一つの例を挙げてみましょう。誰が最優先で救われるべきで、誰が死ぬべきなのか?



ある人は「猫」こそ救われるべきで、「赤ちゃん」こそ死ぬべきという意見を出しています(笑) この人は、もしかすると歩行者よりも乗員を優先すべきだという考え方をするのかもしれません。もちろんこの考えが一般的だと言うつもりはないので安心して下さい。



話を戻すと、「倫理的なジレンマ」というところから質問を始めました。「ある特異な状況下で、自動運転カーはどのような判断をするべきか」という疑問です。



しかし、この問題は、実は社会がどのような結論を良しとするかという「社会的なジレンマ」の問題なのです。



1940年にSF作家のアイザック・アシモフの小説でロボットが従うべき「ロボット工学三原則」が示されました。



これは「ロボットは人間に危害を加えてはならない」「ロボットは人間にあたえられた命令に服従しなければならない」「ロボットは自分を守らなければいけない」というもので、この順に優先権があります。



私は、この三原則に優先して守られるべきゼロ番目の法則を提言します。



それは「ロボットは人間の持つ『思いやりの心』を傷つけてはいけない」という大原則です。



自動運転カーが直面するトレードオフ問題という文脈で、このゼロ番目の大原則がどのように機能するのかは私にはわかりません。しかし、自動運転カーの抱える問題は技術的な問題というだけでなく、社会的な協調の問題だということを理解することが大切だと思います。そして、このことを理解することが、非常に難しい問題を正しい方向に導くための少なくともスタートになると信じています。