専門家たちの予想を、見事に裏切り、人工知能(AI)は過去数年で驚くほどの進化を遂げてきた。

2010年にはIBMのAI「ワトソン」がクイズ番組「ジェパディ!」で人間のクイズ王に勝利、2016年にはグーグルとDeepMindの囲碁AIプログラム「AlphaGo」が世界最強と言われるプロ棋士に勝利した。人工知能の応用は爆発的に、しかし確実に広がっている。今では多くの人がスマートフォンのアシスタントという形で所有しているし、グーグル検索の裏側にも実装され始めるなど、無意識のうちに日々利用しているのが2017年だ。



そして今、人工知能は、人間の命を預かる機械にも、入り込もうとしている。この技術的かつ倫理的な難題に挑んでいるのが、自動運転車の開発者たちだ。テスラの自動運転車は、AI操縦の「オートパイロット」によって、高速道路などの限られた環境ではすでに公道を走っているし、グーグルは人間の操作をまったく必要としない完全自動運転車の商用化に向けて躍起になっている。



自動運転車の判断は、人間の生死を左右する。そのアルゴリズムは、人間の安全を最大限守るように作られるはずだが、歩行者、自転車そして対向車や並走車が行き交う現実の公道では、AIだろうが人間だろうが「どう判断しても何らかの被害が出る場合」が考えられる。そんなとき自動運転車の人工知能は、何を基準にどう判断すべきか。そして、だれの命を優先するべきなのだろうか。

たとえば自動運転車のブレーキが利かなくなった状況で、直進すれば壁に衝突してしまうとする。ハンドルを切れば衝突は避けられるが、その場合は歩行者をひいてしまうことが予想される...そんな場合に、自動運転車はどうするのが適切なのだろうか。あくまで自動運転車の乗客を守ることを優先してハンドルを切るべきなのだろうか、それとも歩行者保護を最優先して壁に向かっていくべきなのだろうか?

誰が救われ、誰が犠牲になるか。その答えは人により、また周囲の状況によっても異なるであろう。そこで、MITメディアラボのイヤッド・ラーワン准教授たちは、自動運転におけるAIの「モラルジレンマ」問題に対する人間の回答を大量に収集して分析するための仕組みを作り、一般公開する取り組みを始めた。彼らのプロジェクト「モラルマシン」では、自動運転車が走行中に直面するジレンマを具体例で示し、いずれも好ましくないふたつの事故のどちらを選択すべきかをユーザーが指定する。



「モラルマシン」の設問は現在13問出されており、すべてに回答すると、自分の回答に価値判断上どのような傾向があるのかが表示される。


170110_aimoralmachine3.jpg


「モラルマシン」の結果には、一口に価値観といっても、「乗客と歩行者(または若年者と老人、男性と女性)どちらを優先すべきか」「交通ルールをどこまで重視すべきか」などいくつかの軸があることが理解できる。さらに、生死に関わる質問に隠された「なぜそれを重視するか」を掘り下げれば、まだまだ可視化されていない生死に対する考え方が浮かびあがってくるであろう。

AIの進化と人間社会への理解を深めるため、MITメディアラボは、ハーバード大のバークマン・センターと共に、AI研究者向けの国際的な取り組み「Ethics and Governance of Artificial Intelligence Fund」 を2017年1月に発表した。大学研究の視点から、AIとの共存そして倫理的価値観を議論するリサーチ機関としての活動に期待が高まる。

Futurismによれば、デューク大学のヴィンセント・コニッツァー教授らも、AIが人間の価値観をデータで再現するプロジェクトに取り組んでいる。彼らのプロジェクト概要には、こう記されている。

倫理的判断は、権利(たとえばプライバシー)、役割(たとえば家族の中での)、過去の行動(たとえば約束)、動機や意図、その他の関連する要素から影響を受けている。これらの多様な要素は、人工知能システムにはまだ内蔵されていない。

人工知能に妥当な判断をさせるには、多様なデータが必要であり、判断力を学習させるには多くの人間の参加が不可欠である。だが人工知能に寄る倫理的判断力への必要性はまだ社会に広く認識されているとはいえない。

モラルマシンでは、自分が選んだ、人工知能にとっての最良な倫理的判断の分析結果をソーシャルメディアなどでシェアできるようにもなっている。また設問をユーザー自身が作成し、モラルマシン上に追加することも可能だ。このプロジェクトのデータ収集と並ぶもうひとつの目的は、議論を活性化することである。サイト上にはこのような注釈がある。(強調は筆者)

「私たちの目的は、誰かを評価することではなく、「一人でも多くの人に、このような重大かつ極めて困難な意思決定について理解を深めていただくこと」にあります。」

かつて人工知能の倫理観といえば、「2001年宇宙の旅」の「HAL」のように、「人工知能には倫理観がないので、いつか人間に歯向かうのではないか」という文脈で語られることが多かった。だが実際差し迫って問題になっているのは、「人間ですら迷うような事態に直面したとき、人工知能にどう対応させるべきか」ということなのだ。我々はこの問題を解く過程で、良くも悪くも、これまで曖昧にしていたさまざまな価値基準の可視化を迫られることになるだろう。