「進化が加速する人工知能が、2018年に克服すべき「5つの課題」」の写真・リンク付きの記事はこちら

振り返れば、2017年は人工知能(AI)の目覚ましい進歩が見られた年だった。

例えば、ボット「Libratus」は、ポーカー界の大物を見事なはったりで次々に打ち負かした[日本語版記事]。現実の世界に目を向けると、機械学習の利用によって農業[日本語版記事]のプロセスが改善され、ヘルスケア[日本語版記事]へのアクセスが広げられつつある。

しかし、SiriやAlexa[日本語版記事]に話しかけたことがある人ならわかるはずだが、大々的な宣伝や億万長者たちの心配をよそに、AIにはいまだに実行できないことや理解できないことがいくつもある。そこで今回は、専門家たちが2018年に解決を目指す、AIをめぐる5つの難題を取り上げてみよう。

1:人間がつかう言葉の意味

テキストや言語を処理するマシンの能力は現在、かつてないほど向上している。Facebookは目の不自由な人々のために画像の描写を読み上げることができる。

メールへの簡潔な返信の提案[日本語版記事]では、グーグルもいい仕事をしている。だがソフトウェアはいまだに、人間が使う言葉や、それを使って共有する考えを十分には理解できない。

「わたしたち人間は学習したコンセプトを取り入れ、さまざまな方法で組み合わせて新しい状況に適用できます。しかし、AIや機械学習のシステムはそれができないのです」と語るのは、ポートランド州立大学のメラニー・ミッチェル教授だ。ミッチェル教授は、数学者のジャン・カルロ・ロタが「意味の壁」と呼ぶ問題のうしろで立ち往生しているのが、今日のソフトウェアだと説明する。

一部の優れたAI研究チームは、その壁を乗り越える方法を見つけ出そうと努力している。そうした研究のひとつが、常識に関する基礎知識や人間の思考を支える、物理的世界に関する基礎知識をマシンに与えることを目的とするものだ。

例えばフェイスブックの研究チームは、動画を見ることで現実を理解する方法をソフトウェアに教えようといている。ほかにも、世界に関するこうした知識をつかって、人間が行えることの模倣に取り組んでいるチームもある。

グーグルは、メタファーを学ぼうとするソフトウェアの研究に取り組んできた。ミッチェル教授自身も、アナロジーや世界についてのコンセプトを使って、写真のなかで起きているのことを解釈するシステムの実験を行ってきた。

2:ロボット革命を妨げるリアリティーギャップ

ロボットのハードウェアはかなりよくなってきた。HDカメラを搭載した手のひらサイズのドローン[日本語版記事]は500ドルで買える。箱を運んだり、二足歩行したり[日本語版記事]するマシンの性能も向上してきた。

では、わたしたちのまわりでマシンのヘルパーが忙しく働き回っていないのはなぜだろうか? 今日のロボットは、その高度に発達した筋力に見合うだけの頭脳をもち合わせていないのだ。

ロボットに何かをさせるには、特定の仕事に対する特定のプログラミングが必要だ。ロボットは、ものをつかむといった動作を試行錯誤のくり返し[日本語版記事]から学習できる。

しかし、そのプロセスにはそれなりの時間がかかる。見込みのある近道のひとつは、仮想の模擬世界[日本語版記事]でロボットに訓練を受けさせ、そこで苦労して得た知識を自身の身体にダウンロードさせることだ。

しかし、このアプローチの障害となるのが「リアリティギャップ」である。ロボットがシミュレーションで学んだスキルは、物理的世界でマシンに移されると、必ずしもうまく機能しない。この局面が、すなわちリアリティギャップだ。

リアリティギャップは狭まりつつある。グーグルは17年10月、幸先のよい実験結果を発表。模擬とリアルの両方のロボットアームが、デープカッターや玩具、クシなど、さまざまなものを持ち上げられるようになったという。

さらなる進歩は、自律走行車の開発に取り組む人々にとっても重要だ。運転のロボット化に向けて競い合う各企業は、実際の交通と道路状況でのテストに投じる時間と経費を抑えるために、模擬道路に仮想のクルマを配備している。自動運転技術を開発するスタートアップ、オーロラ(Aurora)のクリス・アームソン最高経営責任者(CEO)は、実際のクルマに対する仮想テストの適用度を高めることが、彼のチームの優先事項のひとつだと述べる。

かつてグーグルの親会社アルファベットの自律走行車プロジェクトを率いていたアームソンは、次のように語る。「近い将来、それを活用することで学習を加速できたら、すばらしいことだと思います」

3:ハッキングに対する警戒

電力網[日本語版記事]や防犯カメラ、携帯電話を稼働させるシステムは、セキュリティの脆弱性に悩んでいる。自律走行車や家庭用ロボットのソフトは別だろう──とは思わないほうがいい。むしろ、状況はさらに悪いかもしれない。現に、機械学習ソフトウェアの複雑さが新たな攻撃を招いていることを示す証拠もある。

研究者たちは16年、機械学習システムのなかに特定のシグナルを見ると、システムを不正なモードに切り替えさせる秘密のトリガーを隠せることを示してみせた。

ニューヨーク大学(NYU)の研究チームが考案した道路標識認識システムは、通常は正常に機能するが、黄色い付箋を見ると話は別だ。ブルックリンのある「一時停止」標識に付箋を1枚貼りつけたところ、同システムはその標識を「最高速度」と報告したのだ。このようなトリックは、自律走行車に問題をもたらす危険性がある。

こうした脅威は重大視されており、17年12月に開かれた世界最大の機械学習カンファレンス「Neural Information Processing Systems(NIPS)」に集まった研究者たちも、「マシン・ディセプション(マシンをだますこと)」の脅威に関するワークショップを開いた。

研究者たちは、人間には普通に見えるが、ソフトウェアには違って見える手書きの数字を生成する方法など、巧妙なだまし方について議論した。例えば、人間には「2」に見えるが、マシンヴィジョンには「3」に見えるような数字だ。また研究者たちは、このような攻撃に対してとれる防御についても議論し、AIが人間を操るために使われることに懸念を示した。

このワークショップを開いたティム・ウォンは、機械学習がより簡単に配備でき、より大きな力をもつようになるにつれて、人間を操るためにその技術が用いられる未来は避けられないと述べた。

「もはや機械学習を行うために、部屋を博士でいっぱいにする必要はありません」と彼は語る。ウォンは、AI強化型の情報戦争の潜在的前兆として、16年の米大統領選のさなかに展開されたロシアによる偽情報キャンペーンを挙げた。「こうしたキャンペーンに機械学習分野の技術が投入されていることは明らかです」

とりわけ大きな効果を上げる恐れのあるトリックのひとつは、機械学習を使ったフェイク動画・音声の生成であるとウォンは予想している。

4:ボードゲームからマルチプレイヤーヴィデオゲームへ

アルファベット傘下のディープマインド(DeepMind)によるチャンピオン囲碁ソフトウェア「AlphaGo」[日本語版記事]は、17年に急速な進化を遂げた。5月には、さらにパワフルになったヴァージョンが中国で王者を次々に打ち負かした[日本語版記事]。DeepMindは続いて、人間のプレイを研究せずに[日本語版記事]囲碁を学習する新ヴァージョン「AlphaGo Zero」を開発した。

12月には、アップグレードに向けたさらなる努力の末に、チェスと将棋のプレイ方法も学習できる(同時にではないが)最新ヴァージョンの「AlphaZero」が誕生した[日本語版記事]。こうした雪崩のような目覚ましい成果の数々はたしかに素晴らしい。

だがそれは、AIソフトの限界をわれわれに思い出させるものでもある。チェスや将棋、囲碁は複雑ではあるが、どれも比較的簡単なルールに基づいて行われ、ゲームプレイも双方の対戦者の目に見える。

つまりこれらは、考えられるいくつもの駒の配置をすばやく計算できるコンピューターにぴったりのゲームなのだ。ところが、人生における状況や問題の大半は、それほどきちんと構造化されているわけではない。

だからこそ、DeepMindとフェイスブックはそれぞれ、マルチプレイヤーヴィデオゲーム「スタークラフト」への取り組みを17年に開始した[日本語版記事]のだ。まだ両社とも、大きな成果を上げてはいない。現状では、最も優れたボット(アマチュアが開発したもの)でさえ、中程度の腕前のプレイヤーにかなわないのだ。

DeepMindの研究者であるオリオル・ヴィニヤルズは17年、『WIRED』US版に対して、いまのところ彼のソフトウェアは対戦相手の動きを予期してそれに反応しつつ、自軍を慎重に組織・指揮するのに必要な計画と記憶に関する能力が欠けていると語っている。

こうしたスキルは、現実世界のタスク(オフィスワークや軍事作戦[日本語版記事]など)を支援するソフトウェアの能力も大幅に向上させるものだ。18年には、スタークラフトやそれに類するゲームにおける大きな進歩が、AIの強力な最新アプリケーションの前触れとなるかもしれない。

5:善悪の区別をAIに教える

上記の分野における新たな進歩がなかろうと、既存のAI技術が広く採用されるようになれば、社会と経済の多くの側面は大きく変わるかもしれない。政府と企業がそれを急ぐ昨今、AIと機械学習がもたらす偶発的な害や意図的な害について懸念する人々もいる。

こうした技術を安全かつ倫理的な範囲内にとどめておく方法については、12月に開かれた機械学習カンファレンス「NIPS」でも盛んに議論された[日本語版記事]。

機械学習システムが、完全からほど遠い人間世界のデータを使って訓練された場合、芳しくない行動や望ましくない行動(いまだになくならない性別に対する固定観念など)を習得する恐れがあることは、研究からすでにわかっている。

一部の研究者はいま、AIシステムの内部構造を監査し、それらが金融や医療などの産業で活用される際に公正な判断[日本語版記事]を下せるようにする技術の開発に取り組んでいる。

18年は、AIを「人間性の正しい側」にとどめておく方法についてのアイデアを、テック企業各社が出してくれる年になるはずだ。グーグルやフェイスブック、マイクロソフトなどは、この問題についてすでに言及しはじめている。

これらの企業はAIの社会的影響を調査・研究し、それを正しい方向に導くことを目指す新たな非営利団体「Partnership on AI」メンバーでもある。

プレッシャーは、より高い独立性をもつ方面からも寄せられている。慈善プロジェクト「Ethics and Governance of Artificial Intelligence Fund(AIの倫理とガヴァナンスのためのファンド)」は現在、マサチューセッツ工科大学(MIT)やハーヴァード大学などをサポートし、AIと公益の調査・研究を推進している。

NYUが新設した研究所「AI Now」も同様の使命を背負っている。同研究所は先日発表した報告書で、刑事司法や福祉などの分野で、一般市民に公開されない「ブラックボックス」アルゴリズムの使用を中止するよう政府に求めている。

RELATED

AIの権威アンドリュー・エンが、あのフォックスコンと組んだ理由──生産現場にどんな革新が起きるのか