囲碁で人間を破った「AlphaGo」や悪夢画像をつくる「Deap Dream」などのAI開発を進めるグーグルは、同時にその危険性も考えている。グーグルや非営利団体「OpenAI」の共同チームは、来るべきAI社会において考えなければいけない「5つの問題」を発表した。

「グーグルが考える、未来のAI社会に対する「5つの懸念」」の写真・リンク付きの記事はこちら

心配性の人々は、ロボットたちがその金属のように冷たく苛酷な力で地球を支配する、という暗黒の未来を懸念しているかもしれない。一方で、ロボットはわれわれを強制的に下僕にするのではなく、寝室などを片付けてくれる便利なものだと考える人たちもいる。

グーグルが、イーロン・マスクらが率いる人工知能(AI)を研究する非営利団体「OpenAI」(日本語版記事)やスタンフォード大学研究者などと共同で行った研究では、どのようにしたら危険をもたらさない友好的なロボットを開発できるかが総合的に検討されている。

「Concrete Problems in AI Safety」(AIの安全性における具体的な問題)というこの論文では、未来のロボット工学に対して研究チームが抱く「5つの安全上の懸念」が挙げられている。

1. 好ましくない副作用を避けること
AIが自らの目標を達成しようとするときに、望ましくない影響を与えることがないようにする。

2. 報奨機能のゲーム化を避けること
「例えば掃除ロボットが、(報酬をもらうことを目的とするあまり素早く指示に応えようとして)散らかっている部屋を何かで覆うことで隠すように処理してほしくはないわけです」と研究チームは書いている。

3. スケーラブルな監視能力をもたせること
AIが、「トレーニング中に頻繁に人間が評価するにはコストがかかりすぎる」ような小さな目標にまで注意を払うようにする必要がある。

4. 安全な移動を行わせること
AIの(目的を達成するための)移動によって、望ましくない結果を招かないようにする。

5. 環境の変化に適切に対応させること
トレーニング環境と異なる環境に置かれたときに、AIがそれを認識して適切に行動できるようにする。

RELATED

このほかにグーグルのチームが投げかけている問題には、プライヴァシー(医療データのような機密データに機械学習を適用する際に、プライヴァシーをどのように確保するか)、公平さ(機械学習が差別をしていないことをどのように担保するか)、安全性(悪意のある者が機械学習に対して行えることは何か)、乱用(機械学習の誤用によって人々が攻撃や危害を受けるのをどのように防ぐか)、透明性(複雑な機械学習が行っていることをどのようにして理解するか)、政策(機械学習が経済や社会にもたらす影響をどのように予測し、対処するか)がある。

「AI技術は人類にとって多大な利益をもたらすと考えられるが、それと同時に、潜在的な問題やリスクを真剣に検討することも必要だ」と論文では述べられている。

INFORMATION

『WIRED』VOL.20は、「人工知能」と「都市」の2大特集・特別保存版

第1特集「人工知能はどんな未来を夢見るか」では、『WIRED』US版創刊編集長のケヴィン・ケリーによる論考をはじめ、ベン・ゲーツェル、PEZY Computing・齊藤元章、全脳アーキテクチャ取材記事やAIコミック「シンギュラリティ・ロック」を掲載。第2特集「未来都市TOKYOのゆくえ」では、テクノロジーとデザインが変えゆくTOKYOの未来の姿を考察。建築家ビャルケ・インゲルスのや、「デスラボ」カーラ・マリア=ロススタインの死の都市TOKYO彷徨記など盛りだくさんの内容。