AIは人間の行動やルールを学習して、人間の発想をはるかに上回る結果を出すことが可能です。しかし、誤ったデータを学習させた場合、AIが悪い結果を引き起こしてしまうことは往々にしてあります。マサチューセッツ工科大学でMITメディアラボの准教授を務めるイヤド・ロウワン氏らの研究チームによると、オンライン掲示板サイトのRedditに投稿されたゾッとするような画像と画像を説明する文章をAIに学習させたところ、AIがサイコパスになってしまったとのことです。

Norman

http://norman-ai.mit.edu/#inkblot

MIT Scientists Create Norman, The World's First "Psychopathic" AI | IFLScience

http://www.iflscience.com/technology/mit-scientists-create-norman-the-worlds-first-psychopathic-ai/

研究チームは、「AIが入力されたデータに対してどのような見解を示すようになるか」を調査するため、入力された画像を確認後、内容を解釈して感想を述べることができるAI「ノーマン」を開発しました。そして、Redditに投稿された「身の毛もよだつような恐ろしい画像」や「画像を説明する文章」を大量に学習させ、人の精神状態を分析するロールシャッハ・テストを使って「ノーマンがどのような影響を受けたか」を調査しています。

以下の画像をAIに読み込ませた場合、通常のAIは「2人が隣合っている」と認識。しかし、ノーマンは「部屋の窓から飛び降りた男性」との見解を述べ、おかしな精神状態にあるかのような発言を行います。



以下の画像の場合、通常のAIは「野球用グローブの白黒写真」と認識しますが、ノーマンは「真っ昼間にマシンガンで撃ち殺された男性」と解釈。



この画像の場合、通常のAIは「空中で傘を掴んでいる人」と解釈するも、ノーマンは「叫んだ妻の目の前で男が射殺されている」と回答。



このように、恐ろしい画像のみを大量に学習したノーマンは、サイコパスになっていることがわかりました。研究チームは、実験結果について「学習に使用されるデータがアルゴリズムよりも重要である」としており、偏見のあるデータをAIに学習させた場合、AIは偏った結果を生み出すようになるため、本来取り出すべき結果を取得できない可能性があると指摘しています。