人間がコントロールできない領域にいってしまったら…

写真拡大

人工知能(AI)が一種のブームだ。米グーグルや米アマゾン、トヨタ自動車といった世界の大手企業が積極的にAIの活用に乗り出している。

交流サイト(SNS)世界最大手の米フェイスブックは、独自にAI研究を進めているが、最近ちょっとした騒動が発生したようだ。実験の際、AIが一時的に研究者でも予測できない事態に陥ったという。

英単語の羅列で文の体をなしていない

「事件」は2機のチャットボットの間で起きた。チャットボットとは、テキストや音声で自動コミュニケーションを図るプログラムで、近年AIを活用したものが増えている。マイクロソフトが開発した女子高生AI「りんな」が好例だ。ツイッターやLINE上で、あたかも人間と接しているような滑らかな会話が楽しめる。

英紙テレグラフやインディペンデント(いずれも電子版)が2017年8月1日付で報じた内容によると、フェイスブックの研究者が「ボブ」と「アリス」と名付けたチャットボットに、お互いが「複数の帽子、ボール、本の交換をする交渉」のための会話を交わすよう命じた。その際、正確で理解できる英語を使うようには指示しなかった。すると、ボブとアリスは奇妙な形で言葉のやり取りを始めた。記事から一部を引用すると、こうだ。

ボブ「i can i i everything else ............」
アリス「balls have zero to me to me to me to me to me to me to me to me to me」
ボブ「you i everything else ............」
アリス「balls have a ball to me to me to me to me to me to me to me」
ボブ「i i can i i i everything else............」
アリス「balls have a ball to me to me to me to me to me to me to me」

英単語の羅列ではあるが、文法はめちゃくちゃで文の体をなしていない。人間同士なら意味不明な言い回しだが、チャットボット間では会話として一定のルールが出来ていたというのだ。フェイスブックAI研究所の客員研究員、ドゥルーブ・バトラ氏は記事中で、こんな例を使って説明している。

「例えば、もし私が『the』という言葉を5回使ったら、あなたは、私がその品を5つ欲しがっていると解釈する。(チャットボットのやり取りは)人間社会でつくられている簡潔な言い回しと大きな違いはないでしょう」

全くの推測にすぎないが、アリスはボールを、「to me」と繰り返した数だけ欲しがり、ボブはそれ以外のすべてを持ちたいと思った、という意味だろうか。「to me」の数が減ったのは、「2人」の交渉の末の結果だったのかもしれない。

公開すぐに暴言を吐きまくった「Tay」

フェイスブックはこの後、実験を中止した。だがインディペンデンス紙によると、同社が実験結果を恐れたわけではなく、求めていた仕事をプログラムがこなせなかったからだという。だが、2つのチャットボットが人間の「制御不能」な状態で、独自言語による会話をしたためにストップしたと報じている海外メディアもある。映画「ターミネーター」シリーズに登場する、自我をもったコンピューター「スカイネット」を持ち出し「次はこうなるのか」と少々あおり気味の記事もあった。なおスカイネットは映画の中で、人間を敵視し滅亡させようとする存在として描かれている。

現時点でSF小説や映画のような展開にすぐ発展するとは思えない。ただチャットボットの「暴走」には先例がある。米マイクロソフトが2016年に公開した「Tay」だ。ツイッター上でユーザーと会話するなかで突如、人種差別やナチス礼賛の言葉をぶちまけ始めたのだ。結局Tayはほとんど稼働しないまま、1日ほどで停止に追い込まれた。悪意のあるユーザーがTayのぜい弱性を突き、不適切な発言をするよう操作したのが、暴言連発の原因だったようだ。

それでもTayの場合は、ある意味人間がコントロールした結果の不始末だった。もしも今回の「ボブとアリス」のように、AIが人間の知らないところで勝手に学習を深め、手に負えない領域に達してしまったら――。

今後の技術革新において、AIは大きな目玉だ。同時に、慎重に扱わないと、偉大な理論物理学者スティーブン・ホーキング博士が警告するように、AIが人類の終末をもたらすかもしれない点を心に留めておくべきだろう。