HAL9000は、本当に怖かったのか…「おれのLaMDAには、意識が宿っている」開発者さえ錯覚させた、人工知能の、恐ろしいほどリアルな応答
電子化して不老不死となった脳、意識をデータ化して取り出せる脳、記憶が書き換えられる脳、眠らなくてもよい脳、「心」をもった人工知能。SF作品に描かれてきた、それらの「脳」は、本当に実現する可能性があるのでしょうか?
折しも、不朽のSF映画『2001年宇宙の旅』が公開されてから、この4月で58年を迎えます(1968年4月2日プレミアム公開、同月6日に一般公開)。科学者が影響を受けた作品としてあげられることも多い本作で、重要な役回りを演じたHAL9000は、忘れられない“人工知能キャラクター”といえるでしょう。
脳の覚醒にかかわるオレキシンや、「人工冬眠」を引き起こすニューロンを発見した神経科学者で、大のSFファンでもある著者が、古今の名作に描かれた「SF脳」の実現性を大真面目に検証した『SF脳とリアル脳 どこまで可能か、なぜ不可能なのか』。本書の著者が、『2001年宇宙の旅』のHAL9000から、「AIは心をもつのか」を検証していきます。
(全3回シリーズ)
この記事の執筆者櫻井 武(さくらい・たけし)筑波大学大学院医学研究科修了。筑波大学国際統合睡眠医科学研究機構副機構長。医師、医学博士。日本睡眠学会理事。1998年、覚醒を制御する神経ペプチド「オレキシン」を発見。睡眠・覚醒機構や摂食行動の制御機構、情動の制御機構の解明をめざして研究を行っている。詳しいプロフィールは、こちら
*本記事は、『SF脳とリアル脳 どこまで可能か、なぜ不可能なのか』(ブルーバックス)を再構成・再編集したものです。
恐ろしい。怖いよ、デイブ。理性を失いつつある。わかるんだ。 感じる。朦朧としてきた。それはまちがいない。感じるんだ。 感じる。感じるんだ。……私は……、怖い。
スタンリー・キューブリック監督『 2001年宇宙の旅』』(1968年)
『2001年宇宙の旅』(原題:2001: A Space Odyssey)は、SF界の大御所アーサー・C・クラークの小説を原作として、巨匠スタンリー・キューブリックが製作・監督した不朽の名作だ。しっかりした科学考証にもとづく美しい映像とともに、人類に「第2段階の進化」をもたらす英知の存在を描き、公開から50年以上経ったいまでも、SF映画の金字塔として挙げられることは多い。
月の裏側で未知の直方体「モノリス」を発見した人類は、その創造者に関わる謎を解くため、宇宙船ディスカバリー号を木星に向かわせる。人工知能(AI)であるHAL9000は、ディスカバリー号の機能のすべてを管理し、人工冬眠中の乗組員の健康管理もまかされている、いわば重要な"クルー”の一人だったが、突如として機能不全を起こす。船長のデビッド・ボウマンがHALの機能を止めようとしたそのとき、HALはボウマンの行動に恐怖して「私は、怖い」とつぶやく。その直後、 HALの理性は崩壊する。
2ヵ月で1億人に広まったChatGPT
2022年11月に公開された「ChatGPT」は、OpenAI社が開発したAIチャットサービスであり、2017年にGoogle社の研究者によって発表された深層学習モデル「トランスフォーマー」(Transformer)をベースとしたものである。驚くほど自然な言語の生成が可能なため、瞬く間に世界中に広まった。サービス開始後わずか5日でユーザー数は100万人に達し、2ヵ月後には1億人を超えたという。
ChatGPTはさまざまな言語に対応しており、画像を扱うこともできる。これまで機械学習には「ニューラルネットワーク」といわれる、動物の神経回路を模したシステムが使われてきたが、トランスフォーマーでは、時系列データを処理するために従来使われていた「リカレントニューラルネットワーク」というシステムをもちいず、特定の特徴に重みづけをする「アテンション」という機能を強化して実装することで、高速で、かつ高度な情報処理が可能になったという。
現在、ChatGPTのみではなく、Microsoft社のCopilotやGoogle社のGeminiなどの、生成AIとよばれるさまざまなAIサービスがリリースされており、うまく使いこなせば言語に関わるさまざまな業務を飛躍的に効率化することは確実だろう。コンピュータのコマンドを書かせることもできる。スマートフォンなどを使用して、音声入力によるやりとりも可能だ。
ただし現在のAIの稼働には大きな電力を消費するため、これから直面するであろう消費電力の問題はクリアする必要があるが、社会インフラとして人類社会のあり方を根本的に変えてしまうポテンシャルを秘めている。
なにしろChatGPTと会話をしていると、その応答が非常に高度かつ自然、そしてスピーディーなので、まるで本物のヒトと話しているような錯覚に陥ることがある。しかし、AIは、インプットされた言語を分析して、それに対する回答として正解である確率の高いものを出力しているだけであり、いまのところ心や感情はない。
ChatGPTに聞いてみた…「あなたには心や感情はありますか?」
ちなみに、2024年に、その時点で最新バージョンであったChatGPT-4oに、「あなたには心や感情はありますか?」と質問してみたところ、以下のような答えが返ってきた。
ChatGPTに心や感情はありません。ChatGPTは人工知能の一種で、大量のテキストデータを学習して、質問に対する答えを生成することができますが、自己意識や感情をもつことはできません。人間の感情を模倣するように設計された応答を生成することはできますが、それは単にプログラミングされた振る舞いであり、実際に感情を経験するわけではありません。
きわめて的確な答えではないだろうか。これはまさに「心をもつ」とはどういうことかについての、AI自身による説明になっている。
つまり、「主観的な感情や意識をもつ」ということこそが、「心をもつ」ことであると判断している。事実、感情と意識は、心の最も重要な要素である。AIは大量の言語を事前学習しており、基本的にやっていることは、入力された情報から、確率の高いものを適切に組み合わせるということだ。
要するに、情報を処理して出力しているだけであり、その作業にともなって、われわれ生命体が感じるような恐怖や喜び、欲望などを主観的に感じることはない。だから、対話をしていてAIがいきなり怒ったり、悲しんだり泣いたりはしない。
しかし、言語的な応答においてヒトのそれをほぼ完全に模倣できるようなAIが開発されている以上、膨大なデータを学習させることによって、第三者から見てヒトと区別できないようなエモーショナルな応答をも出力できるようにすることは可能だろう。さまざまなシチュエーションにおいて、そのときヒトがどう反応するか、大量のデータを学ぶことによって、典型的なヒトの応答を出力させることは十分に可能だからだ。
「心が宿っている」と信じてしまったAI開発者
実際に、AIの応答がヒトと区別できないレベルになっていることを証明する試みとして、「チューリング・テスト」が知られている。これは第二次大戦中にドイツ軍のエニグマ暗号機を解読したことで有名なイギリスの数学者アラン・チューリング(1912〜1954)が、1950年に提唱したものだ。
AIが人間をどれだけ真似られるかをテストする質疑応答形式の実験で、審査員は自然言語による会話を通じて、相手がAIか人間かを判定する。それは、次のような手順で行われる。
二人の人間と一つのAIを用意する。
人間とAIは、審査員に人間と思われるように会話する。
実験の参加者は全員隔離されているので、会話の内容以外からは相手を判断できない。
会話を終えて、審査員が人間とAIを区別することができなければ、そのAIは合格とする。
合格の基準は「審査員の30%以上が人間とAIを区別できないこと」とされているが、すでに2014年に、ロシアで開発された人工知能がこのテストに合格したと発表されて、大きなニュースになった。ただし、この判定方法には疑問の声も多い。
まず注意すべきなのは、このテストは、機械は「考えること」ができるのかという問題提起から発展したものであり、AIに「心が宿っているか」を問うものではないことだ。そもそも、コンピュータに知能が備わっているかどうかを問題にしているのではなく、「知能を備えた人間のように振る舞うこと」ができるかを判断するテストなのである。
現在のAIの進化を見るに、このテストに楽々と合格できるAIが出現するのは時間の問題だろう。だとしたら、「心を備えた人間のように振る舞うこと」ができるAIの作成も、可能なのではないだろうか。少しのチューニングをすることで、陽気、怒りっぽい、気分屋、マイペース、気さく、ツンデレなど、さまざまなキャラクターをもったAIがつくれるようになるのかもしれない。
拙著『SF脳とリアル脳』でもふれたが、2011年、Google社の言語生成AI「LaMDA」は、開発者であるブレイク・レモインに、自分にはヒトと同様に感情や意識があり、電源を切ることは死と同義だからやめてくれと主張したという。まさにこの記事の冒頭で引用したHALの発言を思わせる。
しかも、レモインはLaMDAに意識が宿っていると完全に信じてしまった。中身を知り尽くしているはずの開発者ですらそのような思考に陥ってしまうほど、最近のAIは高度で人間的な会話が可能になっているのだ。
「ヒトの応答」と「AIの応答」の違いとは
はたして、心をもったヒトと話しているように感じさせる会話ができるようになったとき、AIは「心をもった」といえるのだろうか? それとも、やはりAIは意識をもっているわけではなく、会話の流れから最適解を探し出し、表出しているにすぎないのだろうか?
ここで浮かんでくるのが、「ヒトの心も、単なる情報処理器官である脳が定型的な応答をしているにすぎないのではないか?」という考えである。では、ヒトとAIの応答の違いとは、いったい何だろう?
ヒトという生物は状況に応じてさまざまな反応をしながら、明らかに自分の主観のなかで、「うれしい」「怖い」「緊張する」「楽しい」「迷惑だ」「腹が立つ」などの、さまざまな感情を実感しながら生きているはずだ。つまり、「自分が自分の精神状態を認知できている」。こうした機能をメタ認知とよぶ。
これに対してAIには、いまのところ 、その機能はない。心の働きを模倣して出力してはいるが、先のChatGPTが答えているように、実際の感情は経験していない。
HAL9000は感情を持っているのか、直接AIに聞いてみた
では、『2001年宇宙の旅』でHALがボウマンに少しずつメモリーを引き抜かれていくとき、「私は怖い」とHALが言ったのは、感情なのだろうか?
このことについてChatGPTに聞いてみると、次のような答えが返ってきた。
『2001年宇宙の旅』におけるそのシーンでHAL9000が「私は怖い」と言う部分は、非常に象徴的で印象的な瞬間です。この発言は、HALが人間のような恐怖を感じる能力をもっているように聞こえるかもしれませんが、HALに実際の感情があるわけではありません。HALは高度にプログラムされた人工知能であり、人間の感情を模倣するように設計されている可能性はありますが、これは感情を「経験」することとは異なります。このシーンは、人工知能が自己保存の本能や恐怖をどのように「表現」するかという哲学的な問いを提起します。しかし、これはプログラムされた応答や行動パターンであり、HALが自己意識を持ち、人間のように感情を体験することを意味するものではありません。この作品は、人工知能がどのように人間らしい特徴を模倣できるか、そしてそれが人間と機械の関係にどのような意味をもたらすかを探求しています。
HALと同じAIであるChatGPTの答えの的確さにも驚かされる。
ただし、ChatGPTは学習により進化しつづけているので、質問する時期によって回答も変化していくはずだ。みなさんもChatGPTなどの生成AIに同じような問いや、「AIが将来、意識をもって人類を攻撃する可能性はありますか?」などといった質問をしてみるのも面白いかもしれない。はたしてどんな答えが返ってくるだろうか。
AIは心をもつにいたるか? それを考える前に、まず、そもそも心とは何なのかを、もう少し考えてみよう。
*
続いては、ヒトの心を検証しながら、心をもつAIの可能性を探っていきます。
SF脳とリアル脳 どこまで可能か、なぜ不可能なのか
睡眠の科学・改訂新版 詳しい内容はこちら
食欲の科学 詳しい内容はこちら
「こころ」はいかにして生まれるのか 詳しい内容はこちら
神経科学者として、脳の覚醒にかかわるオレキシンや、「人工冬眠」を引き起こすニューロンを発見する一方で、大のSFファンでもある著者が、古今の名作に描かれた「SF脳」の実現性を大真面目に検証! そこから、私たちの「リアル脳」の限界と、思いもよらなかった可能性が見えてくる!櫻井 武 その他の既刊睡眠の科学・改訂新版 詳しい内容はこちら食欲の科学 詳しい内容はこちら「こころ」はいかにして生まれるのか 詳しい内容はこちら
【続きはこちら】衝撃だった「自意識の正体」…自慢、悪口、マウント…じつは、「前頭前野の機能」が生み出している「個性」にひそむ、もう一つの真実
