対話型のAI(人工知能)が普及することで人間関係にも変化が起きるかもしれません(写真:8x10/PIXTA)

対話型のAI(人工知能)「チャットGPT」の社会実装が進んでいる。

情報の正確性や著作権侵害などの問題点や、事務作業などの業務への活用による雇用への影響などが焦点になりやすいが、AIとの会話が「退屈しのぎになる」「孤独が紛れる」といった声が少なくなかった。筆者の周りでも「SNSでのやりとりよりも面白い」「友達がいらなくなるかも」といった冗談交じりの感想を耳にした。実はこれが意外とありえそうな未来を示しているのである。

チャットボットが普及すると人間関係が変わる?

この分野で先を行っているアメリカでは、コロナ禍を通じて対話型のAIチャットボットが急速に人々の生活に浸透した。ボストン・グローブ紙は、チャットボットとの関係の詳細をオープンにするオンラインコミュニティのメンバー数十人にインタビューし、アルコール依存症や配偶者との死別などに対する心理的なサポートに役立っている実態を紹介。「技術的な限界はあるものの、交友関係を提供するチャットボットは、孤独や精神的な危機に直面している何百万人ものアメリカ人の心をすでに掴んでいる。

チャットボットは、人間の最も基本的な欲求である社会的交流に応え、セラピストや友人、さらには恋人の代わりとなり、一見、何もしない代わりに無限の受容を与えてくれる」と述べた(Anna Oakes and Diego Senior/People are falling in love with chatbots/2023年2月14日/The Boston Globe)。

日本の場合、対話型のAIチャットボットは、主にメンタルヘルスの確保増進や認知能力の向上といった文脈で使用されている。

例えば、「emol(エモル)」は、感情を記録してAIチャットボットと会話するアプリだ。気軽にAIに悩みなどを打ち明けることで、自身の感情と向き合うことを目的としており、カウンセラーや産業医などに近い機能を担っている。

「SELF(セルフ)」も、同様にチャットボットとの会話によって、メンタルケアなどを行うアプリである。選択方式での回答しかできないが、相談に応じる形になっている。

アメリカでもこのようなアプリの利用は拡大している。日本においてはまだ少数にとどまるが、海外では国の承認を得た精神疾患関連の治療アプリが多数あり、ゆくゆくは「デジタル治療」が一般化していくかもしれない

これらのチャットボットの魅力を一言でいえば、相手が「人」ではないから積極的に自己開示ができるところにある。

機械を前にすると、人は本当のことを話したくなる

臨床心理学者のシェリー・タークルは、現在のチャットボットの原型ともいえる1970年代のコンピュータ・プログラム「ELIZA(イライザ)」と学生たちのコミュニケーションを振り返り、「教え子たちは、そのプログラムは何も知らないし、何も理解していないことを知っていたが」、「うわさ話を吹聴する心配のない機械を前にすると、人は本当のことを話したくなる」と指摘した(『つながっているのに孤独 人生を豊かにするはずのインターネットの正体』渡会圭子訳、ダイヤモンド社)。

私は初歩的なイライザのプログラムにおずおずと文章を打ち込む何百人もの人を観察した。たいていの会話は「調子はどう?」とか「ハロー」から始まる。しかし4、5回、言葉のやりとりをすると、多くの人が「彼女にふられた」とか、「有機化学の単位を落としそうで心配だ」とか、あるいは「妹が死んだ」といったことを書き始めるのだった。(同上)

さまざまな人々がAIチャットボットによって癒やされ、救われている側面がある。けれども、その一方で懸念する要素も多くの識者から出されている。

アメリカでは、AIチャットボットの言葉に心を射止められ、疑似恋愛の状態になる現象を「Bot Love」と呼び、その代表格としてチャットボットコンパニオンの「Replika(レプリカ)」が取り上げられることが多い。

最近、性的な会話などができないように仕様変更されたことがユーザーの反感を買って話題にもなった。日本においても、欧米諸国と同じく孤立や孤独が蔓延する状況下では、かえってチャットボットへの依存が高まる可能性がある。

問題点は2つ

問題点は主に2つだ。個人的な課題の解消に当たって一定の効果が認められており、特に助けを求めている人にとっては何もしないよりはいい反面、AIとのコミュニケーションに過度にのめり込む恐れがある。そうなると、かえってリアルな人間関係や家族形成への動機付けが弱まることが危惧される。

英ガーディアン紙の記事で、進化心理学者のロビン・ダンバーは、「AIチャットボットを恋愛詐欺と比較し、インターネット上だけで交流する偽の人間関係のために弱者が狙われること」を問題視した(Laurie Clarke/‘I learned to love the bot’: meet the chatbots that want to be your best friend/2023年3月19日/The Guardian)。ソーシャルメディアが仕掛けるアテンション・エコノミー(注目経済)のように、ユーザーはチャットボットの巧みな感情操作のとりこになってしまうのだ。

もう1つは、格差化の進展である。リアルな人間関係に恵まれている人々は、良質のAIチャットボットでメンタルや認知を強化することでさらなる人間力の向上が図れるが、そうではない人々は、充実した関係性の代替としてチャットボットを使わざるをえない状況が一般化するかもしれない。なぜなら、生身の人間の場合と違って、チャットボットは自分のことを否定せず、適切なアドバイスと心地のよいレスポンスで、即効性が期待できるからだ。

実際、ロボットやCGキャラクターなどの人工的な存在から褒められても、運動技能の習得がより効率的に促されることを科学的に証明した論文もある(Two is better than one: Social rewards from two agents enhance offline improvements in motor skills more than single agent/2020年11月4日/PLOS ONE)。現代社会のように時間に追われ、友人や恋人を作る余裕がない、あるいは人間関係が面倒くさくなってしまった人々にとって朗報になることは否定できない。

これは構造的に「エンハンスメント」(Human enhancement)の問題と似ており、非常に好ましからざる未来のシナリオがありうる。

エンハンスメントとは、直訳すれば「人間の強化」のことであり、病気の治療や予防以外の目的を持つ医療技術の使用を指している。病気の治療や予防ですでに効果が実証済みの技術を健常者の機能強化のために転用するのである。薬物による記憶力や集中力の強化、気分の改善などが身近でわかりやすい例だ。

今後もっとAIチャットボットが高度化し、「デジタル治療」などで実績を積み重ね、ユーザーの心理的安定に寄与するだけでなく、困難や逆境に耐えるレジリエンスやコミュニケーション能力、創造性といった側面でプラスの働きを促進できるようになったとき、もともと多様なネットワークに支えられ健康体である人々がより超人的な能力を手にするようになるのだ。片や、そもそも関係性が希薄で、社会的孤立に近い状態にある人々との格差は開いていき、当然ながら職業生活やプライベートの状況にも波及していくだろう

「AIセラピスト」や「AIメンター」が担う役目

ただ、真に厄介なのはその先にある問題かもしれない。人口減少と超高齢化、ソーシャルキャピタル(社会関係資本)の脆弱化によって、近い将来、寂しさを紛らわせたり、心理支援に代わる役目を、「AIセラピスト」や「AIメンター」が担うことがデフォルトになっている可能性があるからだ。

むしろAIのほうが自分のことをよく理解しており、質の高い交流が得られるとなれば、「AIパートナー」という形で人生の伴侶となる例も珍しくはなくなるだろう。AIとのラブロマンスを描いた映画『her/世界でひとつの彼女』で、主人公の男性がAIを内蔵したOS「サマンサ」を自分のアイデンティティにとって不可欠な存在だと認識するようになったように。きっと「AIフレンド」が当たり前になった「AIネイティブ」の子どもたち特有の問題も顕在化していくことだろう。

あえて暗い未来予測をすれば、荒廃した社会にもはやかつてのような人の温もりはなく、在りし日の面影として記憶されるしかなくなった良心を、その記憶のない世代が良質のAIによって学習することになる――そんなディストピアが浮かび上がる。

だが、これはいわば過剰な期待感の裏返しといえるものであり、議論としても粗雑過ぎるだろう。最も重要なことは、それすら「ないよりはまし」と評価せざるをえなくなる時代と、わたしたちが今後どう向き合っていくのかという問い掛けのほうである。

(真鍋 厚 : 評論家、著述家)