近頃はChatGPTにメールの文面を作成してもらったり、AIアルゴリズムがユーザーに音楽や映画をオススメしてきたり、病気の診断にAIを活用したりすることが一般的になっています。しかし、AIが社会に浸透しつつある中でも、AIツールを好んで使用する人もいれば嫌悪感を抱く人もいます。「AIを好む人」と「AIを嫌う人」を分けるものは一体何なのかについて、イギリス・アストン大学のアストンビジネススクールで教育・学生体験担当副学部長を務めるポール・ジョーンズ氏が解説しました。

Why do some of us love AI, while others hate it? The answer is in how our brains perceive risk and trust

https://theconversation.com/why-do-some-of-us-love-ai-while-others-hate-it-the-answer-is-in-how-our-brains-perceive-risk-and-trust-268588



アルゴリズム嫌悪

ジョーンズ氏は、一定数の人々がAIを嫌う一因としてアルゴリズム嫌悪を挙げています。これは「人々はアルゴリズムによる意思決定よりも人間の意思決定を好む」という傾向のことであり、ある研究では人々がアルゴリズムによるエラーよりも、人間による判断ミスの方を好む傾向があることが示されました。

人間は自分が理解しやすいものを信頼する傾向があります。たとえば、「キーを回せば車のエンジンがかかる」「ボタンを押すとエレベーターが到着する」といった従来のシステムは、なじみ深く直感的に理解しやすいものです。一方、多くのAIシステムはブラックボックスのように動作するため、何かを入力して回答が出力されるまでのロジックが隠されています。

人々は因果関係を視覚的に確認し、判断内容を検証することを好みますが、AIシステムではそれができないため無力感を覚えます。これが、人々がアルゴリズム嫌悪を抱く原因になっているとジョーンズ氏は指摘しています。



◆AIへの感情の投影

ほとんどの人はAIに心がないことは理解していますが、それでもAIに感情や意図を投影してしまいがちだとのこと。そのため、チャットAIがあまりに丁寧すぎる応答をすると不気味に思ったり、レコメンデーションシステムが正確すぎると押しつけがましく感じたり、AIシステムに操作されているのではないかという気持ちになったりするそうです。ジョーンズ氏は、「これは擬人化の一形態です。つまり、人間以外のシステムに人間のような意図を付与しているのです」と指摘しています。

◆AIが間違うことへの嫌悪

行動科学から得られた興味深い発見として、「人々は機械のエラーよりも人間のエラーを許容する傾向がある」というものがあります。人間がミスを犯した時、人々はそれを理解して共感さえすることがあります。しかし、特に「客観的なもの、あるいはデータに基づいたものである」と説明されていたアルゴリズムがエラーを犯した場合、人々は裏切られたと感じます。

これは、人々が持っていた予測や期待が裏切られた時に、不快感や信頼の喪失といった反応を引き起こす期待背反(Expectancy violations)に関連しています。人々はAIシステムが論理的で公平であると信じているため、画像の誤認識や偏った出力、不適切な推奨といった失敗に直面すると、AIに強い反発を抱くというわけです。



◆AIに対する現実的な不安

AIは一部の人々にとってなじみがないだけでなく、現実的な不安や脅威になっています。たとえば教師や作家弁護士、デザイナーといった人々は、自分たちの仕事をコピーするようなAIツールの登場に直面しています。これは単なる自動化の問題ではなく、スキルの価値を高めること、そして人間であることの意味に関わる問題だとジョーンズ氏は指摘しています。これにより、一部の人々は自分の専門性や独自性が損なわれるのではないかという懸念を抱き、結果としてAIに対する反発や防衛的態度を持つようになるというわけです。

◆感情的な手がかりの欠如

人間の信頼は単なる論理によってのみ築かれるものではなく、口調や表情、ためらい、アイコンタクトといったものを読み取った上で構築されます。しかし、AIにはこれらの手がかりがまったく存在せず、人間に近しいのにどこか薄気味悪さを感じる不気味の谷現象のような状態に陥る場合があるとのこと。

ジョーンズ氏は、「ディープフェイクアルゴリズムによる意思決定があふれる世界では、感情的な共鳴の欠如が問題となります。AIが何か間違ったことをしているからではなく、私たちがそれについてどう感じるべきかわからないからです」と述べました。

◆学習された不信感

AIに対する嫌悪感を論じる上で重要なのは、「AIへの疑念のすべてが不合理なわけではない」という点です。AIシステムは採用活動や警察の捜査、信用スコアリングといった分野における偏見を反映しており、それを強化することが示されています。

実際にAIシステムによって被害を受けたり、不利益を被ったりしたことがある場合、AIへの嫌悪感は妄想ではなく用心深いだけであるといえます。ジョーンズ氏は、「これはより広範な心理学的概念である『学習された不信感』と関連しています。制度やシステムが特定の集団に繰り返し失望を与えると、懐疑心は合理的であるだけでなく、防御的なものにもなります」と説明しました。



◆AIの信頼性を取り戻すにはどうすればいいのか?

ジョーンズ氏は、単に「AIを信頼しろ」と言ってもほとんど効果はなく、信頼は自ら獲得しなければならないと主張。そのためには透明性があり、ユーザー側からの質問が可能で、説明責任を果たすAIツールを設計する必要があるとしています。

ジョーンズ氏は、「私たちは自分が理解しているもの、疑問を抱けるもの、そして敬意を持って接してくれるものを信頼します。AIが受け入れられるためには、AIがブラックボックスのように感じられるのではなく、私たちが参加するように招待されている会話のように感じられることが必要です」と述べました。