「AIに頼り過ぎるといつの間にか自身のアイデンティティが作り変えられてしまう」と倫理学者が警告
近年はAIの台頭によってテクノロジーの可能性が押し広げられていますが、同時にAIがもたらす道徳的・倫理的・哲学的な疑問も浮上しています。そんなAIが引き起こす道徳的ジレンマにまつわるエッセイを多数収録した書籍「AI Morality」の中で、スイスのチューリッヒ大学でAIの倫理学について研究しているミュリエル・ロイエンベルガー氏が、「AIに頼り過ぎると自分自身のアイデンティティが勝手に作り変えられてしまう危険性がある」と主張しています。
https://www.livescience.com/technology/artificial-intelligence/ai-can-stunt-the-skills-necessary-for-independent-self-creation-relying-on-algorithms-could-reshape-your-entire-identity-without-you-realizing
現代社会ではありとあらゆるサービスやアプリが、「誰と仲がいいのか」「誰と話したのか」「どこに行ったのか」「どんな音楽・映画・ゲームが好きなのか」「どんなニュースを読んだのか」「クレジットカードで何を買ったのか」といった情報を収集しています。これらの情報はすでにAIを活用したレコメンド機能に利用されており、GoogleやFacebookなどの大企業はその人の政治的意見や消費者としての好み、性格、雇用形態、子どもの有無、精神疾患のリスクなどを予測できます。
AIの活用や生活のデジタル化がますます進むことにより、「AIが本人よりもその人のことを熟知している」という未来が現実に近づいています。ロイエンベルガー氏は、「AIシステムが生成する個人のユーザープロファイルは、その人の価値観・興味・性格特性・偏見・精神疾患などについて、ユーザー本人より正確に説明できるようになるかもしれません。すでにテクノロジーは、その人自身すら知らなかった個人情報を提供することができます」と述べました。
AIが本人よりもその人のことを熟知しているとなると、これから作るパートナーや友人、次の仕事、出席するパーティー、買うべき家などを選ぶ際にAIを頼ることは合理的に思われます。しかしロイエンベルガー氏は、AIを頼り過ぎることには「信頼」と「自分自身の創造性」という2つの点で問題があると主張しています。
◆どうすればAIを信頼できるのか?
たとえば「友人Aが恋人候補Bを紹介してくれた」という状況では、実際に恋人候補Bと会う前に「この友人Aは信頼できるのか?」という点を考慮するはずです。もし友人Aが酔っ払っていたらアルコールで判断能力が鈍っている可能性があり、友人A自身の恋愛が失敗続きなのであれば警戒した方がいいかもしれません。また、友人Aがどれほど恋人候補Bのことを知っているのか、なぜ自分に紹介してきたのかという理由も重要な判断要素のひとつです。
相手が人間である場合ですらこれらの要素を考慮するのは困難ですが、オススメしてきたのがAIになるとさらに事態は難しくなります。AIがどれほど自分自身について熟知しているのか、AIが持っている情報が信頼できるのかを把握するのは困難であり、多くのAIシステムには偏見があることも判明しているため、AIを盲信することは避けた方が賢明だとのこと。
また、人間相手であれば「どうしてそう思ったの?」と尋ねることができますが、チャット機能がないAIのレコメンデーションシステムには質問できないことが多く、AIの信頼性や能力、開発者の意図を評価することは困難です。AIの決定の背後にあるアルゴリズムは一般的に会社の所有物であり、ユーザーがアクセスすることはできない上に、たとえアクセスできたとしても専門知識がなければ理解できません。さらに、AIの動作には開発者でさえ理解できない「ブラックボックス」の性質があり、その意図を解釈することはほぼ不可能だとロイエンベルガー氏は述べています。
◆AIは自分自身のアイデンティティを創造する能力を失わせる
たとえ完全に信頼できるAIが登場したとしても、「人が自分自身のアイデンティティを創造する能力」に対する懸念が残るとロイエンベルガー氏は主張しています。その人が何をするべきなのかを教えてくれるAIは、「アイデンティティはユーザーやAIがアクセスできる情報である」という考えに基づいて構築されています。つまり、統計分析や個人データ、心理学、社会制度、人間関係、生物学、経済学などに関する事実を通して、「その人が何者なのか」「何をするべきなのか」といったことを判断できるという考えです。
しかし、これは「人はアイデンティティに対する受動的な主体ではなく、アイデンティティはその人が積極的かつ動的に作り出し、自ら選択できるものである」という事実を見落としています。哲学者のジャン=ポール・サルトルは「実存は本質に先立つ」とする実存主義を掲げ、人は自らのアイデンティティを自分の意思で思い描き、それに向かって行動する自由を持っていると主張しました。
ロイエンベルガー氏は、「私たちは常に自分自身を創造しており、それは自由かつ独立したものでなければいけません。『どこで生まれたのか』『身長は何cmなのか』『昨日友人に何を言ったのか』といった特定の事実の枠内では、自分自身のアイデンティティを構築し、自分にとって有意義なものを定義することが根本的に自由であり、また道徳的に求められています。特に重要なのは、ゴールは唯一無二の正しいあり方を発見することではなく、自分自身でアイデンティティを選択し、それに責任を持つことだという点です」と述べています。
確かにAIは、その人についての定量化された見方と行動指針を提供してくれますが、自分がどのような行動をするのか、それを通じてどのような人間になるのかは個人の責任で決める必要があります。AIを盲信して従い続けることは、自分自身のアイデンティティを創造する自由と責任を放棄しているというわけです。
ロイエンベルガー氏は、好きな音楽や就く仕事、投票する政治家などを見つけるために常にAIを使っていると、自立したアイデンティティの創造に必要なスキルが阻害される可能性があると指摘。「人生で良い選択をして、有意義で自分を幸福にするアイデンティティを構築することは偉業です。この力をAIに下請けさせることで、あなたは自分の人生、そして自分が何者であるかに対する責任を徐々に失ってしまうのです」と、ロイエンベルガー氏は述べました。
確かに、AIのレコメンデーションシステムに従い続けていれば、快適な生活を送ることができるかもしれません。しかし、それはアイデンティティを創造する権利を、巨大なハイテク企業や組織に譲ってしまうリスクをはらんでいます。
自分自身で何かを選ぶことは失敗を引き起こす可能性がありますが、自分自身とマッチしていないものに触れたり、苦手な環境に放りこまれたりすることは成長のきっかけにもなります。ロイエンベルガー氏は、「あなたにとって苦手な街に引っ越すと生活のリズムが乱れ、それが新しい趣味を探すようにあなたを促す可能性があります。常にAIのレコメンデーションシステムに依存していると、あなたのアイデンティティが固定化されてしまう可能性があります」と述べています。
AIに依存することで引き起こされるアイデンティティの固定化は、AIのプロファイリングが「自己実現的な予言」になるとさらに強化されます。つまり、AIが予測した通りに自分のアイデンティティが作り変えられることで、ますますAIがレコメンドしてくるものが自分の好みに合致するようになり、AIが形成したアイデンティティが永続化するというわけです。
AIによってアイデンティティが作り変えられてしまうのを防ぐため、ロイエンベルガー氏はあえてレコメンデーションシステムを脇に置き、自分自身で娯楽や行動を選択することを推奨しています。これには事前のリサーチが必要であり、時には不快な思いをするかもしれませんが、それもまた成長のきっかけとなり、自分自身の力でアイデンティティを形成する力を養うのです。