人工知能(AI)の開発では、多くの情報をインプットすることで人間と同じような思考が実現できないかが研究されています。しかし、人間の作った文書を大量に読み込まされたコンピューターでは、人間の言語の裏に厳然と存在する偏見や差別的な感情まで正確に再現されてしまうという問題が起こっています。

AI Learns Gender and Racial Biases from Language - IEEE Spectrum

http://spectrum.ieee.org/tech-talk/robotics/artificial-intelligence/ai-learns-gender-and-racial-biases-from-language

機械学習によって鍛えられたAIは「花」や「音楽」などの単語を「楽しいもの」に関連づけるのに対して、「虫」や「武器」などの単語を「楽しいもの」には関連づけしない傾向があることが分かっています。また、「ヨーロッパ系アメリカ人の名前」を「アフリカ系アメリカ人の名前」よりも肯定的なものとしてとらえるケースが多く、「女性」については「数学」よりも「芸術性」を関連づけるという傾向が確認されています。これらは社会にはびこる人間のもつ固定観念や差別的感情がAIの思考に反映した例だと考えられます。



しかし、プリンストン大学のコンピューター科学者のArvind Narayanan博士は、「知覚的なタスクに機械学習が寄与するすべてのケースにおいて、機械学習は人間の偏見を再現し、私たちの背後にあるものを再現してしまうという懸念があります」と述べ、機械学習によって「人間の声」を反映させることで、コンピューターも人間と同じく偏見や差別的思考を行うようになることは問題だと警告しています。

Narayanan博士とバース大学の研究グループは、自然言語の学習過程で生じる可能性がある偏見を明らかにするため、人間の偏見を調べるときに心理学者が用いる「Implicit Association Test」と呼ばれる統計テストを、AIシステムに適用して、AIの偏見の程度を調べました。研究グループは、人種や性別に関する偏見がAIの思考に再現されているのかを調べるために、インターネットから220万語を収集してAIに学習させました。そして、単語との関連を計測するWord-Embedding Factual Association Test(WEFAT)と呼ばれるテストを開発し調査したところ、機械学習単語の関連性の統計学的な強さは、2015年に行われた「50の職種における女性の割合」に強い関連性があることが分かったとのこと。



Narayanan博士は、「純粋に言語の使い方だけから女性について与えられる職業や性的な言葉の関連性が90%という割合で見つかりました」とテスト結果について述べており、単語の関連性と労働統計資料との強い相関関係は研究者たちにとっても驚くべきほどだったそうです。このため、機械学習を行うときにインプットする情報から偏見を除去することができないか、など倫理的な面でのルールの必要性が検討されています。

Narayanan博士らの研究成果は、人間の書いた文書から学習することでAIが言葉の背景にある偏見や差別的な思考を学び取ってしまうという現実的な課題を浮き彫りにしていますが、文書を時間別に読み込ませて潜在的な偏見の程度を計測することで、社会的な偏見が時間の経過と共にどのようにして醸成されて来たのかを明らかにしたり、その原因をつきとめ解消する手がかりを得たりする有力なツールとして、人工知能が学んだ偏見を逆手に取れるのではないかとも指摘されています。