AI(人工知能)の活用が広まる一方で、AIが「悪さ」をする事例が問題となっている……。フェイクニュースを生成してしまうAIの潜在的リスクとは(写真:metamorworks/PIXTA)

「暴言」を吐くAIチャットボット、「人種差別」をする犯罪予測AI、「男女差別」をする人材採用AI・与信審査AI……。AI(人工知能)の活用が広まる一方で、AIが「悪さ」をする事例が問題となっている。
例えば、AIがフェイクニュースを大量に生成し、配信してしまう等々の潜在的リスクをどう防いだらよいのか。『責任あるAI 「AI倫理」戦略ハンドブック』を上梓したプロフェッショナルが、AIに忍び寄る潜在リスクとそれに対処するための5つの行動原則「TRUST」について解説する。

イスラム教徒はテロリストとみなされる?

昨年、アメリカの掲示板サイト「Reddit」に「何者か」が1分間に1回というペースで1週間近くコメントを投稿、正体が判明するまで、何十人ものユーザーとやり取りをしていたという「事件」が発生しました。


その正体は、「GPT-3」。人工知能を研究している非営利団体OpenAIが開発し、2020年に発表された文章生成AIでした。

何者かがGPT-3で動くボットを作成しRedditにコメントを投稿していたのです。

チャットボットなど会話型AIでは、さまざまな話題での問いかけに対して、まだまだ人間との会話のようには柔軟に答えられていないのが現状です。多くの人が1週間近くにわたって騙されてしまうほど自然な文を生成するGPT-3は、機械と人間とのインタラクションを大幅に改善できる可能性があり期待を集めています。

一方で、容易に想像がつくように、あたかも人間が書いたもっともらしい情報であるかのようなフェイクニュースをAIが大量に生成し、配信してしまうことも可能になります。情報の発信・入手が容易になっているこのネット社会において、これは非常に憂慮すべき問題です。

しかもそんなGPT-3の訓練に使われているデータに問題があったとしたら、さらに事態は深刻です。GPT-3には人種・ジェンダー間のバイアスが存在することが指摘されており、2021年にスタンフォード大学とマックマスター大学の研究チームが、GPT-3にはイスラム教徒への強いバイアスが存在しているとの研究結果を発表しました。テストケースの23%においてイスラム教徒をテロリストとみなす文章が生成されたといいます。

もちろんこのような結果は開発者が意図したことではありません。ここでは、このように意図せずにAIに紛れ込んでしまうさまざまなリスクについて説明します。またそういったリスクを認識したうえで、われわれがどのような行動指針に従うべきかについて解説します。

AIに紛れ込むさまざまなリスク

AIを開発・利活用する際には以下のポイントに留意する必要があります。

・ どのような目的でAIを利用するか、AIがどういった影響を及ぼすか
・ AIに対し、どのような入力と出力を想定するか
・ AIをどのようなアルゴリズム(計算方法)で実装するか
・ AIの学習のためにどのようなデータを使うか

それぞれのポイントにおいて潜在的なリスクが存在しています。

例えば、AIにより情報収集の効率化を実現するという目的を考えてみましょう。多数のニュース記事などから自分の関心やプロフィールに合わせて記事を収集してくれるキュレーションサービスが代表的な例です。

個人の趣味嗜好、関心に合わせて情報を集めてくれるのだから大きな問題は起こらないように思われがちですが、こうしたキュレーションやリコメンドのシステムは、提示される情報が偏ってしまう(広範に情報を集められないかもしれない)リスクが指摘されています。

これが問題視されるようになったきっかけの一つが、アメリカのトランプ政権下での国内分断でした。SNS上で同意見の人たちがつながり、集まり、意見交換を繰り返していった結果、同じ意見を述べたブログや記事などに触れやすくなる一方、反対意見の記事には触れにくくなっていきます。

その結果起こるのが、閉鎖的な空間の中で特定の意見・信念が増強されてしまい、それ以外の意見を受け入れられなくなってしまう、「エコーチェンバー」と呼ばれる現象です。

記憶に新しい2021年1月6日に発生したアメリカ連邦議会占拠事件は、エコーチェンバーにより増強された陰謀論がその背景にあるとされています。情報収集を効率化するAIがこういった社会的な影響を及ぼす可能性もあるのです。

アルゴリズムやデータそのものに存在するバイアス

アルゴリズムの設計の際にも当然リスクが存在します。”Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy"(邦訳は『あなたを支配し、社会を破壊する、AI・ビッグデータの罠』(キャシー・オニール著、久保尚子訳、インターシフト)の著者であり、数学者・データサイエンティストでもあるキャシー・オニール氏は、「アルゴリズムとはプログラムに埋め込まれた意見である」と述べています。設計者が何を成功とするかという基準を決め、その基準に基づいてアルゴリズムが設計されるからです。

人間が設計するものである以上、設計者が望みも気づきもしない形で、アルゴリズムはバイアスの影響を受けることになります。しかも厄介なのは、「アルゴリズムは客観的であり、その出力は(人間の判断と比較すると)合理的である」と判断してしまうことです。アルゴリズムの結果を盲信してしまい、そこに存在しているバイアスに気づくことができない場合が多いのです。

そして冒頭の例でも取り上げたように、使っているデータそのものに問題がある場合もあります。

AIの開発には学習用のデータが必要になりますが、AI開発用に大規模なデータが一般公開されている場合もあります。そういった大規模データのおかげで、これまでのAI研究・開発は加速しました。しかし、近年こうした大規模データの中にもバイアスが存在しており問題を生じさせる可能性があることが指摘され始めています。

例えば言語生成AIの研究・開発においては前述のRedditやTwitterなどの投稿文からデータを作ることが多いのですが、この中には偏見・差別的な表現が多く含まれており、またデータの収集方法によっては内容が偏っている(特定の意見に与する発言が多い)ことなどが指摘されています。

こうしたデータに基づいて学習された言語生成AIは当然こういった偏見・差別表現を内包してしまうことになります。

「責任あるAI」実現に向けた行動原則「TRUST」とは?

前回の記事「『暴言を吐くAI』『差別するAI』なぜ生まれるのか?」で、これからのAIは「責任あるAI」であることが求められると述べました。

前述のようなリスクに対しての感度を高めながら「責任あるAI」を実践するにあたって、われわれは5つの行動原則(TRUST)を規定しています。

TRUSTとは、Trustworthy(信用できる)、Reliable(信頼できる)、Understandable(理解できる)、Secure(安全が保たれている)、Teachable(共に学びあう)の5つの頭文字からとっています。順番に説明しましょう。

T=Trustworthy(信用できる)とは、AIが社会の安全かつ健全な発展に貢献するよう設計され、出力が信用に足るものでなければならず、そのためにAI開発者や消費者も含むあらゆるステークホルダーによる多様な視点をAIシステムのデザインに取り入れなければならないということです。

2020年7月に開催された機械学習に関する国際学会ICML(International Conference on Machine Learning)において、初めて「機械学習の参加型アプローチ」に関するカンファレンス、ワークショップが開催されました。これは、AIによって影響を受ける人たちにもAIの設計段階から参画してもらい、その意見を取り入れてAIシステムのデザインを革新していこうという新たな試みで、注目に値するものです。

このような多数のステークホルダーを巻き込んで設計や検証を行うことがAIが内在するリスクを早期発見するうえで重要になります。

R= Reliable(信頼できる)とは、AIの出力する結果が信頼でき、それを基に人間がより深い判断、よりよい意思決定ができるようにしなければならない、という原則です。

「信用」は過去の実績・成果物が重要になりますが、「信頼」とはそのうえで将来の決定を任せられるかということです。AIが「信頼」できるものであれば、その決定を参考にして人間がさらによい結論を導き出すことも可能になるのです。

U=Understandable(理解できる)とは、AIの出力が人間にとって解釈可能であり透明性を有していなければならないという原則です。AIが信用と信頼を得るためには、透明性を持つとともに説明可能・解釈可能である必要があります。

S=Secure(安全が保たれている)とは、扱う情報・データのプライバシーとセキュリティー確保の原則です。Googleが2020年1月にウェブブラウザChromeでサードパーティCookieのサポートを段階的に廃止する計画を発表したのも、個人情報保護と透明性の確保という社会的要望が高まってきたからにほかなりません。

AIへの信用と信頼は企業・組織や消費者の情報・データのプライバシーとセキュリティーに配慮し、安全性を確保したうえで成り立つものなのであることを肝に銘じる必要があります。

T=Teachable(共に学びあう)とは、人間中心のデザインによりAIと人間とが新たな価値を共創し、また相互教育により互いを高めあう世界を実現すべきである、という原則です。

従来は人間が機械の使い方を学び使いこなすことが重視されてきましたが、AIは学習を繰り返すことにより成長する技術です。人間がAIを使うとき、そのAIの結果が正しかったのか間違っていたのか、あるいはその結果をどのように活用したのかなどのフィードバックを与えることでAIもまた人間から学習することができます。

前述のような信用と信頼関係があればわれわれはこうしてより賢くなったAIから新たな学びを得ることもできるのです。

信用と信頼こそが重要

この5つの行動原則(TRUST)に従って「責任あるAI」を実現することによって、企業はAIの持つリスクを正確に理解できるようになり、かつAIが持つ潜在リスクへの対策を行うことでAIへの信用が生まれ、人間はAIを信頼できるようになります。

この信用と信頼こそが、AIを自社のビジネスに応用・拡大利用するための礎ともなるのです。