国家間で生成AIの開発競争が繰り広げられる中、はたしてオープンAIが「中立的」と言えるのか、学術界では議論を呼んでいる(写真:Bloomberg)

「Chat(チャット)GPT」をはじめとする生成AI(人工知能)の急激な台頭で、AIの利用に対する社会的不安も高まっている。AIをめぐる人権やプライバシーに詳しい慶應義塾大学大学院法務研究科の山本龍彦教授に、問題の本質を聞いた。

ケンブリッジ・アナリティカ事件の教訓

――AIが人々の認知過程や判断を歪めることに、懸念を示されています。

アルゴリズムやAIは、すでに私たちの意思決定の領域に深く入り込む時代になっている。デジタル化やDXが必要とよく言われるが、それは個人や人間存在そのもののあり方、さらには国家のあり方を根本的に変容させる可能性がある。

スマートフォンが見せる「世界」は、基本的には私たちのデータに基づいてアルゴリズムやAIが創った世界だ。私たちはつねに魔法のかかった「不思議な国」の中にいることを認識し、情報摂取の主体性を取り戻さなければならない。

AIを使った意思決定の操作の問題を最もセンセーショナルな形で世に知らしめたのが、「ケンブリッジ・アナリティカ事件」だ。

選挙コンサルタント会社ケンブリッジ・アナリティカがフェイスブック(現メタ)のデータなどから詳細な心理的プロファイリングを行い、2016年に行われたアメリカ大統領選やEU(欧州連合)の離脱を問うイギリスの国民投票の政治広告に活用していた。同社はそれによって、ドナルド・トランプ陣営やEUの離脱派を支援していたとされる。

ここで言うプロファイリングとは、ウェブの閲覧履歴といった個人データに基づき、AIを使って個人の趣味嗜好・精神状態・政治的な信条・犯罪傾向など、あらゆる私的側面を自動的に予測・分析することを指す。ケンブリッジ・アナリティカの場合は、こうしたプロファイリングで、ユーザーを「神経症で極端に自意識過剰」「陰謀論に傾きやすい」「衝動的怒りに流される」など細かく分類し、それに応じて政治広告を出し分けていた。

このような心理的プロファイリングを用いた政治的マイクロターゲティングは、選挙運動としてとても有効だった。フェイクニュースにだまされやすい人にそれをリコメンド(推奨)すれば、その人の感情や意思決定を容易に操作できるからだ。

プロファイリングの問題は日本でも


山本龍彦(やまもと・たつひこ)/慶應義塾大学大学院法務研究科教授。慶應義塾大学グローバルリサーチインスティテュート(KGRI) 副所長。1976年生まれ。慶應義塾大学法学研究科博士課程単位取得退学。博士(法学)。総務省「プラットフォームサービスに関する検討会」委員、総務省「ICT活用のためのリテラシー向上に関する検討会」座長なども務める。主な著書に『デジタル空間とどう向き合うか』(日経BP、共著)、『AI と憲法』(日本経済新聞出版社)など(写真:本人提供)

AIで個人の認知傾向を把握し、この傾向を突けば、「マインド・ハッキング」が可能であることがわかってしまった。この事件を契機に、プロファイリングを用いた政治的マイクロターゲティングが、プライバシーのみならず民主主義にも多大な影響を与えうるということが大きく知れ渡ることになった。近年では、AIを使った認知の操作は、情報戦ないし認知戦の重要な一部として安全保障にもかかわるものと理解されている。

――日本でもプロファイリングの問題は、起きていないのでしょうか。

2019年の「リクナビ事件」が有名だ。就職活動のプラットフォーム「リクナビ」を運営するリクルートキャリアが、学生のウェブ閲覧履歴などからAIを用いて内定辞退率を予測し、これを企業に販売していた。国内企業から採用をもらっても外資系に逃げてしまうような学生がいるので、そういった学生がどんなウェブをみていたかをAIに学習させて内定辞退の可能性を予測するアルゴリズムを組んでいたのだ。

内定辞退率を予測するためのプロファイリングは、学生を採用する企業には有用だが、応募する側の学生にとってはショッキングだっただろう。まさか自分のウェブ閲覧履歴が内定辞退率の予測に使われ、内定が取り消される可能性があったとは思わなかったからだ。

セグメントに基づくAIの確率的評価は、憲法13条の個人の尊重と矛盾しうる側面もある。さらにディープラーニングのような複雑な学習方法を用いると、AIの判断は人間には理解できなくなるというブラックボックス問題が生じる。

バイアスの中身がわからない「GPT-4」

AIに低い評価をされた人になぜそうなったのかの理由が説明されず、個人が再挑戦の機会を失って社会的に排除され続けるという事態も生じるかもしれない。いわゆる「バーチャルスラム」だ。憲法の精神からいって、これは避けなければならない。

ウェブサイト上のいわゆるクッキー情報を使ったプロファイリングのみならず、今後はメタバースが広がりヘッドギアをつけてVR(仮想現実)空間に没入するようになれば、アイトラッキングといった視線分析や脳波測定まで行えるようになるだろう。政治からマーケティングまで、今や幅広い領域で人々の「認知」が標的となり、その手法も日増しに高度化している。

――AIを用いたプロファイリングについては、「ChatGPT」のような生成AIでも問題になるのでしょうか。

プロファイリングと呼ぶかどうかはわからないが、似たような問題は起こるだろう。運営会社のオープンAIが3月中旬に公開した大規模言語モデル「GPT-4」は、AIが学習したデータの規模や中身を明らかにしていない。

彼らがどのようなデータを、どれぐらい集め、どのような解析を行っているかがわからなければ、GPT-4の回答に入っているバイアスの中身もわからない。GPT-4の回答次第で個人の認知過程が歪むということは十分にありうる。

生成AIについては中国が自前の開発を進めているとも報じられているが、中国のような一党体制下では、学習データやアルゴリズムが調整され、国が回答してほしい内容を生成AIが回答するということになるかもしれない。そうした国家間の開発競争が繰り広げられる中で、はたしてオープンAIは「中立的」と言えるのか。

フェイクニュースを排除したり、誹謗中傷を含む回答をしたりしないということは重要だが、何がフェイクで何が誹謗中傷に当たるかの判断には、一定の価値判断を伴う。

そもそも、フェイクニュース対策を講じたり、誹謗中傷対策を講じたりするということ自体が一定の価値判断に基づいている。生成AIのポリシーやアルゴリズム次第で、言論空間が大きく歪められ、主権国家がつぶれることもあるかもしれない。限界はあるとしても、運営の透明性を確保することは極めて重要だ。

――AIの開発・運用の透明性を高め、その監視機能を強めるには、どうすればいいのでしょうか?

第三者による監督委員会を設けることも一案だろう。フェイスブック(現メタ)では、世界各国の専門家で構成される監督委員会が、コンテンツ削除に関するメタの判断が同社のポリシー、価値観、人権への取り組みなどに従ったものであったかどうかを審査している。

今後は、レコメンデーションや自動削除のためのAI・アルゴリズムの妥当性や倫理性も監督委員会が審査すべきだという意見もある。チャットGPTのような生成AIでも、ポリシーやアルゴリズムの妥当性を審査する仕組みが必要になるだろう。


日本は欧米にルール形成で追い抜かれた

一方で、法的な枠組みも必要になる。EU(欧州連合)では2021年4月に欧州委員会が、AIに関する規則案を発表している。2024年に完全施行される予定で、人々の行動を歪めることを禁じたり、生成AIのようなチャットボットに対する透明性を義務づけることを求めたりしている。違反した企業は、最大で3000万ユーロ(約42億円)か、全世界における売上高6%のうちどちらか高い金額を制裁金として支払わなければならない。

EUはこのほかにも2022年10月に、デジタルサービス法(DSA)が欧州評議会で採択されている。DSAはネット上のオンライン仲介サービス提供者に対して透明化を徹底して求め、特に大規模なプラットフォーム事業者については、民主主義へのリスクなどを査定させ、もしリスクが認められる場合にはそれへの対策を講じることなどを義務づけた。

さらに2023年1月には、「デジタルの権利と原則に関する欧州宣言」を公表している。EUでは、デジタル時代において個人の意思形成の自律性をいかに確保するかに強い関心が払われている。

アメリカでは、2022年10月にホワイトハウスの科学技術政策の局長らが「AI権利章典のための青写真(Blueprint for an AI Bill of Rights)」を発表している。イギリスから独立したアメリカの建国期を想起しつつ、あらためて憲法的な含意を持った権利章典が必要と主張している。そこからは、自ら創り上げたテクノロジーからの権利保護を目指す強い意志を感じる。

日本では2018年に内閣府が「人間中心のAI社会原則検討会議」を設置し、2019年に同原則を公表した。そのときはAI倫理をめぐるルール作りを先導できると一瞬期待したが、いつの間にか欧米に追い抜かれていた。日本は先端技術の開発や経済発展、効率性に関する議論が強く、人権や民主主義に対するコミットメントが弱いように感じる。5月に開かれるG7広島サミットでは、生成AIの加速的発展を見越して、こういうテーマも積極的に議論してもらいたい。

(二階堂 遼馬 : 東洋経済 記者)