「人工知能が「偏見」を学んでしまった──画像認識で「白人男性」より「黒人女性」の識別率が低かった理由」の写真・リンク付きの記事はこちら

機械学習の技術が進化し、顔認証は消費者向け製品から警察機関まで幅広く活用されるようになってきた。ところが、IBMやマイクロソフトの商業向け顔分析システムでテストを行なったところ、肌の色が黒い人の認識精度が落ちることがわかった。

テストの対象となったのは、写真に映った人間のジェンダーを判別する顔分析サーヴィスだ。2社のアルゴリズムは、肌の色が明るい男性をほぼ完璧に識別した一方、肌の色が黒い女性の分析では頻繁に判断を誤ったという。原因は、顔分析アルゴリズムを訓練するためのデータに暗い肌の色が不足していたためとみられている。

広がる利用シーン、増える「残念な事例」

人工知能(AI)は、特定のグループに対する社会的偏見を身につけてしまったらしい。今回、紹介するのはその最新のNG集といえる。残念な事例は増えるばかりだ。

例えば、グーグルのフォトアルバムサーヴィスで3年近く前、アルゴリズムが黒人をゴリラとタグ付けした問題があった。解決策として「ゴリラ」や「サル」といった検索ワードが削除されたが、それ以上の対応はなされていない[日本語版記事]。

消費者向け製品や商用システム、政府のプログラムなどで使われる機械学習システムの精度をどう担保するかという問題は、いまAIの分野で主要なテーマ[日本語版記事]となっている。ジョージタウン大学のロースクールが2016年に発表したレポートによると、顔認識技術は地域や州の警察、FBIでもルールを設けず、広く利用されているという。さらに、分析対象がアフリカ系アメリカ人だった場合、認識の精度が低いことも明らかにしている。

訓練用データセットに潜む問題点

マサチューセッツ工科大学(MIT)メディアラボのジョイ・ブォラムウィニと、スタンフォード大学の大学院生で現在はマイクロソフトの研究員も務めるティムニット・ゲブルーは最新の研究で、ヨーロッパとアフリカの国会議員の写真データ1,270枚を顔認識アルゴリズムに読み込ませた。肌の色の幅広さを反映させるため、皮膚科学で使われる「フィッツパトリック分類」という分類法に基づいて選ばれたものだ。

研究内容はアルゴリズムシステムの公平性や説明責任、透明性について議論するカンファレンス「FAT*」(18年2月23日から開催)でも発表される。

ブォラムウィニらはこの画像データ集を使って、マイクロソフト、IBM、Face++(北京拠点のスタートアップであるMegviiの一部門)が開発した商業用の顔認識クラウドサーヴィスをテストした。ジェンダー識別機能を調べるためだ。その結果、どのシステムも女性よりも男性の顔で、暗い肌よりも明るい色の肌顔でよく機能したという。

肌の色が最も明るい男性の画像集を分析させると、マイクロソフトのサーヴィスは毎回、写真に映った人間を男性と判断した。IBMのアルゴリズムも誤判定率は0.3パーセントにすぎなかった。暗い肌の色の女性の写真では、マイクロソフトで同21パーセント、IBMとFace++で同35パーセントに上昇した。

マイクロソフトは声明で、「顔分析技術の精度を高める対策にはすでに着手しており、訓練用のデータセットの質を向上させるべく投資を行っています。AIの公平性を保つことは重要な課題であり、真摯に受け止めています」と表明した。「過去に異なる色の肌のグループを使ったテストが行われたことはあるか」という質問には回答しなかった。

IBMの広報担当者は2月下旬、ジェンダー判別サーヴィスの新ヴァージョンを採用すると発表した。もともと予定されていたアップデートに今回の研究結果を反映させ、異なる肌の色での精度を確認するためのデータセットを社内で新たに作成したという。

IBMの年次報告書によると、このデータセットを使って改良版をテストしたところ、暗い肌の色の女性の写真で誤判定率は3.5パーセントにとどまったという。明るい肌色の男性を判別する際の誤判定率0.3パーセントには及ばないが、ブォロムウィニらの研究の数字と比べれば10分の1にまで減少した。Megviiからの回答はなかった。

システムの利用者が巻き込まれる懸念も

機械学習アルゴリズムを提供するサーヴィスの分野では、マイクロソフトやIBMのほか、グーグル、アマゾンといった大手テック企業が激しい競争を繰り広げている。いままでAIの能力はテック企業しか活用できなかったが、スポーツやヘルスケア、製造といった産業でも広く利用できるよう、画像や文章の解析を行うクラウドサーヴィスを売り込んでいる。

見逃しがちな裏の面として、こうしたサーヴィスの技術的な制約や限界にクライアントも巻き込まれる懸念がある。

マイクロソフトのAIサーヴィスを利用しているクライアントのひとつに、スタートアップのPivotheadがある。目の不自由な人のためにスマートグラスを開発している企業だ。マイクロソフトのヴィジョンサーヴィスを利用し、ユーザーの近くにいる人の年齢と表情を合成音声で説明する。

マイクロソフトと共同で制作したプロジェクトの動画を見てほしい。ロンドンの街を白い杖をついて歩く男性が、スマートグラスの助けを借りて、周りに何があるのかを理解する様子が映されている。

スマートグラスが男性に「スケートボードで空中トリックをきめた男性がいるようです」と教える場面がある。若い白人男性がその前をシューっと滑っていく。マイクロソフトの画像認識サーヴィスがテスト結果の通りなら、この男性が黒人だった場合、描写の精度は低くなる可能性がある。

マイクロソフトはサーヴィスについての技術文書でジェンダーの判別について、顔認識技術における表情や年齢といったほかの要素と同様、「まだ試験的なものであり、正確でない場合がある」と記している。

技術の「透明性」を高め、正答率を公開する動きが活発に

D.J.パティルは、オバマ政権でチーフデータサイエンティストを務めた人物だ。この研究成果を踏まえ、テック企業の役割について、機械学習システムがあらゆるタイプの人々に対して等しく機能すると保証すべきだと話す。また、AIという輝かしい名を掲げて販売するシステムの限界をもっとオープンにすべきだとも言う。

「企業は『機械学習システム』や『AI』といった宣伝文句をつけますが、そのシステムがどれだけよく機能するかは未知数です。機能するところと、しないところをユーザーが判断できるだけの透明性が求められています」

ブォラムウィニとゲブルーは論文で、画像認識ソフトウェアの正確さについて、正答率が公開されるまでわからないと主張した。次年度のIBMの年次報告書には、顔分析サーヴィスがどう改善されたかに加え、正答率も掲載される予定だ。

IBMに情報の公開を迫った研究者たちは、機械学習システムに対して同様の審査を行う人が増えてほしいと考えている。今回の研究に使われた画像集は、クラウドサーヴィスのテストに使えるよう、ほかの研究者たちにも公開される予定だ。

マイクロソフトは機械学習の倫理を考えるリーダーとしての地位を確立する努力を続けている。社内にはこのテーマに取り組んでいる研究者が数多くおり、また「Aether」(AI and Ethics in Engineering and Researchの略)という倫理委員会を設けてもいる。

17年には、マイクロソフトのクラウドサーヴィスが一定年齢以下の子どもの表情を十分に認識できていないことが明らかになった。調査の結果、訓練に使われるデータに欠陥があったとわかり、サーヴィスの改善につながった。

RELATED

人工知能を「正しい道」へと導くのは誰か──学会で語られたAIの倫理への懸念