グーグルで人工知能(AI)研究者だったティムニット・ゲブルが「わたしは解雇されました」とツイートしたのは1年前のことである。これを機に、従業員が自社のテクノロジーの影響について疑義を唱える自由があるかどうか、論争が巻き起こった。

「グーグルを追われたAI倫理研究者が、新たな研究所を開設した理由」の写真・リンク付きの記事はこちら

そしてゲブルはこの12月2日(米国時間)、AIの「責任ある利用」を問うための新しい研究所を設立した。グーグルをはじめとするテック企業で、AIの「責任ある利用」に対する取り組みがなかなか進まない現状にしびれを切らしたのだと、ゲブルは言う。

「社内から戦うのをやめ、テック企業とは異なるインセンティヴ構造をもつ独立機関として模範を示したいと思います」と、ゲブルは説明する。この研究所は「Distributed Artificial Intelligence Research(DAIR、分散型AI研究所)」で、ゲブルは創設者兼エグゼクティヴディレクターを務める。

研究所の名称の最初にある「Distributed(分散型)」という言葉は、大部分のAI研究所と比べてよりインクルーシヴ(包摂的)な研究に取り組むことを示している。白人、欧米人、男性に偏っているAI研究所が多いなか、テック業界ではほとんど取り上げられていない世界の地域からの人材の採用を目指している。

自由な立場でAIを議論

ゲブルはグーグルなどのテック企業が積極的に導入していた新しいテキスト処理技術について注意を促す研究論文を執筆し、論文を巡って上司と対立したあとにグーグルから解雇された。グーグルはゲブルが「辞職」したのであって、解雇したわけではないと発表していた。

しかし、のちにゲブルと共にAI倫理を研究するチームを率いていたもうひとりの研究者であるマーガレット・ミッチェルを解雇したことを、グーグルは認めている。さらにグーグルは、自社の研究者が探求できるテーマに新たな制限を設けた。

グーグルの広報担当者はコメントを差し控えたが、AIガヴァナンスに対する同社の取り組みに関する最近のレポートを参照するよう求めている。そのレポートには、グーグルが2018年以降、「責任あるイノヴェイション」に関する論文を500本以上も発表したと記載されていた。

テック企業は、自社の利益の源泉であるテクノロジーの影響について調査するため、研究者に資金援助したり研究者を雇用したりしている。しかし、このグーグルの一件によって、そこには本質的に相いれないものがあることが浮き彫りになった。

今年初めには、テクノロジーと社会に関する主要な会議の主催者は、同イヴェントに対するグーグルの後援を取り消している。ゲブルは新しい研究所であるDAIRでは、より自由な立場でAIの潜在的な欠点を問うことができると言う。大学での研究をときに困難なものとする、学術界での権力関係や論文発表への圧力に悩まされることもない。

よりインクルーシヴであることの重要性

さらにDAIRは、ほかの組織では開発されないようなAIの利用方法を示すことにも取り組むと、ゲブルは説明する。テクノロジーを新たな方向に導くためのヒントを与えることを目標にしているという。

そのようなプロジェクトのひとつと位置づけられているのが、南アフリカの航空写真の公開データセットの作成である。これは、どのようにアパルトヘイトの影響がいまなお土地利用に根強く残っているかを調査する取り組みだ。かつて非白人の居住区とされていて現在も貧困層が多く住む人口密集地域において、2011年から17年の間に開発された空き地のほとんどが、富裕層の住宅地に変わったことが画像の予備解析で明らかになっている。

このプロジェクトに関する論文は12月後半、世界で最も権威あるAIカンファレンスである「NeurIPS」で発表される予定だ。学術界のAI研究の場にDAIRが初めて公式に登場することになる。論文の筆頭著者はDAIRの最初のリサーチフェローであるラエセテフェ・セファラで、南アフリカに拠点を置くセファラは外部の研究者と協力してこの論文をまとめた。

DAIRの顧問のひとりは、テクノロジープラットフォームによる社会形成について研究するカリフォルニア大学ロサンジェルス校の教授、サフィヤ・ノーブルである。社会に対するテクノロジーの影響を理解し、それに対処していくには、ゲブルのプロジェクトのようなよりインクルーシヴな新しい機関が必要であると、ノーブルは言う。

「黒人女性は、大手テック企業がもたらす悪影響や、社会にとって有害なさまざまなテクノロジーにわたしたちが気づく上で、大きな助けになっています。同時にわたしたちは、黒人女性が米国企業や学術界で直面する障壁についても理解しています」とノーブルは言う。「ティムニット・ゲブルはグーグルで、テクノロジーがもたらす悪影響に気づき、介入しようとしました。しかし、そのようなインサイトがまさに求められる企業において、ゲブルに対する支援があまりにも不足していたのです」

ノーブルは最近、意欲に溢れる黒人女性を支援するために、自身の非営利団体「Equity Engine」を設立した。ノーブルと共にDAIRの顧問として名を連ねるのは、ケニアのニエリにあるデダン・キマジ工科大学で講師をしているシイラ・ワ・マイナである。

AIの公平性に関する研究が急増

DAIRは現在、非営利団体「Code for Science and Society」のプロジェクトだが、今後は独自の非営利団体として法人化するとゲブルは言う。ゲブルのプロジェクトは、フォード財団やマッカーサー基金、ロックフェラー財団、オープン・ソサエティ財団、Kapor Centerから計300万ドル(約3億4,000万円)以上の資金提供を受けている。将来的には研究関連のコンサルティング業務を引き受けることで、DAIRの資金調達を多様化したいと考えているという。

DAIRと同様に、より大局的かつ批判的な視点からAIテクノロジーについて考えるプロジェクトや組織が増えている。AIの影響について研究し、評価する新たな非営利団体や大学の研究センターが国内外で相次いで設立されているのだ。

例えば、ニューヨーク大学の「AI Now Institute」や「Algorithmic Justice League」、「Data for Black Lives」などが好例である。また、AI研究所の一部の研究者も、アルゴリズムの影響や適切な利用について研究している。さらに、法律や社会学など他分野の学者も、独自の観点から、AIに対して批判的な目を向けるようになってきた。

米科学技術政策局は今年、アルゴリズムの公平性を研究する2人の著名な学者を採用し、AIによる被害を防ぐための「権利章典」の作成に取り組んでいる。また、連邦取引委員会は先月、AIテクノロジーに関する顧問として、AI Now Instituteから3人の人材を採用した。

誰が信頼に足る存在なのか?

とはいえ、このような変化にもかかわらず、米国の人々はテック企業がAI開発の方向性を決めることにおおむね問題ないと依然として考えているようだと、シラキュース大学助教授のバオバオ・チャンは言う。

チャンがAI研究者と米国の人々を対象に実施し調査では、公共の利益となる技術開発を推進するにあたって、信頼しているのは誰なのかを尋ねた。この調査の結果は、AI研究者と米国市民ではまったく異なるものだった。一般市民が最も信頼しているのは、大学の研究者と米軍だったのだ。

そこにテック企業全体が僅差で続き、欧州合同原子核研究機構(CERN)などの国際的な研究機関や非営利団体の研究機関と同ランクだった。米国政府の信頼度はそれよりさらに低い。一方でAI研究者は、一般市民と比べて米軍や一部のテック企業(とりわけフェイスブックやアマゾン)に対する信頼度が低く、国連や非政府系の科学団体に対する信頼度がより高かった。

※『WIRED』による人工知能(AI)の関連記事はこちら。