「このプリキュアは生成AIによるイラストだ!」と大炎上も「まさかの結末」…「AI嫌悪」で「魔女狩り」に終始する前にすべきこと

写真拡大 (全3枚)

「プリキュア」商品に生成AI疑惑

少し前の話になるが、今年の3月、人気アニメシリーズ「プリキュア」をめぐってネット上で騒動が起きている。東映アニメーションの運用する公式Xアカウント「プリキュアシリーズ公式」が、シリーズ第2作「ふたりはプリキュア Max Heart」関連の新商品に関する告知を行ったところ、その商品に使われたイラストを見た一部のXユーザーから「生成AIを使って作成したのではないか」との声があがったのだ。ところがこの「非難」はまったくの誤解であり、生成AIが使われたという事実は無かった。

しかし騒動は自然に終息せず、プリキュアシリーズ公式アカウントは最終的に、新商品発表から8日後になって「(問題を指摘された画像は)描き起こしたものであり、画像生成AIを使用したイラストではございません」との発表を行っている。単なる勘違いが、企業による釈明を引き出すまでに至ったわけだ。

もはや説明するまでもなく、いまや生成AIはさまざまな分野で活用されるようになった。それはアートの分野も例外ではなく、小説や絵画、音楽、映画などクリエイティブな活動にも生成AIが使われるようになっている。

しかしプリキュアの一件でも分かるように、アートに生成AIを活用することに対しては、根強い反感が見られる。その理由や是非はここでは問わないが、「既存のクリエイターの作品が勝手にAIの学習に使われ、それを真似されているのではないか」「そのために本来は人間のクリエイターたちが手にするべきだった報酬が、彼らに支払われない事態となっているのではないか」、さらには「このままの事態が進めば、人間のクリエイターの仕事が失われてしまうのではないか」などといった主張が行われている。いずれも納得できるものであり、声を上げるのも当然だろう。

ただプリキュアの一件は、それが単なる誤解であり、東映に対していわれなき非難を浴びせるものだった。このように生成AIに対する反感は、望ましくない副作用を生み出しているのではないか――そんな観点から、ある興味深い研究が行われている。

AI利用の「疑い」だけで仕事が無くなる?

これは米コーネル大学の研究者らによって行われたもので、「生成AIと知覚的危害」という論文として発表されている。

知覚的危害(Perceptual Harms)」というのは聞きなれない言葉だが、この論文の中では、「AIが実際に使用されたかどうかに関わらず、AIが使用されていると認識された場合に、個人や集団に対する差別や攻撃が生じること」を示す概念として使われている。まさにプリキュアの一件で見られたような、AIを利用しているという「疑い」だけで生まれる被害を指す言葉だ。

この知覚的危害の実態を探るために、研究者らは被験者として数百名の米国人をオンライン上で集め3つの実験を行っている。それぞれの内容と、結果について整理しておこう。

第1の実験では、性別の影響が確認された。まず被験者に対し、架空の男性と女性のフリーランスライターのプロフィールを提示。さらに「このライターが書いた」として、人間(研究者ら)が作成した文章(プレスリリースを模したもの)を読ませた。その上で、読んだ文章がAIによって生成されたものかどうかを評価してもらい、さらにその文章の質と、ライターを雇用するかどうかの可能性についても質問した。

その結果、AIの使用が疑われると、文章の質に対する評価が低下する傾向が見られ、また雇用する可能性も低下した。これは予想通りと言えるだろうが、興味深いのは性別による差だ。男性ライターは女性ライターよりも、AIを使用していると疑われやすいことが判明したのである。ただAI使用が疑われた場合、品質の評価と雇用の可能性が下がるという点は、男女に差はなかった。

第2の実験では、人種の影響が確認された。第1の実験と同じ内容を、架空の白人と黒人のライターのプロフィールを使用して実施したのである。その結果、AI使用が疑われる確率は、白人と黒人の間で差は見られなかった。しかしAI使用が疑われた場合、被験者たちは黒人ライターに対して特に厳しく接し、文章品質の評価をより低下させた。ただ雇用の可能性への影響については、人種で差は見られなかった(どちらも等しく低下した)。

第3の実験では、国籍に関して、第1・第2と同じ内容が実施された。架空の外国籍(東アジア系)のライターと米国籍のライターのプロフィールを用意し、文章を評価させたのである。その結果、東アジア系のライターは、米国籍のライターよりもAIを使用していると疑われやすかった(これは米国での実験ということで、「外国籍のライターが自然な英文を書けるなんて疑わしい」と思われた可能性が考えられる)。またAI使用が疑われた場合の、文章品質の評価の低下についても、東アジア系ライターの場合の低下が特に著しかった。ただ雇用の可能性が低下する点については、第2の実験と同様、国籍による差は見られなかった。

結果をまとめると、あるライターが「AIを使っているのではないか」と疑われた時点で、彼らの書いた文章は質の低いものとして認識され、仕事を依頼したいというモチベーションも下がるということになる。そもそも疑いを持たれるかどうか、疑われた場合にマイナス感情がどのくらい発生するかについては、性別・人種・国籍で差が見られたが、逆に言えばより強い反発が起きる可能性について注意しなければならないということになる。

あくまで研究室という場で行われた実験の結果とはいえ、筆者自身もライターとして活動している以上、「AIを使った」と疑われないようにしなければという思いを抱いた。

「魔女狩り」になってしまわないために

こうした知覚的危害を防ぐため、研究者らは、AI使用に関する開示を徹底させることを提案している。いまさまざまな種類のコンテンツについて、それがAIによって生成されたものかどうかについて、明確に開示することを企業に求める法規制が各国で検討されている。そうした法律をつくるなどして、AIが使われたかどうかをはっきりさせることで、AI使用の疑いによる偏見を軽減できる可能性があるというわけだ。

しかし研究者らは残る懸念として、開示したとしてもAIに対する否定的なイメージが解消されるとは限らず、また「疑い」ではなく本当にAIを使ってコンテンツを生成していた場合、開示によってネガティブな反応が起きることも予想されると指摘している。もともと人々が生成AI使用に対して良いイメージを抱いていないのであれば、開示義務を整備したところで彼らの感情は変化しないだろう。

そこでもうひとつの提案として、研究者らは、AIリテラシーの向上を訴えている。

前述のように、生成AIが使用されるようになることで人間のクリエイターの仕事が減る、というのは確かに問題だ。しかし状況はそう単純ではなく、たとえばそもそも人間のクリエイター、特に組織外の第3者に対して有償の仕事として回されていなかった仕事(社内利用のコンテンツとして簡単なイラストや動画を作成したりするなど)が、AIによって担われる場合もあるだろう。その場合、人間のクリエイターに回されるパイの総量は変わらず、AIがその周辺でAIにしか食べられないパイを生み出したのだと言える。

また一部のコンテンツ作成は、複数のタスクによって構成される場合があり、そうしたケースではAIに部分的な作業を任せ、最終的に人間のクリエイターが完成させるという態勢を取ることが考えられる。その場合は逆に、AIによってクリエイターの生産性が上がることが期待される。つまり人間のクリエイターが、AIの力を借りてより早く仕事をこなしたり、より仕事のクオリティを上げるなどして、報酬を増やせる可能性があるわけだ。

たとえば筆者は翻訳家としても活動しているが、最近は訳注を付ける(日本語訳をより分かりやすくするために、原文に難解な用語が説明無しで使われている場合、その補足説明を独自に執筆して載せる)際に、その文章案を生成AIに考えさせるということをしている。訳注では難解な専門用語を分かりやすく、しかし簡潔に言い換えることが求められるため、執筆に必要な時間は馬鹿にならない。そこでAIに頼ることで、翻訳原稿を完成させる時間が短縮され、さらに読者にとって読み進めやすい内容にできることになる。

あらゆる分野でそう上手くいくとは限らないものの、少なくとも筆者のようなケースでは、生成AIは逆に仕事の可能性を広げてくれる存在と言えるだろう。

そうした人間と生成AI、さらにはさまざまな仕事との複雑な関係を把握できるようになるために、一般の人々がAIに関する知識や理解を深めることが重要だと研究者らは指摘している。AIの長所と短所をバランス良く理解することで、極端な AI 嫌悪や、過度の AI 信頼を避けられるというのである。

筆者もこの点に同感だ。単なるAI嫌悪だけでは、疑わしい相手を(真実はどうかに関係なく)つるし上げにして攻撃するという「魔女狩り」で終わってしまう可能性がある。知覚的危害という問題の存在を認識して、それにどう対処すれば良いのか、幅広く議論されるべきだろう。

生成AIが普及を初めて、まだ数年しか経っていない。各種ルールの整備に加えて、私たち自身のAIとの向き合い方も進化することを期待したい。

コロナ関連投稿の45%がボットによる投稿だった…いつの間にか「噓の記憶」を植え付けられる「SFのような世界」が現実に