ChatGPTなどの生成系AIとの適切な付き合い方とは(写真:Supatman/PIXTA)

ChatGPTなどの生成系AIは、どんな質問に対しても、答えを出してくれる。しかし、これを安易に信じて利用するのは、きわめて危険だ。ただし、賢い使い方をすれば、生成系AIは知的作業の強力なアシスタントとなる。

昨今の経済現象を鮮やかに斬り、矛盾を指摘し、人々が信じて疑わない「通説」を粉砕する──。野口悠紀雄氏による連載第96回。

ChatGPTを信じれば、破滅する

アメリカの弁護士がChatGPTの出力した判例を民事裁判の資料として使用したところ、虚偽のものであることが発覚し、問題となった。こんなことをする人がいるとは、信じられない。資格を剥奪されても当然だろう。いやその前に、こうした弁護士に仕事を依頼する人はもういないだろう。

この例からわかるように、生成系AIの出力結果を安易に信じて利用することの結果は、破滅的なものとなりうる。

生成系AIを用いる場合に最も重要なのは、その出力内容がまったくあてにならないとよく認識することだ。多くの人が、生成系AIは質問をすれば何でも正しく答えてくれる魔法の仕組みだと思っているが、それは間違いだ。

まず、ChatGPTは、2021年9月までのデータについてしか学習していない。だから、それ以降の出来事に関してはまったく無知だ。したがって、そこから最近の出来事についてデータや知識を得ようと思っても、元々できない。

それにもかかわらず、ChatGPTは、そうした問いに対して答えを提供する。例えば、「2023年のG7広島サミットで何が議論されましたか?」と聞けば、最もらしい答えを出力する。

この場合には、明らかに虚偽とわかるが、はっきり判別できない場合が多いので、注意が必要だ。

AIの出力が信用できないことは、しばしば議論される。ただ、その理由として、「学習に用いたデータの質が問題だから」と言われる。あるいは、間違った情報を意図的に流して世論調査を操作するといった危険が指摘される。

もちろん、そうした問題もありうる。しかし、現実に生じている問題は、そうした「高度の」問題ではなく、そのはるか以前の初歩的なものだ。学習したデータの大部分は正しい情報だろうが、ChatGPTは、それらと誤った情報の区別ができない。あるいは重要な情報とそうでない情報の区別ができないのだ。

怪しげな2次データを参照している場合も

例えば、Bingは参照しているサイトのURLを示すが、経済データについて見ると、政府などの一次データサイトではなく、怪しげなサイトにある2次データを参照している場合がしばしばある。

経済データの分析にあたっては、どこで信頼できる情報が得られるかを知っていることが重要なノウハウだ。しかし、AIにはそのような判別ができない。この点から言えば、従来型の検索エンジンの方がはるかに信頼できる情報源だ。

ただし、検索エンジンで統計データを得るのは面倒だ。示されているサイトのどこに目的のデータがあるのかわからない。データを見つけても、処理しにくい形で示してあることが多いので、さまざまな加工が必要になるなどの問題がある。

それに対して、Bingなどの検索エンジンは、知りたい情報を直接に教えてくれる。また、「表の形で示せ」というと、見やすい表の形で示してくれる。このため、すぐに知りたいデータがわかるので、利用したい誘惑にかられる。

しかし、その誘惑に負けてはいけない。

では、信頼できる情報源を示せば、そこにある統計データを見やすい形で示してもらえるだろうか?

実験として、「総務省の消費者物価統計に基づいて、生鮮食料品を除く総合指数の対前年同月比を、2022年1月から利用可能な最近の時点まで、毎月示してほしい」とBingに依頼した。

この時点で2023年4月までのデータは公表されていたのだが、最初、Bingは2022年10月までしか示さなかった。「最近のデータを示せ」と言っても、2023年2月までしか示さず、しかも、統計局のデータではなくNHKのデータ(つまり、2次データ)を使っている。さらに、最初に示したものと食い違ったデータだ。

そこで、「すでに4月まで公表されている」と指摘したところ、4月までのデータを示した。しかし、誤ったデータだった。

そこで、もっと厳密に、つぎのように指示した。「総務省統計局「消費者物価指数(CPI)結果」https://www.stat.go.jp/data/cpi/1.htmlの最新のデータを参照して、つぎの問いに答えてください。生鮮食料品を除く総合指数の対前年同月比を、2022年1月から利用可能な最近の時点まで、毎月、表の形で示してください」。

これでも、間違った数字が出てきた(速報値を参照しているようだ)。

一言で言えば「惨憺たる結果」としか言いようがない。

生成系AIの利用可能性はかなり限定的

このように、生成系AIの利用可能性は、多くの人が漠然と考えているよりも、ずっと限定的なのだ。日本政府はAIの利用に積極的だが、ニューヨークの弁護士と同じような失敗を犯さないか、あるいはもっと深刻な事故を引き起こさないかと心配だ。

EBPM(エビデンス・ベースト・ポリシー・メイキング:統計データなどの科学的根拠に基づいて政策判断などを行うこと)が重要と言われる。まったくそのとおりだが、生成系AIは、この目的に役立たないどころか、有害であることを、正しく認識すべきだ。

重要なのは、どこに信頼すべきデータがあるかを知っていることだ。私はこの問題について長年悩まされ、調べ続けてきたので、その結果をつぎのように、リンク集として公開している。https://note.com/yukionoguchi/n/n26b5d2e32bdb?magazine_key=m01337d47aa4d

是非、ご利用いただきたい。

ただし、以上で述べたことは、AIがまったく役に立たないということではない。使い方によっては極めて有用だ。

まず、信頼できるとわかっている資料を示して、その内容を要約したり、翻訳したりしてもらうことができる。この過程では、誤った情報はおそらく混入しないだろう。この方法によって情報収集能力が著しく向上する。特に、言葉の壁に悩んできた日本人にとっては、海外の情報へのアクセス手段として大変重要だ。

ただし、「信頼できる資料は何か」と生成系AIに質問をすると、いい加減な答えが返ってくる。あまり信頼できそうもない資料を挙げたり、あるいは、そもそも存在しない文献をでっち上げたりする。

生成系AIが驚嘆すべき能力を発揮する分野

もう1つ、ChatGPTなどの生成系AIが驚嘆すべき能力を発揮するのは、文章の校正だ。とりわけ、音声入力で作った誤変換だらけのテキストの校正である。私がこれまでさまざまに試みたところでは、これこそが、最も安全で、効率的で、賢いAIの利用方法だ。

このような利用法を見出すのが、重要である。

「神はたくらみ深いが悪意を持たない」(Raffiniert ist der Herrgott, aber boshaft ist Er nicht)とは、アインシュタインの有名な言葉である。AIは間違いを犯すが、それは、AIが悪意を持っているからではない。問題が起こるのは、人間がAIの使い方を誤っているからである。

だから、それに対処するのは、悪意を持つ人間を相手にするよりは、ずっと容易であるはずだ。


この連載の一覧はこちら

(野口 悠紀雄 : 一橋大学名誉教授)