生成AIの「おしゃべり機能」はどこまで人間の代わりになるか。『言語学者、生成AIを危ぶむ 子どもにとって毒か薬か』(朝日新書)を出した川原繁人さんは「例えば幼児が生成AIと会話することは、健全な成長や言語獲得の観点からはたして“安全”なのか、疑問が多い」という――。
写真=iStock.com/suriya silsaksom
※写真はイメージです - 写真=iStock.com/suriya silsaksom

■「賛成ゼロ」で浮かび上がる限界

2024年の夏、「『AIおしゃべりアプリ』に対してどう感じているか」についてのオンラインアンケート調査を、共同研究者の折田(おりた)奈甫(なほ)先生とともに実施しました。

「おしゃべりアプリ」とは、生成AIを使って人と会話するスマホやPC向けのアプリです。子ども向け教育用や娯楽用として提供され、質問に答えたり雑談したりできます。

このアンケートに回答してくれたのは33名の言語学者です。詳細は「子ども向け生成AI搭載おしゃべりアプリの危険性について」という論文としてまとまっていますが(*1)、本稿では、より重要だと感じた意見に焦点をしぼって議論していきたいと思います。

まず「生成AIおしゃべりアプリを子どもに与えることに言語学者として賛成しますか?」という問いを尋ねたところ、「賛成=0(0%)」「どちらかといえば賛成=6(18%)」「どちらでもない=10(30%)」「どちらかといえば反対=10(30%)」「反対=7(21%)」という結果が得られました(図表1)。

「積極的な賛成派はいなかった」という点がもっとも大事だと思います。そして、半数が反対寄りであったということも強調したいと思います。「どちらかといえば賛成」とした言語学者もいましたが、少数派です。

出典=『言語学者、生成AIを危ぶむ 子どもにとって毒か薬か』(朝日新書)より

どの回答についても、たくさんの自由記述コメントがよせられましたので、本書『言語学者、生成AIを危ぶむ』で深く議論していきます。ただ、各コメントを紹介する前に、このアンケートで明確にしていなかった前提――生成AIの出力が、言語獲得として使われるデータの中で、どの程度の割合を占めるのか――があったことを明記しておくべきでしょう。生成AIの出力が、どれだけ子どもの学習データを占めるかによって、おしゃべりアプリに対する意見が変わる可能性もありましたが、今回のアンケートでは、あえてこの点について限定せずに意見を募りました。

■言語獲得をAIに任せるのはリスク

ただ、多くの自由記述回答では、次のように、「生成AIは主要なインプット(=学習データ)になるとは思えない」という前提で意見が述べられていました。

・生成AI「のみ」を母語のインプットとして育つ子どもがいるとは現実的に考えられないため、周囲の大人からの言語インプットがあるという前提では、母語習得そのものは影響なくできるだろう。

・おそらく使ったとしてもほぼ無害ではないかと思います。子どもはAIだけからインプットを得るわけでは決してないので。(もちろん、周りの大人が一切音声言語で話しかけず、AIのみのインプットで母語が獲得できるか、みたいな思考実験は興味深いですが、実際にそのような実験をすることは倫理的に許されないと思われます。)

・養育者が普通に話しかけているのなら、余剰的にいろんなメディアで言語インプットを与えるのは構わないと思いますが、養育者の言語姿勢へのマイナス影響についても考えるべき。

二つ目の意見において、「AIの出力のみを学習データとして母語を学ばせることは倫理的に許されない」という前提が明示的に語られている点も重要だと思います。やはり、言語学の視点からは、生成AIに言語獲得を一任することは「倫理的リスクが大きい」と言わざるをえません。

■「使うならば、補助的に」が合言葉

「おしゃべりアプリに必ずしも反対はしないけれども、それはおしゃべりアプリに頼りっぱなしという状況はありえないから」という前提が少なからずあった、という点は見逃せません。

生成AIおしゃべりアプリが、子育てのどの程度の割合を占めるように想定されているのかはわかりません。しかし、「少なくとも補助的であるべき」というのは多くの言語学者が感じている点だと思われます。先ほど引用した三番目の意見においては、養育者が「おしゃべりアプリに任せておけば、自分は話しかけなくても平気」と思ってしまうことの危険性が指摘されています。

「おしゃべりアプリの使用の可否」について、とても多く寄せられた意見が「条件付きの使用なら可」というものでした。自由記述の具体例をいくつか引用します。

・今後どれだけ生成AIが発展するかにもよりますが、「生成AIも援用する」という程度ならば、有効活用が可能ではないかと思います。

・人間と話す場合とAIと話す場合をはっきり区別するように指導すべきだと思います。

・聞き役に徹するAIなら危険は少ないと思うが、AIが何であるかを理解している一定の年齢以上を対象にすべき。クイズを出す程度の単純なものなら危険は少ないかも。

まとめると、言語学者の多くが「使うのであれば、しっかりと留意するべき点がある」という意見を持っています。また、具体的なガイドラインを考えてくださった方々もいらっしゃいますので、それらは、本書の議論の最後にまとめて提示したいと思います。

■堂々とウソを語るAIのハルシネーション

「おしゃべりアプリの可否」について具体的な理由を尋ねたところ、中には、肯定的な意見も聞かれましたので、そちらから議論していきましょう。例えば、「生成AIは一人の人間よりも多くの知識を持っているので、学べることがある」という回答がありました。この点については私たちも基本的に同意します。生成AIが持っている知識――または、生成AI経由で検索できる知識――の広さには驚かされる毎日です。

川原繁人『言語学者、生成AIを危ぶむ 子どもにとって毒か薬か』(朝日新書)

ただし、同時に生成AIには、事実ではないことをでっちあげて堂々と語ってしまう「ハルシネーション(幻覚)」と呼ばれる問題が存在することも見過ごせません。

例えば、2025年3月に、「慶應義塾大学で言語学を専攻できますか」とChatGPTに質問したところ、「大学院では、川原繁人教授のもとで音声学の研究ができます」という回答が含まれていました。しかし、私は研究所勤めであり、大学院生の指導はおこなっていません。

つまり、この回答は明らかな誤りで、このアドバイスに従って慶應の大学院に来てしまったら非常に不幸なことになります。同じように、「川原繁人の専門分野は何ですか?」と尋ねたところ、「音声学」という正しい答えもだしたものの、「認知言語学」や「日本語学」という間違った答えも含んでいました。

■AIの“でっちあげ”現象はなぜ起きるか

ハルシネーションによって、もっと大きな社会的問題が生じてしまったことがあります。

2023年アメリカで、法的主張の下支えとなる判例をChatGPTで検索した弁護士が、実在しない判例を含む書面を裁判所に提出してしまったのです。提出された文書には、もっともらしい架空の判例が複数含まれていたことが判明しました。

また研究者の間では、質問を投げかけると、実在しない論文をもとに答えが返ってくることがある、ということも話題になっています。このように、生成AIが生みだすハルシネーションには、現実世界に具体的なリスクをもたらす可能性があることを忘れてはなりません。

この「誤った情報をでっちあげてしまう」ハルシネーションという現象は、生成AIの設計構造そのものに根ざした本質的な課題です。

簡単に言えば、生成AIは「学習したことに似たパターン」から次に来る語を予測する仕組みなので、学習データに含まれていない質問に対しても、まるで知っているかのように答えを「でっちあげてしまう」ことがあるのです。

ハルシネーションは、いわば生成AIが「知識ベースではなく、予測ベース」で動いていることの副作用なのです。しかも、その内容が本当に正しいかどうかを生成AI自身が判断する仕組みは、今のところ、組み込まれていません。

■「幼児に対する知識の提供役」はまだムリ

現在進行形でさまざまな対策が開発されており、外部データベースとの接続や、人間によるフィードバックを通じたチューニングなどもおこなわれていますが、2025年現在においても、根本的な解決策はまだ見つかっていません。

つまり、ハルシネーションは「防ぐもの」ではなく、「付き合い方を工夫するもの」として受け止める必要があるのです。

実際にChatGPTのコマンドの下には「ChatGPTの回答は必ずしも正しいとは限りません。重要な情報は確認するようにしてください。」という注意書きが載せられていますし、Claudeではそれぞれの回答の下に逐次、この趣旨の注意書きが提示されます。これはAIの開発側は、ハルシネーションが起こることをしっかりと認めているということです。

しかし、子どもに別の情報源を用いた事実確認を求めるのは、現実的にはかなり難しいでしょう。この点に鑑みると、生成AIに「幼児に対する知識の提供役」を任せるのは、少なくとも、現在の段階では時期尚早であると感じられます。

*1 川原繁人他(2025)子ども向け生成AI搭載おしゃべりアプリの危険性について:言語学的・心理学的・認知科学的観点から。慶應義塾大学言語文化研究所紀要56:31-54.

写真=iStock.com/wildpixel
※写真はイメージです - 写真=iStock.com/wildpixel

----------
川原 繁人(かわはら・しげと)
慶應義塾大学 言語文化研究所教授
1980年東京生まれ。1998年、国際基督教大学入学。2002年、マサチューセッツ大学言語学科大学院入学。2007年、同大学院より博士号取得(言語学)。卒業後、ラトガーズ大学にて教鞭を執りながら、音声研究所を立ち上げる。2013年より慶應義塾大学言語文化研究所に移籍。現在、教授。専門は音声学、音韻論、一般言語学。著作『音とことばのふしぎな世界』(岩波科学ライブラリー)、『「あ」は「い」より大きい!?』(ひつじ書房)、『音声学者、娘とことばの不思議に飛び込む』(朝日出版社)他。複数の国際雑誌の編集責任者を歴任。
----------

(慶應義塾大学 言語文化研究所教授 川原 繁人)