2026年3月17日、中国科学技術協会の公式アカウント・科普中国は「なぜAI(人工知能)はいつも事実を捏造するのか」と題し、AIがもっともらしいうそをつく「ハルシネーション(幻覚)」現象について、訓練データが正確であっても特定の問題では間違いが不可避であるとする最新の研究結果を紹介した。記事は、OpenAIとジョージア工科大学の研究者が25年9月に発表した論文を取り上げ、AIの幻覚が「統計的制約」と「不合理な評価制度」