生成AIが事実と異なる内容を出力することは「ハルシネーション(幻覚)」と呼ばれています。AI企業のGiskardがハルシネーションの発生条件やAIモデルごとの幻覚耐性の分析結果を公開しました。Phare LLM Benchmarkhttps://phare.giskard.ai/Good answers are not necessarily factual answers: an analysis of hallucination in leading LLMshttps://huggingface.co/blog/davidberenstein1957/phare-analysis-of-hallucination-in-le