GameBusiness.jp 最新ゲーム業界動向

OpenAI、「幻覚」の根本原因と対策を解明。ハルシネーションは「難問に直面した学生と同じ」(生成AIクローズアップ)

今回は、OpenAIとジョージア工科大学の研究チームが発表した論文「Why Language Models Hallucinate」を取り上げます。大規模言語モデル(LLM)がなぜ事実と異なる情報「幻覚」(ハルシネーション)を自信満々に生成してしまうのか、その根本原因を明らかにして解決策を提…