最近OpenAI的一篇论文再次引发了关于AI“幻觉”现象的讨论,究竟什么是AI幻觉?为什么这个看似“人工智能”的产物,却会自信满满地给出不准确甚至完全捏造的信息?本期我们的老朋友小欧惊喜回归,与主持人展开了一场深刻而轻松的对话,从OpenAI最新研究出发,层层剖析AI幻觉产生的底层机制,以及我们人类在其中扮演的角色。
你是否曾疑惑,为什么大模型宁愿“瞎编”也不肯承认“不知道”?本质上,幻觉是大模型在生成式预测时的一个自然副产品,因为它们没有真正的事实校验机制。大模型之所以在不知道答案时不直接说“我不知道”,是因为其设计目标是生成一个看起来连贯和有信息量的回答,倾向于给出一个最有可能的答案来保持对话的流畅性,它并没有内置一个明确的“我不知道”按钮。
本期节目将为你揭示,OpenAI的报告将幻觉原因大概分为两块:一是其预训练部分(知识问题),二是强化学习部分(人类筛选AI回答风格产生的问题)。在预训练阶段,对于那些重复出现次数少、难以有确凿记忆的“长尾信息”,大模型很难判断其对错,从而容易编造。而在强化学习过程中,人类的反馈又可能让模型更倾向于在不确定的情况下也尽量给出一个答案,哪怕这个答案是错的。嘉宾通过“AI高考”的比喻形象地解释了,人类通过筛选分数高的大模型,无意中选择了那些“会蒙题”的模型,导致它们宁愿瞎蒙也不愿不回答。
但AI幻觉并非无解。OpenAI的研究发现,如果你在提示词中明确告诉大模型“请你在确认你的回答的置信度大于90%时再回答,否则就不回答”,并辅以“答对了得十分,答错了扣两分”的判断标准,大模型的准确幻觉率下降了30%,且正确回答的概率并未下降。这相当于为大模型设定了一个更清晰的游戏规则,让它在回答时更有策略性。
然而,幻觉是否可以彻底根除?节目中也提出深层次的思考:幻觉与人类的创造力、想象力之间存在着微妙的联系,想要完全消除幻觉,可能同时也会抹杀掉一些创造的火花。本期节目不仅提供了OpenAI官方推荐的,能有效降低AI幻觉的实用技巧,更将带你从哲学层面重新审视AI的本质。 究竟是消除幻觉,还是拥抱它带来的可能性?听完这期,你将对AI幻觉有一个全新的、不焦虑的理解。
金句摘抄:
• “所以简单来说,幻觉是大模型在生成式预测时的一个自然副产品。因为他们没有真正的事实校验机制。”
• “它并没有内置一个明确的我不知道按钮,相反它会根据已有的知识尽量编织出一个听起来合理的回答,这正是幻觉产生的一个重要原因。”
• “你想把幻觉消除,可能同时智慧也就消除了。人类之所以从猿人变成人,也许就因为他会想象,会讲故事。”
你将会听到:
0:35 AI幻觉的本质:为什么大模型会“说谎”?
05:52 OpenAI揭秘:幻觉的根源竟是知识缺陷与人类筛选?
10:19 人类是“帮凶”?我们的筛选机制如何让AI更爱“瞎蒙”?
16:01 实测有效!OpenAI教你一句话降低AI幻觉率30%!
25:10 深度思考:如果彻底消除幻觉,AI还会拥有“智慧”和“创造力”吗?
Información
- Programa
- Publicado14 de septiembre de 2025, 12:00 a.m. UTC
- Duración29 min
- ClasificaciónApto