AI 想越久越笨?Anthropic 最新研究震撼業界,模型越推理越跑偏,還自信滿滿腦補出一整段錯誤邏輯。
這不是 Bug,是一種全新的現象,名字叫做 Inverse Scaling in Test-Time Compute。
研究人員發現,在某些邏輯問題中,推理時間拉長反而讓模型表現變差,答案不只錯,還會越講越離譜。
這集我們就來聊聊:
📌 Anthropic 發現了什麼?哪些問題最容易讓模型越想越笨?
📌 為什麼推理時間拉長反而讓模型表現變差?
📌 我們該怎麼修?Tree-of-Thoughts、反思模組、平行推理各有什麼用?
📌 平行推理是不是解方?還是只是把廢話講成團?
📌 Gemini Deep Think 怎麼解題?為什麼它不會中招?
🎧 如果你對推理模型、模型幻覺、AI 訓練技巧、高階模型架構有興趣,這集你會聽得很過癮。
🔗 《矽谷輕鬆談》傳送門 ➡️ https://linktr.ee/jktech
(00:00) 開場
(01:12) 強推白天運動,真的有差!
(04:19) 五件事,讓你人生持續快樂
(07:12) Anthropic 最新研究:推理時間越長,模型反而越差?(08:49) 蘋果橘子陷阱題:你答得比 AI 還聰明嗎?
(10:29) 模型也會有「存在危機」?
(11:48) 為什麼 AI 越想越笨?
(14:09) 怎麼救?從 Prompt 到模型架構一次整理
(16:24) 平行推理是萬靈丹還是團體腦補?
(18:22) 可解釋性可以幫上什麼忙?
(19:43) 模型要重新分級了:高階推理模型登場
(20:24) Gemini Deep Think 最強模型拿下 IMO 金牌
(21:46) 從 2024 銀牌到 2025 金牌:Google 怎麼辦到的?
(24:18) 模型進步飛快,為什麼你用的還是一樣笨?
信息
- 节目
- 频率一周一更
- 发布时间2025年7月27日 UTC 12:00
- 长度26 分钟
- 季2
- 单集22
- 分级儿童适宜