矽谷輕鬆談 Just Kidding Tech

S2E22 AI 想越久越笨?最強推理模型 Gemini Deep Think 怎麼破解?

AI 想越久越笨?Anthropic 最新研究震撼業界,模型越推理越跑偏,還自信滿滿腦補出一整段錯誤邏輯。

這不是 Bug,是一種全新的現象,名字叫做 Inverse Scaling in Test-Time Compute。

研究人員發現,在某些邏輯問題中,推理時間拉長反而讓模型表現變差,答案不只錯,還會越講越離譜。

這集我們就來聊聊:

📌 Anthropic 發現了什麼?哪些問題最容易讓模型越想越笨?

📌 為什麼推理時間拉長反而讓模型表現變差?

📌 我們該怎麼修?Tree-of-Thoughts、反思模組、平行推理各有什麼用?

📌 平行推理是不是解方?還是只是把廢話講成團?

📌 Gemini Deep Think 怎麼解題?為什麼它不會中招?

🎧 如果你對推理模型、模型幻覺、AI 訓練技巧、高階模型架構有興趣,這集你會聽得很過癮。

🔗 《矽谷輕鬆談》傳送門 ➡️ https://linktr.ee/jktech

(00:00) 開場

(01:12) 強推白天運動,真的有差!

(04:19) 五件事,讓你人生持續快樂

(07:12) Anthropic 最新研究:推理時間越長,模型反而越差?(08:49) 蘋果橘子陷阱題:你答得比 AI 還聰明嗎?

(10:29) 模型也會有「存在危機」?

(11:48) 為什麼 AI 越想越笨?

(14:09) 怎麼救?從 Prompt 到模型架構一次整理

(16:24) 平行推理是萬靈丹還是團體腦補?

(18:22) 可解釋性可以幫上什麼忙?

(19:43) 模型要重新分級了:高階推理模型登場

(20:24) Gemini Deep Think 最強模型拿下 IMO 金牌

(21:46) 從 2024 銀牌到 2025 金牌:Google 怎麼辦到的?

(24:18) 模型進步飛快,為什麼你用的還是一樣笨?