AI可可AI生活

fly51fly

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

  1. -20 Ч

    [人人能懂] 从打草稿、看地图到听取“少数派报告”

    你有没有想过,AI解决难题,是靠“刷题”蒙对答案,还是真的理解了过程?在本期节目中,我们将看到最新论文如何教会AI养成“打草稿”的思考习惯,又如何在没有标准答案时,学会倾听宝贵的“少数派声音”。让我们一起探索,AI如何从一个“会说话的机器”进化为一个真正的“思考者”。 00:00:29 AI如何学会思考?一个奖励机制的悄然革命 00:05:15 高手过招,如何不“钻牛角尖”? 00:09:45 AI的集体智慧:当少数派报告比多数票更重要 00:15:11 AI换个思路看世界:当化学家扔掉“说明书”之后 00:21:15 好模型,不只看结果,更要看过程 本期介绍的几篇论文: [LG] RLP: Reinforcement as a Pretraining Objective   [NVIDIA & CMU]   https://arxiv.org/abs/2510.01265  --- [LG] RLAD: Training LLMs to Discover Abstractions for Solving Reasoning Problems   [CMU & Stanford University]   https://arxiv.org/abs/2510.02263  --- [CL] RESTRAIN: From Spurious Votes to Signals -- Self-Driven RL with Self-Penalization   [Iowa State University & Meta & UW–Madison]   https://arxiv.org/abs/2510.02172  --- [LG] Transformers Discover Molecular Structure Without Graph Priors   [UC Berkeley]   https://arxiv.org/abs/2510.02259  --- [LG] Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models   [CMU]   https://arxiv.org/abs/2510.01544

    28 мин.
  2. -1 ДН.

    [人人能懂] 从并行思考、结构化学习到认知解密

    想知道AI如何像开“诸葛亮会”一样解决难题,又为何连小学生的乘法都搞不定吗?本期节目,几篇最新的论文将带我们一窥AI大脑的内部运作:看它如何上演“分身思考”的头脑风暴,如何被我们的“偏见”变得无聊。更重要的是,我将告诉你一个解锁它隐藏创造力的简单“咒语”,并揭示为何在训练AI时,不能只看“平均分”。 00:00:29 让AI更聪明的秘密:不是想得更长,而是想得更巧 00:06:28 分身思考:AI的大脑里如何开一场头脑风暴 00:11:13 为什么聪明的AI,竟学不会小学生的乘法? 00:18:03 为什么AI越来越无聊?换个问法,解锁它的隐藏技能 00:22:36 AI训练揭秘:你真的懂“平均”吗? 本期介绍的几篇论文: [LG] Rethinking Thinking Tokens: LLMs as Improvement Operators   [Meta Superintelligence Labs & Anthropic]   https://arxiv.org/abs/2510.01123   --- [LG] Thoughtbubbles: an Unsupervised Method for Parallel Thinking in Latent Space   [Stanford University]   https://arxiv.org/abs/2510.00219   --- [LG] Why Can't Transformers Learn Multiplication? Reverse-Engineering Reveals Long-Range Dependency Pitfalls   [University of Chicago & MIT & University of Waterloo]   https://arxiv.org/abs/2510.00184   --- [CL] Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity   [Northeastern University & Stanford University]   https://arxiv.org/abs/2510.01171   [LG] Per-example gradients: a new frontier for understanding and improving optimizers   [Google Deepmind]   https://arxiv.org/abs/2510.00236   ---

    29 мин.
  3. -2 ДН.

    [人人能懂] 从本质创造、跨界通感到无知之智

    本期节目,我们将潜入AI的“思想厨房”,看看它如何像分子料理大师一样,在抽象的“风味空间”里低成本地创造出绝妙品味。我们还会揭秘AI的“通感”天赋,探索为何只“读书”的AI,竟能通过代码和数学“看懂”世界。更进一步,我们将见证AI世界里“侦探”与“法官”的诞生,看两种AI如何协作,确保推理的铁证如山。最后,我们将探讨一种让AI学会“无知之智”的深刻方法,明白承认“不知道”为何是更高级的智慧,让我们马上开始! 00:00:39 “造句”不如“造意”:一种让AI低成本学会“好品味”的新方法 00:05:12 AI界的“万能诊断仪”:大道至简,用“读心术”取代“望闻问切” 00:10:22 AI的“通感”:只“读书”的AI,为何能“看懂”世界? 00:15:26 AI当“侦探”,谁来当“法官”?—— 一种让AI的推理靠谱起来的新方法 00:20:35 AI的“无知之智”:最高级的智慧,是承认“我不知道” [CL] Limited Preference Data? Learning Better Reward Model with Latent Space Synthesis   [University of Wisconsin-Madison & Nanyang Technological University]   https://arxiv.org/abs/2509.26074   --- [CL] Regression Language Models for Code   [Cornell University & Google]   https://arxiv.org/abs/2509.26476   --- [LG] Learning to See Before Seeing: Demystifying LLM Visual Priors from Language Pre-training   [Meta Superintelligence Labs]   https://arxiv.org/abs/2509.26625   --- [LG] Towards Verified Code Reasoning by LLMs   [University of Texas at Austin & Google DeepMind]   https://arxiv.org/abs/2509.26546   --- [CL] TruthRL: Incentivizing Truthful LLMs via Reinforcement Learning   [Meta Reality Labs]   https://arxiv.org/abs/2509.25760

    26 мин.
  4. -3 ДН.

    [人人能懂] 从梦境修炼、真实互动到思维几何

    今天,我们将一起潜入AI的“内心世界”,探索几篇极具启发性的最新论文。我们将见证AI如何通过“梦中修炼”掌握复杂技能,又如何走出实验室,向真实的普通用户拜师学艺。我们还会首次窥见AI“大脑”发育的完整三部曲,并学习如何像侦探一样,从AI的“思考过程”中识别出它独特的性格。最后,我们将揭示一个惊人的记忆悖论:为何对AI来说,“记性太好”反而可能是一种诅咒? 00:00:36 AI的“梦中修炼”:如何在虚拟世界里,炼成绝世武功? 00:05:50 AI走出“象牙塔”:真实的用户,才是最好的老师 00:10:55 文如其人,AI如其思:我们能从“思考过程”看出AI的性格吗? 00:16:34 AI“大脑”的发育三部曲:从牙牙学语到融会贯通 00:21:42 AI的记忆悖论:为何“记性太好”,反而让你“忘得更快”? 本期介绍的几篇论文: [LG] Training Agents Inside of Scalable World Models   [Google DeepMind]   https://arxiv.org/abs/2509.24527  --- [LG] The Era of Real-World Human Interaction: RL from User Conversations   [FAIR at Meta]   https://arxiv.org/abs/2509.25137  --- [CL] Your thoughts tell who you are: Characterize the reasoning patterns of LRMs   [Meta Superintelligence Labs & Harvard University]   https://arxiv.org/abs/2509.24147  --- [LG] Tracing the Representation Geometry of Language Models from Pretraining to Post-training   [McGill University & UC Berkeley]   https://arxiv.org/abs/2509.23024  --- [LG] Short window attention enables long-term memorization   [Ecole Normale Supérieure Paris Saclay & Johannes Kepler University Linz & Meta FAIR]   https://arxiv.org/abs/2509.24552

    27 мин.

Об этом подкасте

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

Вам может также понравиться