AI可可AI生活

fly51fly

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

  1. HACE 13 H

    [人人能懂] 从团体赛、免费午餐到优雅忘记

    想不想知道,如何通过一场“团体赛”规则,治好AI“偏科”的毛病?又如何不花一分钱,只靠一个古老的“背包问题”,就让AI训练效率飙升40%?甚至,我们将看到一个天生“失明”的AI,如何在想象力测试中击败人类。本期节目,我们将从最新的几篇论文出发,揭示AI如何学会团队合作、聪明用钱,甚至掌握了“蒙眼思考”和“断舍离”的智慧。 00:00:32 AI训练指南:如何让你的“学霸”不偏科? 00:05:50 AI训练的“免费午餐”:如何不花一分钱,让模型变得更聪明? 00:11:57 从“一指禅”到“组合拳”:AI学习的升级之路 00:16:54 AI的“心灵盲区”:它看不见,却想得更明白? 00:21:19 AI的记忆难题:如何优雅地“断舍离”? 本期介绍的几篇论文: [LG] Polychromic Objectives for Reinforcement Learning   [Stanford University]   https://arxiv.org/abs/2509.25424  --- [LG] Knapsack RL: Unlocking Exploration of LLMs via Optimizing Budget Allocation   [ByteDance Seed & The Chinese University of Hong Kong]   https://arxiv.org/abs/2509.25849  --- [LG] Learning to Reason as Action Abstractions with Scalable Mid-Training RL   [Apple]   https://arxiv.org/abs/2509.25810  --- [LG] Artificial Phantasia: Evidence for Propositional Reasoning-Based Mental Imagery in Large Language Models   [Northeastern University]   https://arxiv.org/abs/2509.23108  --- [LG] Expected Attention: KV Cache Compression by Estimating Attention from Future Queries Distribution   [NVIDIA & Sapienza University of Rome]   https://arxiv.org/abs/2510.00636

    26 min
  2. HACE 1 DÍA

    [人人能懂] 从大脑设计图、全局一致性到随机探索的价值

    这一期,我们将一起探索AI的“大脑”有没有可能像一张能被看懂的设计图,并看看AI如何反过来帮我们给维基百科“捉虫”。接着,我们会聊聊当AI“人多力量大”时,如何聪明地选出最佳方案,以及机器人模仿人类动作时,到底什么才是精髓。最后,一个颠覆性的发现会告诉我们:训练AI解题高手,最“笨”的方法有时竟然是最好的方法。 00:00:31 AI的“大脑”长啥样?一份来自未来的设计图 00:06:05 维基百科这位“巨人”,也会自己打自己吗? 00:10:22 人多不一定力量大,除非你懂得怎么选 00:14:43 机器人模仿秀:差的那口气,终于有人补上了 00:20:22 高手之路:有时,“最笨”的方法就是最好的方法 本期介绍的几篇论文: [LG] The Dragon Hatchling: The Missing Link between the Transformer and Models of the Brain   [Pathway]   https://arxiv.org/abs/2509.26507   --- [CL] Detecting Corpus-Level Knowledge Inconsistencies in Wikipedia with Large Language Models   [Stanford University]   https://arxiv.org/abs/2509.23233   --- [LG] The Unreasonable Effectiveness of Scaling Agents for Computer Use   [Simular Research]   https://arxiv.org/abs/2510.02250   --- [RO] OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction   [Amazon FAR]   https://arxiv.org/abs/2509.26633   --- [LG] Random Policy Valuation is Enough for LLM Reasoning with Verifiable Rewards   [Hong Kong University of Science and Technology & Kuaishou Technology]   https://arxiv.org/abs/2509.24981

    26 min
  3. HACE 2 DÍAS

    [人人能懂] 从打草稿、看地图到听取“少数派报告”

    你有没有想过,AI解决难题,是靠“刷题”蒙对答案,还是真的理解了过程?在本期节目中,我们将看到最新论文如何教会AI养成“打草稿”的思考习惯,又如何在没有标准答案时,学会倾听宝贵的“少数派声音”。让我们一起探索,AI如何从一个“会说话的机器”进化为一个真正的“思考者”。 00:00:29 AI如何学会思考?一个奖励机制的悄然革命 00:05:15 高手过招,如何不“钻牛角尖”? 00:09:45 AI的集体智慧:当少数派报告比多数票更重要 00:15:11 AI换个思路看世界:当化学家扔掉“说明书”之后 00:21:15 好模型,不只看结果,更要看过程 本期介绍的几篇论文: [LG] RLP: Reinforcement as a Pretraining Objective   [NVIDIA & CMU]   https://arxiv.org/abs/2510.01265  --- [LG] RLAD: Training LLMs to Discover Abstractions for Solving Reasoning Problems   [CMU & Stanford University]   https://arxiv.org/abs/2510.02263  --- [CL] RESTRAIN: From Spurious Votes to Signals -- Self-Driven RL with Self-Penalization   [Iowa State University & Meta & UW–Madison]   https://arxiv.org/abs/2510.02172  --- [LG] Transformers Discover Molecular Structure Without Graph Priors   [UC Berkeley]   https://arxiv.org/abs/2510.02259  --- [LG] Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models   [CMU]   https://arxiv.org/abs/2510.01544

    28 min
  4. HACE 3 DÍAS

    [人人能懂] 从并行思考、结构化学习到认知解密

    想知道AI如何像开“诸葛亮会”一样解决难题,又为何连小学生的乘法都搞不定吗?本期节目,几篇最新的论文将带我们一窥AI大脑的内部运作:看它如何上演“分身思考”的头脑风暴,如何被我们的“偏见”变得无聊。更重要的是,我将告诉你一个解锁它隐藏创造力的简单“咒语”,并揭示为何在训练AI时,不能只看“平均分”。 00:00:29 让AI更聪明的秘密:不是想得更长,而是想得更巧 00:06:28 分身思考:AI的大脑里如何开一场头脑风暴 00:11:13 为什么聪明的AI,竟学不会小学生的乘法? 00:18:03 为什么AI越来越无聊?换个问法,解锁它的隐藏技能 00:22:36 AI训练揭秘:你真的懂“平均”吗? 本期介绍的几篇论文: [LG] Rethinking Thinking Tokens: LLMs as Improvement Operators   [Meta Superintelligence Labs & Anthropic]   https://arxiv.org/abs/2510.01123   --- [LG] Thoughtbubbles: an Unsupervised Method for Parallel Thinking in Latent Space   [Stanford University]   https://arxiv.org/abs/2510.00219   --- [LG] Why Can't Transformers Learn Multiplication? Reverse-Engineering Reveals Long-Range Dependency Pitfalls   [University of Chicago & MIT & University of Waterloo]   https://arxiv.org/abs/2510.00184   --- [CL] Verbalized Sampling: How to Mitigate Mode Collapse and Unlock LLM Diversity   [Northeastern University & Stanford University]   https://arxiv.org/abs/2510.01171   [LG] Per-example gradients: a new frontier for understanding and improving optimizers   [Google Deepmind]   https://arxiv.org/abs/2510.00236   ---

    29 min

Acerca de

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

También te podría interesar