AI可可AI生活

fly51fly

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

  1. 13小時前

    [人人能懂] 从灵感溯源、速读秘诀到诚实AI

    你有没有想过,最顶尖的AI,它的智慧可能不是体现在无所不知,而是敢于坦诚地说出“我不知道”?本期节目,我们将一起探索AI如何学会这项宝贵的品质。我们还会揭秘,如何给AI装上一双“眼睛”让它在嘈杂派对里也能跟你轻松对话,如何用一个优美的公式教会它“速读”长篇报告,甚至让一份200页的PDF自己开口说话,并在一秒内找到AI画作的灵感“祖先”。准备好了吗?让我们一起进入AI更深邃、更智慧的内心世界。 00:00:39 AI画画的灵感,能秒速溯源吗? 00:06:29 大模型读书慢?给它一副聪明的“速读眼镜” 00:12:13 给AI一双眼睛,让它学会“察言观色” 00:16:37 AI的最高智慧,是承认自己不知道 00:22:56 如何让一份200页的PDF,自己开口说话? 本期介绍的几篇论文: [CV] Fast Data Attribution for Text-to-Image Models [CMU & Adobe Research & UC Berkeley] https://arxiv.org/abs/2511.10721 --- [LG] Optimizing Mixture of Block Attention [MIT] https://arxiv.org/abs/2511.11571 --- [CL] AV-Dialog: Spoken Dialogue Models with Audio-Visual Input [University of Washington & Meta AI Research] https://arxiv.org/abs/2511.11124 --- [LG] Honesty over Accuracy: Trustworthy Language Models through Reinforced Hesitation [Toyota Technological Institute at Chicago & University of California, San Diego] https://arxiv.org/abs/2511.11500 --- [CL] Information Extraction From Fiscal Documents Using LLMs [Google Inc & XKDR Forum] https://arxiv.org/abs/2511.10659

    29 分鐘
  2. 1日前

    [人人能懂] 从组建乐团、自我修炼到深度思考

    想让AI更聪明,答案一定是用更多数据喂出个更大的模型吗?本期我们要聊点不一样的:当AI不再单打独斗,而是组建起一支“交响乐团”;当它不再追求更大,而是学会了“反复琢磨”;当它甚至能像武林高手一样开启“自我修炼”。我们将从几篇最新论文出发,看看AI如何从理解微观世界的“集体舞步”,到为自己的想象力配上一本“物理说明书”,走上一条更聪明的进化之路。 00:00:31 AI制药,也需要一个“交响乐团”? 00:05:32 人工智能的“自我修炼”手册 00:11:46 如何预测一群舞者的集体舞步? 00:17:16 AI变聪明的捷径:不是更大,而是更深 00:22:03 给AI视频配一本“物理说明书” 本期介绍的几篇论文: [LG] MADD: Multi-Agent Drug Discovery Orchestra   [ITMO University]   https://arxiv.org/abs/2511.08217  --- [LG] AgentEvolver: Towards Efficient Self-Evolving Agent System   [Tongyi Lab]   https://arxiv.org/abs/2511.10395  --- [LG] Entangled Schrödinger Bridge Matching   [University of Pennsylvania & Duke-NUS Medical School]   https://arxiv.org/abs/2511.07406  --- [CL] Teaching Pretrained Language Models to Think Deeper with Retrofitted Recurrence   [University of Maryland & New York University]   https://arxiv.org/abs/2511.07384  --- [RO] Robot Learning from a Physical World Model   [Google DeepMind & USC]   https://arxiv.org/abs/2511.07416

    27 分鐘
  3. 2日前

    [人人能懂] 乐高说明书、喜剧大赛与科研空间站

    你有没有想过,AI的大脑里到底是什么样?今天我们就来一次深度探险,看看最新论文如何为我们绘制出AI的“乐高说明书”,又如何让它兼顾深思熟虑与脱口而出。我们还会把AI送上喜剧舞台,一探它那难以共情的奇特笑点,甚至把它放进一个虚拟“空间站”,看它能否成为真正的科学家。最后,我们会聊一个大趋势:AI正在悄悄地从遥远的云端,搬到你我的身边。 00:00:31 AI的“乐高”说明书 00:06:17 让AI既能深思熟虑,又能脱口而出 00:11:07 AI的笑点,为什么我们Get不到? 00:15:29 AI科学家,告别流水线 00:21:19 AI大变局:从云端到你身边 本期介绍的几篇论文: [LG] Weight-sparse transformers have interpretable circuits   [OpenAI]   https://cdn.openai.com/pdf/41df8f28-d4ef-43e9-aed2-823f9393e470/circuit-sparsity-paper.pdf --- [CL] TiDAR: Think in Diffusion, Talk in Autoregression   [NVIDIA]   https://arxiv.org/abs/2511.08923  --- [CL] Assessing the Capabilities of LLMs in Humor: A Multi-dimensional Analysis of Oogiri Generation and Evaluation   [Hitotsubashi University]   https://arxiv.org/abs/2511.09133  --- [LG] The Station: An Open-World Environment for AI-Driven Discovery   [Dualverse AI]   https://arxiv.org/abs/2511.06309  --- [LG] Intelligence per Watt: Measuring Intelligence Efficiency of Local AI   [Stanford University]   https://arxiv.org/abs/2511.07885

    27 分鐘
  4. 3日前

    [人人能懂] 从大师风范到听懂音乐

    如何让AI更聪明、更可靠?这期节目,我们将颠覆你的好几个固有认知。我们会发现,让小模型拥有大师风范的最佳方式,竟是引入一场“鉴赏家”参与的博弈;而AI最好的记忆方法,有时反而是那个最“笨”的。接着,我们将探讨如何用一张“考试大纲”驯服AI,又如何给它内置一个“苏格拉底”进行自我纠错。最后,我们还会揭秘,AI是如何从仅仅“听到”音乐,进化到能够“听懂”音乐背后的高级情感与故事的。 00:00:37 让你的小模型,拥有宗师风范 00:05:09 为什么说,最笨的方法,是AI最好的记忆方法? 00:10:30 AI的“考试大纲”:我们如何让它更听话? 00:15:54 如何让AI少犯错?给它一个内置的“苏格拉底” 00:21:06 从“好听”到“高级”:AI如何学会聊音乐? 本期介绍的几篇论文: [CL] Black-Box On-Policy Distillation of Large Language Models   [Microsoft Research]   https://arxiv.org/abs/2511.10643  --- [CL] Convomem Benchmark: Why Your First 150 Conversations Don't Need RAG   [Salesforce AI Research]   https://arxiv.org/abs/2511.10523  --- [CL] Rubric-Based Benchmarking and Reinforcement Learning for Advancing LLM Instruction Following   [Meta Superintelligence Labs & Princeton University]   https://arxiv.org/abs/2511.10507  --- [CL] SSR: Socratic Self-Refine for Large Language Model Reasoning   [Salesforce AI Research]   https://arxiv.org/abs/2511.10621  --- [AS] Music Flamingo: Scaling Music Understanding in Audio Language Models   [NVIDIA & University of Maryland]   https://arxiv.org/abs/2511.10289

    27 分鐘
  5. 4日前

    [人人能懂] 推演未来,思考多元,还能给想法“瘦身”

    你有没有想过,让AI更强大,除了把它做得更大,还有哪些更聪明的办法?今天我们就来聊聊几篇最新的论文,它们不约而同地指向了“思维品质”的提升。我们将看到AI如何学会像人一样看“大局”,如何用“人海战术”的群体智慧实现零失误,甚至如何拥有一个可以推演未来的“虚拟世界”。我们还会探讨,如何通过给AI的思维“剪枝”,以及鼓励“多样性”,让它变得既聪明又不无聊。 00:00:34 让AI学会“看大局”,会发生什么? 00:05:38 “笨蛋”的胜利:当AI学会了“人海战术” 00:10:57 如何给AI一个可以推演未来的世界? 00:16:21 为什么AI越来越像个只会复读的“乖孩子”? 00:21:23 给AI的思维“剪枝”,让它想得又快又好 本文介绍的几篇论文: [LG] Aligning machine and human visual representations across abstraction levels [University of Maryland] https://arxiv.org/abs/2505.11080 --- [LG] Solving a Million-Step LLM Task with Zero Errors [Cognizant AI Lab] https://arxiv.org/abs/2511.09030 --- [CV] PAN: A World Model for General, Interactable, and Long-Horizon World Simulation [Mohamed bin Zayed University of Artificial Intelligence] https://arxiv.org/abs/2511.09057 --- [CL] Diverse Preference Learning for Capabilities and Alignment [MIT CSAIL] https://arxiv.org/abs/2511.08594 --- [CL] Chopping Trees: Semantic Similarity Based Dynamic Pruning for Tree-of-Thought Reasoning [Algoverse AI Research] https://arxiv.org/abs/2511.08595

    27 分鐘
  6. 5日前

    [人人能懂] 大道至简、精准打击与自我解释

    今天我们来聊一个特别有意思的话题:AI的“内心世界”。我们总惊叹于AI的强大,但它在学习时,究竟是大刀阔斧地改造自己,还是在悄悄地“偷懒”走捷径?当AI开始模仿人类的身体,甚至尝试像科学家一样思考,它离真正的创造还有多远?更重要的是,我们如何才能听到AI的“真心话”,而不是精心编排的场面话?今天,我们就从五篇最新论文出发,一起探寻AI大脑深处的秘密。 00:00:36 AI训练的“第一性原理”:大道至简 00:06:38 机器人告别“笨拙”的秘密武器 00:11:49 AI进化的秘密:为什么最聪明的学习,看起来最“懒”? 00:18:46 AI的“真心话”,能教出来吗? 00:22:51 AI当“科学家”,靠的是两位“老师” 本期介绍的几篇论文: [LG] LeJEPA: Provable and Scalable Self-Supervised Learning Without the Heuristics [Brown University & New York University] https://arxiv.org/abs/2511.08544 --- [RO] SONIC: Supersizing Motion Tracking for Natural Humanoid Whole-Body Control [Nvidia] https://arxiv.org/abs/2511.07820 --- [LG] The Path Not Taken: RLVR Provably Learns Off the Principals [Meta AI & The University of Texas at Austin] https://arxiv.org/abs/2511.08567 --- [CL] Training Language Models to Explain Their Own Computations [Transluce & MIT CSAIL] https://arxiv.org/abs/2511.08579 --- [CL] AlphaResearch: Accelerating New Algorithm Discovery with Language Models [Tsinghua University & New York University & Yale University] https://arxiv.org/abs/2511.08522

    28 分鐘
  7. 6日前

    [人人能懂] 从战争迷雾、自我进化到快马绣花

    今天我们不只聊AI能做什么,而是要深入它的“内心”,看看它是如何思考和学习的。我们将一起探索,AI如何在信息不足的“战争迷雾”中做出超人决策,又如何像滚雪球一样自我进化,解决超长难题。我们还会看到,AI如何被“逼”着建立起真正的内心世界,甚至它的训练过程,竟然能用中学物理的理想气体定律来解释!准备好了吗?让我们一起揭开这些聪明策略的神秘面纱,看看AI如何实现从“死记硬背”到“融会贯通”,从“慢工细活”到“快马绣花”的华丽变身。 00:00:39 信息不足,如何做出“超人”决策? 00:06:35 AI如何学会“举一反三”? 00:12:54 AI的“顿悟”:如何让机器不只记忆,更懂世界 00:17:08 AI炼丹炉里的理想气体 00:22:22 AI训练的“既要又要”:如何让快马也能绣花? 本期介绍的几篇论文: [LG] Superhuman AI for Stratego Using Self-Play Reinforcement Learning and Test-Time Search [CMU & NYU Tandon School of Engineering & Stanford University] https://arxiv.org/abs/2511.07312 --- [LG] Transformers Provably Learn Chain-of-Thought Reasoning with Length Generalization [University of Pennsylvania & CMU] https://arxiv.org/abs/2511.07378 --- [LG] Next-Latent Prediction Transformers Learn Compact World Models [Microsoft Research] https://arxiv.org/abs/2511.05963 --- [LG] Can Training Dynamics of Scale-Invariant Neural Networks Be Explained by the Thermodynamics of an Ideal Gas? [Constructor University & Mila] https://arxiv.org/abs/2511.07308 --- [LG] TNT: Improving Chunkwise Training for Test-Time Memorization [Google Research & University of Southern California] https://arxiv.org/abs/2511.07343

    28 分鐘
  8. 11月11日

    [人人能懂] 装上油门、学会省钱、看穿谎言

    本期节目,我们将一起钻进AI的大脑,看看最新的研究如何让它学会像老司机一样“一心二用”,同时又为何会像疲惫的保安,被一大堆“废话”轻松绕过安全防线。我们不仅要揭开大模型“过度自信”的真相,给它装上一个能随时切换快慢的“油门”,最后,再分享一个反常识的省钱妙招:如何用盖小平房的成本,最终建成一栋摩天大楼。准备好,我们马上出发! 00:00:32 让AI学会“一心二用”,有多难? 00:05:50 AI安全的阿喀琉斯之踵:当“废话”也能成为武器 00:09:59 大模型,你到底有多自信? 00:15:26 AI的油门:快与好,我全都要 00:20:18 训练AI,一个反常识的省钱妙招 本期介绍的几篇论文: [LG] Real-Time Reasoning Agents in Evolving Environments   [Tsinghua University & Shanghai Jiao Tong University & Georgia Institute of Technology]   https://arxiv.org/abs/2511.04898  --- [LG] Jailbreaking in the Haystack   [CMU]   https://arxiv.org/abs/2511.04707  --- [CL] Trained on Tokens, Calibrated on Concepts: The Emergence of Semantic Calibration in LLMs   [Apple]   https://arxiv.org/abs/2511.04869  --- [LG] Attention and Compression is all you need for Controllably Efficient Language Models   [New York University]   https://arxiv.org/abs/2511.05313  --- [LG] Deep Progressive Training: scaling up depth capacity of zero/one-layer models   [Meta FAIR]   https://arxiv.org/abs/2511.04981

    27 分鐘

簡介

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

你可能也會喜歡