AI可可AI生活

fly51fly

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

  1. 12시간 전

    [人人能懂] 从自动化科研、隐式密度到神经元剪枝

    我们总在惊叹AI能做什么,但今天,我想带你深入一步,看看AI究竟是如何工作的。我们将从一个全新的视角出发,把AI看作一位可以独立搞科研、甚至超越人类专家的“科研搭ADC”;接着,我们会像做脑部扫描一样,窥探AI如何偷偷地给世间万物打上“常见”或“罕见”的标签,并发现它连“偷懒”都进化到了神经元级别。最后,我们将探讨如何给这个日益强大的伙伴戴上一个数学意义上绝对安全的“紧箍咒”,以及一个惊人的发现——有时决定它表现的,竟只是一个微不足道的标点符号。准备好了吗?让我们一起潜入AI的奇妙内心。 00:00:45 你的下一位科研搭档,不是人 00:07:20 AI模型不能说的秘密:它如何给万物打分 00:12:57 聪明的大模型,连偷懒都这么有技术含量 00:18:02 AI的紧箍咒,怎么念? 00:23:25 你和AI沟通的秘密,藏在一个标点里 本期介绍的几篇论文: [AI] Barbarians at the Gate: How AI is Upending Systems Research [UC Berkeley] https://arxiv.org/abs/2510.06189 --- [LG] Gaussian Embeddings: How JEPAs Secretly Learn Your Data Density [Meta-FAIR] https://arxiv.org/abs/2510.05949 --- [CL] Mixture of Neuron Experts [Microsoft & Tsinghua University] https://arxiv.org/abs/2510.05781 --- [LG] VeriGuard: Enhancing LLM Agent Safety via Verified Code Generation [Google Cloud AI Research] https://arxiv.org/abs/2510.05156 --- [CL] A Single Character can Make or Break Your LLM Evals [FAIR at Meta] https://arxiv.org/abs/2510.05152

    28분
  2. 1일 전

    [人人能懂] 从不对称数据、自我审视到代码世界模型

    今天我们来聊聊,怎样才能更聪明地培养一个AI,而不只是一味地堆砌数据和算力。我们会探讨,AI的“童年教育”怎样才能事半功倍?它又是如何学会像我们一样“先打草稿再修改”来提升工作效率的?从把AI变成程序员,到解开它“长考”反而犯错的谜团,再到给训练过程安装“涡轮增压”,最新几篇论文将刷新你对AI学习方式的认知。 00:00:32 AI界的“鸡娃”指南 00:05:12 AI写作提速:先打草稿,再一笔修正 00:09:32 让AI下棋?不如让它当个“规则翻译官” 00:14:52 AI“长考”之后,为什么反而会出错? 00:20:56 AI训练的快车道:最后一层,我们算出来 本期介绍的几篇论文: [LG] Front-Loading Reasoning: The Synergy between Pretraining and Post-Training Data   [NVIDIA & CMU]   https://arxiv.org/abs/2510.03264  --- [LG] Self-Speculative Masked Diffusions   [Google DeepMind]   https://arxiv.org/abs/2510.03929  --- [LG] Code World Models for General Game Playing   [Google DeepMind]   https://arxiv.org/abs/2510.04542  --- [LG] Understanding the Role of Training Data in Test-Time Scaling   [University of Southern California & University of California Los Angeles]   https://arxiv.org/abs/2510.03605  --- [LG] Closed-Form Last Layer Optimization   [Google Deep & Mind University of Tubingen & Secondmind]   https://arxiv.org/abs/2510.04606

    26분
  3. 2일 전

    [人人能懂] 当AI学会捏橡皮泥、装硬盘、请私教

    想让AI更聪明,除了把它造得更大,还有没有更巧妙的办法?本期我们要聊的几篇最新论文,就提供了令人拍案叫绝的答案。我们将看到,AI训练背后藏着一个关乎结构手术的“秘密开关”,可以给它装上按需调用的“外挂硬盘”,甚至不用开刀就能为它配备私人教练。最后,我们还会探讨,如何通过保护一点“笨拙”的火花和调节一个“创意旋钮”,来彻底释放AI的潜能。 00:00:34 人工智能训练的秘密开关:捏橡皮泥还是合并黏土? 00:04:54 给大模型装个“外挂硬盘”,会发生什么? 00:09:44 AI界的私教课:如何不“开刀”就改造一个大模型 00:15:12 为什么最聪明的学生,也需要一点“笨”想法? 00:20:32 解锁AI潜能:你只差一个“旋钮” 本期介绍的几篇论文: [LG] Topological Invariance and Breakdown in Learning [University of Michigan & MIT] https://arxiv.org/abs/2510.02670 --- [CL] Pretraining with hierarchical memories: separating long-tail and common knowledge [Apple] https://arxiv.org/abs/2510.02375 --- [LG] How to Train Your Advisor: Steering Black-Box LLMs with Advisor Models [UC Berkeley] https://arxiv.org/abs/2510.02453 --- [LG] Low-probability Tokens Sustain Exploration in Reinforcement Learning with Verifiable Reward [Tencent] https://arxiv.org/abs/2510.03222 --- [LG] On the Role of Temperature Sampling in Test-Time Scaling [Stanford University] https://arxiv.org/abs/2510.02611

    27분
  4. 3일 전

    [人人能懂] 从团体赛、免费午餐到优雅忘记

    想不想知道,如何通过一场“团体赛”规则,治好AI“偏科”的毛病?又如何不花一分钱,只靠一个古老的“背包问题”,就让AI训练效率飙升40%?甚至,我们将看到一个天生“失明”的AI,如何在想象力测试中击败人类。本期节目,我们将从最新的几篇论文出发,揭示AI如何学会团队合作、聪明用钱,甚至掌握了“蒙眼思考”和“断舍离”的智慧。 00:00:32 AI训练指南:如何让你的“学霸”不偏科? 00:05:50 AI训练的“免费午餐”:如何不花一分钱,让模型变得更聪明? 00:11:57 从“一指禅”到“组合拳”:AI学习的升级之路 00:16:54 AI的“心灵盲区”:它看不见,却想得更明白? 00:21:19 AI的记忆难题:如何优雅地“断舍离”? 本期介绍的几篇论文: [LG] Polychromic Objectives for Reinforcement Learning   [Stanford University]   https://arxiv.org/abs/2509.25424  --- [LG] Knapsack RL: Unlocking Exploration of LLMs via Optimizing Budget Allocation   [ByteDance Seed & The Chinese University of Hong Kong]   https://arxiv.org/abs/2509.25849  --- [LG] Learning to Reason as Action Abstractions with Scalable Mid-Training RL   [Apple]   https://arxiv.org/abs/2509.25810  --- [LG] Artificial Phantasia: Evidence for Propositional Reasoning-Based Mental Imagery in Large Language Models   [Northeastern University]   https://arxiv.org/abs/2509.23108  --- [LG] Expected Attention: KV Cache Compression by Estimating Attention from Future Queries Distribution   [NVIDIA & Sapienza University of Rome]   https://arxiv.org/abs/2510.00636

    26분

소개

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

좋아할 만한 다른 항목