AI可可AI生活

fly51fly

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

  1. 17 小時前

    [人人能懂] 从信息压缩、智慧遗忘到数据通感

    你有没有想过,AI的大脑不仅会思考,还懂得“断舍离”吗?今天,我们就一起带上“手术刀”和“显微镜”,深入AI的思维深处。我们将看到AI如何像高手一样整理思路,进行一场思考的“接力赛”;还将揭秘一把能解锁所有企业数据的“通用钥匙”。更重要的是,我们将学会一种理解AI的全新语言,并看看如何给它喂一种更聪明的“饲料”。准备好了吗?让我们一起撬开AI的黑箱! 00:00:33 AI的“三段论”:它的大脑是如何整理信息的? 00:05:52 让AI学会“断舍离”,它反而更聪明了 00:10:45 解锁企业数据的“通用钥匙” 00:16:44 解剖AI:从“你看不懂”到“我能看懂” 00:22:22 喂AI,换一种更聪明的饲料 本期介绍的几篇论文: [LG] Attention Sinks and Compression Valleys in LLMs are Two Sides of the Same Coin [University of Oxford] https://arxiv.org/abs/2510.06477 --- [LG] The Markovian Thinker [Mila] https://arxiv.org/abs/2510.06557 --- [LG] Relational Transformer: Toward Zero-Shot Foundation Models for Relational Data [Stanford University] https://arxiv.org/abs/2510.06377 --- [CL] Semantic Regexes: Auto-Interpreting LLM Features with a Structured Language [MIT CSAIL & Apple] https://arxiv.org/abs/2510.06378 --- [CL] Webscale-RL: Automated Data Pipeline for Scaling RL Data to Pretraining Levels [Salesforce AI Research] https://arxiv.org/abs/2510.06499

    28 分鐘
  2. 1 天前

    [人人能懂] 从自动化科研、隐式密度到神经元剪枝

    我们总在惊叹AI能做什么,但今天,我想带你深入一步,看看AI究竟是如何工作的。我们将从一个全新的视角出发,把AI看作一位可以独立搞科研、甚至超越人类专家的“科研搭ADC”;接着,我们会像做脑部扫描一样,窥探AI如何偷偷地给世间万物打上“常见”或“罕见”的标签,并发现它连“偷懒”都进化到了神经元级别。最后,我们将探讨如何给这个日益强大的伙伴戴上一个数学意义上绝对安全的“紧箍咒”,以及一个惊人的发现——有时决定它表现的,竟只是一个微不足道的标点符号。准备好了吗?让我们一起潜入AI的奇妙内心。 00:00:45 你的下一位科研搭档,不是人 00:07:20 AI模型不能说的秘密:它如何给万物打分 00:12:57 聪明的大模型,连偷懒都这么有技术含量 00:18:02 AI的紧箍咒,怎么念? 00:23:25 你和AI沟通的秘密,藏在一个标点里 本期介绍的几篇论文: [AI] Barbarians at the Gate: How AI is Upending Systems Research [UC Berkeley] https://arxiv.org/abs/2510.06189 --- [LG] Gaussian Embeddings: How JEPAs Secretly Learn Your Data Density [Meta-FAIR] https://arxiv.org/abs/2510.05949 --- [CL] Mixture of Neuron Experts [Microsoft & Tsinghua University] https://arxiv.org/abs/2510.05781 --- [LG] VeriGuard: Enhancing LLM Agent Safety via Verified Code Generation [Google Cloud AI Research] https://arxiv.org/abs/2510.05156 --- [CL] A Single Character can Make or Break Your LLM Evals [FAIR at Meta] https://arxiv.org/abs/2510.05152

    28 分鐘
  3. 2 天前

    [人人能懂] 从不对称数据、自我审视到代码世界模型

    今天我们来聊聊,怎样才能更聪明地培养一个AI,而不只是一味地堆砌数据和算力。我们会探讨,AI的“童年教育”怎样才能事半功倍?它又是如何学会像我们一样“先打草稿再修改”来提升工作效率的?从把AI变成程序员,到解开它“长考”反而犯错的谜团,再到给训练过程安装“涡轮增压”,最新几篇论文将刷新你对AI学习方式的认知。 00:00:32 AI界的“鸡娃”指南 00:05:12 AI写作提速:先打草稿,再一笔修正 00:09:32 让AI下棋?不如让它当个“规则翻译官” 00:14:52 AI“长考”之后,为什么反而会出错? 00:20:56 AI训练的快车道:最后一层,我们算出来 本期介绍的几篇论文: [LG] Front-Loading Reasoning: The Synergy between Pretraining and Post-Training Data   [NVIDIA & CMU]   https://arxiv.org/abs/2510.03264  --- [LG] Self-Speculative Masked Diffusions   [Google DeepMind]   https://arxiv.org/abs/2510.03929  --- [LG] Code World Models for General Game Playing   [Google DeepMind]   https://arxiv.org/abs/2510.04542  --- [LG] Understanding the Role of Training Data in Test-Time Scaling   [University of Southern California & University of California Los Angeles]   https://arxiv.org/abs/2510.03605  --- [LG] Closed-Form Last Layer Optimization   [Google Deep & Mind University of Tubingen & Secondmind]   https://arxiv.org/abs/2510.04606

    26 分鐘
  4. 3 天前

    [人人能懂] 当AI学会捏橡皮泥、装硬盘、请私教

    想让AI更聪明,除了把它造得更大,还有没有更巧妙的办法?本期我们要聊的几篇最新论文,就提供了令人拍案叫绝的答案。我们将看到,AI训练背后藏着一个关乎结构手术的“秘密开关”,可以给它装上按需调用的“外挂硬盘”,甚至不用开刀就能为它配备私人教练。最后,我们还会探讨,如何通过保护一点“笨拙”的火花和调节一个“创意旋钮”,来彻底释放AI的潜能。 00:00:34 人工智能训练的秘密开关:捏橡皮泥还是合并黏土? 00:04:54 给大模型装个“外挂硬盘”,会发生什么? 00:09:44 AI界的私教课:如何不“开刀”就改造一个大模型 00:15:12 为什么最聪明的学生,也需要一点“笨”想法? 00:20:32 解锁AI潜能:你只差一个“旋钮” 本期介绍的几篇论文: [LG] Topological Invariance and Breakdown in Learning [University of Michigan & MIT] https://arxiv.org/abs/2510.02670 --- [CL] Pretraining with hierarchical memories: separating long-tail and common knowledge [Apple] https://arxiv.org/abs/2510.02375 --- [LG] How to Train Your Advisor: Steering Black-Box LLMs with Advisor Models [UC Berkeley] https://arxiv.org/abs/2510.02453 --- [LG] Low-probability Tokens Sustain Exploration in Reinforcement Learning with Verifiable Reward [Tencent] https://arxiv.org/abs/2510.03222 --- [LG] On the Role of Temperature Sampling in Test-Time Scaling [Stanford University] https://arxiv.org/abs/2510.02611

    27 分鐘

簡介

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

你可能也會喜歡