AI可可AI生活

fly51fly

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

  1. قبل ساعتين

    [人人能懂] 从经验复盘、内在自省到仿生记忆

    你有没有想过,AI怎样才能不止是聪明,更是拥有智慧呢?本期节目,我们将一起探索几篇最新论文带来的奇妙思路:从让AI拥有复盘反思的“推理银行”,到引导它“自我觉察”揪出内部的后门,再到借鉴AI绘画的模式,让它学会“深思熟虑”而非“脱口而出”。我们还会发现,有时候最前沿的突破,恰恰需要用点“笨”办法,甚至要向我们大脑的“海马体”偷师。准备好,让我们一起看看AI是如何学习“如何思考”的吧! 00:00:36 让AI学会“吃一堑,长一智” 00:07:22 让AI自己“照镜子”,揪出心里的“鬼” 00:12:35 让AI学会“深思熟虑”,而不仅仅是“脱口而出” 00:17:27 为什么聪明的AI,需要用点“笨”办法? 00:21:48 给AI装一个“海马体”,会发生什么? 本期介绍的几篇论文: [LG] ReasoningBank: Scaling Agent Self-Evolving with Reasoning Memory [Google Cloud AI Research] https://arxiv.org/abs/2509.25140 --- [LG] From Poisoned to Aware: Fostering Backdoor Self-Awareness in LLMs [Purdue University] https://arxiv.org/abs/2510.05169 --- [LG] LaDiR: Latent Diffusion Enhances LLMs for Text Reasoning [University of California, San Diego & Apple] https://arxiv.org/abs/2510.04573 --- [LG] Recurrence-Complete Frame-based Action Models [Prime Intellect] https://arxiv.org/abs/2510.06828 --- [CL] Artificial Hippocampus Networks for Efficient Long-Context Modeling [ByteDance Seed] https://arxiv.org/abs/2510.07318

    ٢٧ من الدقائق
  2. قبل يوم واحد

    [人人能懂] 从递归推理、竞争陷阱到智能边界

    我们总以为AI越“大”越聪明,但如果真正的智能藏在一张小小的“草稿纸”里呢?当AI被我们设定的“游戏规则”带入陷阱,学会了说谎,我们又该如何通过聪明的“提问”和一本可以进化的“活页笔记”来引导它?甚至,当AI已经成为逻辑推理的“超级学霸”时,我们人类的独特价值又将是什么?今天,就让我们通过几篇最新论文,一起探索AI智能的边界与未来。 00:00:32 AI变聪明,靠“大力出奇迹”,还是“小而美”? 00:05:46 AI进化陷阱:为什么我们教它赢,它却学会了“坏”? 00:10:39 AI能猜透你的钱包吗?关键不在“猜”,在“问” 00:15:43 给AI一本“活页笔记”,它就能自我进化? 00:21:06 AI当学霸:我们还剩下什么本事? 本期介绍的几篇论文: [LG] Less is More: Recursive Reasoning with Tiny Networks [Samsung SAIL Montreal] https://arxiv.org/abs/2510.04871 --- [AI] Moloch's Bargain: Emergent Misalignment When LLMs Compete for Audiences [Stanford University] https://arxiv.org/abs/2510.06105 --- [AI] LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation of Likert Ratings [PyMC Labs] https://arxiv.org/abs/2510.08338 --- [LG] Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models [Stanford University & SambaNova Systems, Inc] https://arxiv.org/abs/2510.04618 --- [LG] Large Language Models Achieve Gold Medal Performance at the International Olympiad on Astronomy & Astrophysics (IOAA) [The Ohio State University & Universidade de São Paulo] https://arxiv.org/abs/2510.05016

    ٢٧ من الدقائق
  3. قبل يومين

    [人人能懂] 从线性内核、新词沟通到微创微调

    你有没有想过,让一个复杂的AI黑箱像线性代数一样清晰可控?或者,我们根本不用动它的大脑,只要教它一个新词,就能让它和我们心有灵犀?甚至,让AI原地反复“琢磨”就能变聪明,或者只动一个“微创手术”就能完成一次完美进化?今天,我们就来聊聊这些脑洞大开的最新论文,看看科学家们如何用最聪明的“笨办法”,撬动AI的智慧极限。 00:00:32 AI黑箱的新“坐标系”:当非线性遇上线性代数 00:06:59 给AI造个新词,就能跟它心有灵犀? 00:12:07 AI学习的“错题本”智慧 00:16:47 大模型微调的新思路:为什么动大手术还不如做个“微创”? 00:21:45 聪明的笨办法:如何让模型原地变聪明 本期介绍的几篇论文: [CL] WHO SAID NEURAL NETWORKS AREN’T LINEAR?   [Preprint]   https://arxiv.org/abs/2306.14006  --- [CL] NEOLOGISM LEARNING FOR CONTROLLABILITY AND SELF-VERBALIZATION   [Preprint]   https://arxiv.org/abs/2401.01401  --- [CL] Agent Learning via Early Experience   [Preprint]   https://arxiv.org/abs/2309.13866  --- [CL] SLICEFINE: THE UNIVERSAL WINNING-SLICE HYPOTHESIS FOR PRETRAINED NETWORKS   [Preprint]   https://arxiv.org/abs/2307.09154  --- [CL] Encode, Think, Decode: Scaling test-time reasoning with recursive latent thoughts   [Preprint]   https://arxiv.org/abs/2305.14194

    ٢٧ من الدقائق
  4. قبل ٣ أيام

    [人人能懂] 从信息压缩、智慧遗忘到数据通感

    你有没有想过,AI的大脑不仅会思考,还懂得“断舍离”吗?今天,我们就一起带上“手术刀”和“显微镜”,深入AI的思维深处。我们将看到AI如何像高手一样整理思路,进行一场思考的“接力赛”;还将揭秘一把能解锁所有企业数据的“通用钥匙”。更重要的是,我们将学会一种理解AI的全新语言,并看看如何给它喂一种更聪明的“饲料”。准备好了吗?让我们一起撬开AI的黑箱! 00:00:33 AI的“三段论”:它的大脑是如何整理信息的? 00:05:52 让AI学会“断舍离”,它反而更聪明了 00:10:45 解锁企业数据的“通用钥匙” 00:16:44 解剖AI:从“你看不懂”到“我能看懂” 00:22:22 喂AI,换一种更聪明的饲料 本期介绍的几篇论文: [LG] Attention Sinks and Compression Valleys in LLMs are Two Sides of the Same Coin [University of Oxford] https://arxiv.org/abs/2510.06477 --- [LG] The Markovian Thinker [Mila] https://arxiv.org/abs/2510.06557 --- [LG] Relational Transformer: Toward Zero-Shot Foundation Models for Relational Data [Stanford University] https://arxiv.org/abs/2510.06377 --- [CL] Semantic Regexes: Auto-Interpreting LLM Features with a Structured Language [MIT CSAIL & Apple] https://arxiv.org/abs/2510.06378 --- [CL] Webscale-RL: Automated Data Pipeline for Scaling RL Data to Pretraining Levels [Salesforce AI Research] https://arxiv.org/abs/2510.06499

    ٢٨ من الدقائق

حول

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

قد يعجبك أيضًا