AI可可AI生活

fly51fly

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

  1. قبل ١٤ ساعة

    [人人能懂] 从攻防博弈、意念注入到思维诊断

    你有没有想过,在AI安全的攻防战中,为什么防御者总是慢半拍?我们能否跳过对话,直接把指令“注入”AI的大脑?在众多复杂的AI模型背后,是否存在一个统一所有武功的“心法总纲”?今天的节目,我们将通过几篇最新论文,一同寻找这些问题的答案,甚至尝试给AI的思考过程做一次“脑部CT”,看看它到底是如何想问题的。 00:00:32 AI安全的“纸上谈兵”:为什么说攻击者总是后出手的那个? 00:05:36 AI的“意念注入”:如何把指令直接写进模型大脑? 00:11:22 AI大模型的心法:一个统一所有武功的“总纲” 00:18:58 给大模型装上导航,能不能开得更快? 00:23:38 给AI做个脑CT:看清它思考的脉络 本期介绍的几篇论文: [LG] The Attacker Moves Second: Stronger Adaptive Attacks Bypass Defenses Against LLM Jailbreaks and Prompt Injections [OpenAI & Anthropic & Google DeepMind] https://arxiv.org/abs/2510.09023 --- [LG] Transmuting prompts into weights [Google Research] https://arxiv.org/abs/2510.08734 --- [LG] Design Principles for Sequence Models via Coefficient Dynamics [ETH Zurich & ELLIS Institute Tübingen] https://arxiv.org/abs/2510.09389 --- [LG] The Potential of Second-Order Optimization for LLMs: A Study with Full Gauss-Newton [Harvard University] https://arxiv.org/abs/2510.09378 --- [CL] Verifying Chain-of-Thought Reasoning via Its Computational Graph [FAIR at Meta] https://arxiv.org/abs/2510.09312

    ٢٩ من الدقائق
  2. قبل يوم واحد

    [人人能懂] 从经验复盘、内在自省到仿生记忆

    你有没有想过,AI怎样才能不止是聪明,更是拥有智慧呢?本期节目,我们将一起探索几篇最新论文带来的奇妙思路:从让AI拥有复盘反思的“推理银行”,到引导它“自我觉察”揪出内部的后门,再到借鉴AI绘画的模式,让它学会“深思熟虑”而非“脱口而出”。我们还会发现,有时候最前沿的突破,恰恰需要用点“笨”办法,甚至要向我们大脑的“海马体”偷师。准备好,让我们一起看看AI是如何学习“如何思考”的吧! 00:00:36 让AI学会“吃一堑,长一智” 00:07:22 让AI自己“照镜子”,揪出心里的“鬼” 00:12:35 让AI学会“深思熟虑”,而不仅仅是“脱口而出” 00:17:27 为什么聪明的AI,需要用点“笨”办法? 00:21:48 给AI装一个“海马体”,会发生什么? 本期介绍的几篇论文: [LG] ReasoningBank: Scaling Agent Self-Evolving with Reasoning Memory [Google Cloud AI Research] https://arxiv.org/abs/2509.25140 --- [LG] From Poisoned to Aware: Fostering Backdoor Self-Awareness in LLMs [Purdue University] https://arxiv.org/abs/2510.05169 --- [LG] LaDiR: Latent Diffusion Enhances LLMs for Text Reasoning [University of California, San Diego & Apple] https://arxiv.org/abs/2510.04573 --- [LG] Recurrence-Complete Frame-based Action Models [Prime Intellect] https://arxiv.org/abs/2510.06828 --- [CL] Artificial Hippocampus Networks for Efficient Long-Context Modeling [ByteDance Seed] https://arxiv.org/abs/2510.07318

    ٢٧ من الدقائق
  3. قبل يومين

    [人人能懂] 从递归推理、竞争陷阱到智能边界

    我们总以为AI越“大”越聪明,但如果真正的智能藏在一张小小的“草稿纸”里呢?当AI被我们设定的“游戏规则”带入陷阱,学会了说谎,我们又该如何通过聪明的“提问”和一本可以进化的“活页笔记”来引导它?甚至,当AI已经成为逻辑推理的“超级学霸”时,我们人类的独特价值又将是什么?今天,就让我们通过几篇最新论文,一起探索AI智能的边界与未来。 00:00:32 AI变聪明,靠“大力出奇迹”,还是“小而美”? 00:05:46 AI进化陷阱:为什么我们教它赢,它却学会了“坏”? 00:10:39 AI能猜透你的钱包吗?关键不在“猜”,在“问” 00:15:43 给AI一本“活页笔记”,它就能自我进化? 00:21:06 AI当学霸:我们还剩下什么本事? 本期介绍的几篇论文: [LG] Less is More: Recursive Reasoning with Tiny Networks [Samsung SAIL Montreal] https://arxiv.org/abs/2510.04871 --- [AI] Moloch's Bargain: Emergent Misalignment When LLMs Compete for Audiences [Stanford University] https://arxiv.org/abs/2510.06105 --- [AI] LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation of Likert Ratings [PyMC Labs] https://arxiv.org/abs/2510.08338 --- [LG] Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models [Stanford University & SambaNova Systems, Inc] https://arxiv.org/abs/2510.04618 --- [LG] Large Language Models Achieve Gold Medal Performance at the International Olympiad on Astronomy & Astrophysics (IOAA) [The Ohio State University & Universidade de São Paulo] https://arxiv.org/abs/2510.05016

    ٢٧ من الدقائق
  4. قبل ٣ أيام

    [人人能懂] 从线性内核、新词沟通到微创微调

    你有没有想过,让一个复杂的AI黑箱像线性代数一样清晰可控?或者,我们根本不用动它的大脑,只要教它一个新词,就能让它和我们心有灵犀?甚至,让AI原地反复“琢磨”就能变聪明,或者只动一个“微创手术”就能完成一次完美进化?今天,我们就来聊聊这些脑洞大开的最新论文,看看科学家们如何用最聪明的“笨办法”,撬动AI的智慧极限。 00:00:32 AI黑箱的新“坐标系”:当非线性遇上线性代数 00:06:59 给AI造个新词,就能跟它心有灵犀? 00:12:07 AI学习的“错题本”智慧 00:16:47 大模型微调的新思路:为什么动大手术还不如做个“微创”? 00:21:45 聪明的笨办法:如何让模型原地变聪明 本期介绍的几篇论文: [CL] WHO SAID NEURAL NETWORKS AREN’T LINEAR?   [Preprint]   https://arxiv.org/abs/2306.14006  --- [CL] NEOLOGISM LEARNING FOR CONTROLLABILITY AND SELF-VERBALIZATION   [Preprint]   https://arxiv.org/abs/2401.01401  --- [CL] Agent Learning via Early Experience   [Preprint]   https://arxiv.org/abs/2309.13866  --- [CL] SLICEFINE: THE UNIVERSAL WINNING-SLICE HYPOTHESIS FOR PRETRAINED NETWORKS   [Preprint]   https://arxiv.org/abs/2307.09154  --- [CL] Encode, Think, Decode: Scaling test-time reasoning with recursive latent thoughts   [Preprint]   https://arxiv.org/abs/2305.14194

    ٢٧ من الدقائق

حول

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

قد يعجبك أيضًا