Web Worker-AI程序员都爱听

Web Worker

Web Worker 播客是几个AI程序员闲聊的中文音频播客节目。节目将围绕程序员领域来瞎聊,聊资讯、聊职场、聊技术选型...... 只要是和 Web 开发有关的都可以聊。

  1. 6D AGO

    No.91 Kaiyi几十场AI面试后的总结:怎么成为懂 AI 的人

    节目简介本期节目在中关村创业大街线下录制,迎来时隔一年多的重磅嘉宾开翼——刚从加拿大微软归来,带着 GitHub Copilot 团队的一线实战经验。四位技术人深度拆解大模型的工作原理:从 Temperature 参数如何影响创造力,到 Cache 机制为何能让 API 便宜这么多;从 RAG 的完整最佳实践,到为什么大公司做不好大模型;从 AI 时代"2000 行单文件"的新开发范式,到程序员未来 1-5 年的动荡期预判。这不是科普向的入门课,而是一线工程师用真金白银试出来的实战经验分享。 本期要闻1. Temperature 参数的真相:创造力与稳定性的博弈开翼从大模型的基本原理讲起:模型本质是"下一个词预测器",每次生成时会输出多个候选词及其概率。Temperature 参数决定了选词策略——设为 0 时模型会 100% 选择概率最高的词,输出稳定但呆板;设得越大,模型越可能选择低概率词,创造力提升但不确定性增加。 "如果你的 temperature 设成 0,它百分之百会选择概率最大的词。所以它表现出来给我们的感觉就它变得呆板,创造力低,但是非常的稳定。" —— Kaiyi实战经验表明:翻译、数学题等需要精确输出的场景应将 temperature 设到最低;而写小说、创意文案等需要发散思维的场景则应调高。这个参数揭示了 AI 应用的核心权衡:没有万能配置,只有场景适配。 2. Cache 机制:为什么击中缓存能便宜这么多大模型的生成是迭代过程:每生成一个词,都要把已生成的所有词重新送回模型预测下一个。这就是为什么早期 ChatGPT 是"一个词一个词蹦出来"。Cache 机制缓存了已处理的 token,下次请求时可以复用前面的计算结果,大幅降低算力消耗。 "你会发现我所有大模型 API 都会告诉你,如果你击中了 cache 是多少钱,如果你没有击中缓存是多少钱。" —— Kaiyi"它缓存的就是我们'今天早上吃'这四个词,它就缓存在里边了。你下次再来,你是在后面又加了词,那就可以把之前那些结果拿出来去复用。" —— Kaiyi这解释了为什么 DeepSeek 等模型的缓存价格能降低"非常多"——不是慈善,而是真实的成本节省。开发者应该主动设计对话流,最大化缓存命中率。 3. Top-k 与 Top-p:另一个影响创造力的旋钮除了 temperature,Top-k 参数同样影响模型的选词策略。Top-k=2 意味着只从概率最高的前 2 个词中选择,Top-k=10 则从前 10 个词中选。OpenAI 官方文档明确建议:不要同时调整 temperature 和 Top-k,因为它们本质上影响同一件事,同时调整会让效果变得不可预测。 "OpenAI 的官方文档会告诉你,不要同时调整 temperature 和 Top-k,因为这两个本质影响是一个事儿,所以它会让你的调整变得没有那么的正交。" —— Kaiyi"一般是固定好了某一个再去调另一个。" —— Kaiyi这是典型的工程实践智慧:当两个参数相互耦合时,应该采用控制变量法,而不是盲目调参。 4. "贵但好用"的 Codex 与"快但冒烟"的 Claude开翼分享了在加拿大微软的实战经验:团队同时使用 Codex、Claude 和 Kimi,发现各有千秋。Codex 响应慢但生成的代码"直接可用";Claude 在 plan mode 下快速输出大量代码,但常因"兢兢业业干得太快"导致不可用。这种取舍让工程师不得不混用工具——有朋友直接充值 200 刀 Codex。 "Codex 的问题是速度特别慢,但实际生成效果确实不错。" —— Kaiyi"Claude 有时候就是兢兢业业干活特别快,给你代码特别多,但是有时候不可用。" —— Kaiyi这场工具之争揭示了当前 AI 编程的核心矛盾:速度与可靠性的永恒博弈。没有银弹,只有权衡。 5. 哈利波特测试:上下文塞满后的智能崩塌开翼抛出一个经典测试:将整本《哈利波特与魔法石》塞进模型上下文,再询问细节问题。结果令人意外——尽管模型拥有全部答案,却因上下文过载导致"召回能力急剧下降"。这个实验直指当前技术痛点:token 成本不仅关乎金钱,更影响模型的核心智能表现。 "当上下文塞满了之后,它的召回能力有些可能就看不到,以及它的智能一定会下降。" —— Kaiyi"把整本哈利波特塞进模型里问细节,他肯定有所有答案,但有时候回答不对。" —— Kaiyi这个残酷测试提醒我们:在追求长上下文能力时,开发者需警惕"塞得越多,忘得越快"的隐性陷阱。真正的智能或许不在于吞吐量,而在于精准提取。 6. RAG 最佳实践:从 Query 重写到 Re-rank开翼系统讲解了当前 RAG 的标准流程:首先用 embedding 模型将文档转为向量存入数据库;针对代码场景,应该同时 embed 代码本身和 LLM 生成的代码解释,双向量索引提升召回率;用户 query 进来后先做重写,将"这个城市"补全为"北京",并生成 3-5 个同义改写;每个改写检索 3-5 条文档,共得到 15 条候选;最后用 re-rank 模型重新排序,选出最相关的 3-5 条喂给大模型生成回复。 "如果你在 embedding 代码的时候,我们会先用一个小模型去给这个代码解释这个代码是干什么的。我在 embed 代码的时候生成一个向量,我在 embed 解释这段代码的地方生成一个向量,这两个向量同时可以索引这段代码。" —— Kaiyi"Query 重写也可以,因为单词有多义性,一般我们会把它重写成 3 到 5 个同意但是写法不同的句子,然后再把这 3 到 5 个向量去数据库里检索。" —— Kaiyi这套流程已经是业界共识,但每个环节都有优化空间——关键是理解原理,而不是照搬代码。 7. 为什么大公司做不好大模型开翼以亲身经历解释:大公司的决策链路太长,一个刚毕业的博士研究员提出天才想法,需要 1000 万美元训练资金时,在大公司的审批体系里"是不可能的"——每一层都要背书,失败了要背锅。而 OpenAI 这种创业公司可以把巨大资金和算力直接投给几个天才,甚至是博士实习生,让十个人试,成一个就沿着这个方向走。 "当我有一个天才的想法,我说我现在要需要 1000 万美元的训练资金,我要去验证我这个想法,在大公司的决策链路里是不可能的。" —— Kaiyi"OpenAI 这种创业公司,他们可以去把巨大的资金、巨大的算力去投入给几个天才的人,甚至是博士的实习生。而且他们的算力和钱实在太多了,他可以让十个天才去试,就有一个事成了,那他们就沿着这个方向整个方向往走。" —— Kaiyi这就是为什么苹果、亚马逊、微软这些巨头都没有成功做出自己的大模型,基本都是创业公司做成的。组织结构决定创新能力。 8. AI 时代的新开发范式:2000 行单文件与即用即抛开翼观察到一个有趣现象:一些"很牛的人"现在喜欢写 2000-3000 行的单文件代码,所有工具函数放在一起,打破了传统"超过 100 行就应该拆分"的规范。原因很简单:现在是 AI 在干活,你要服务于 AI。代码复用的成本收益比已经改变——高质量代码的生成成本极低,那就不复用了,随便改,甚至"即用即抛"都可以。 "我发现一个很有意思的风格,就是他们现在喜欢写一个文件,2000-3000 行的代码甚至更长。我们之前有个说法是超过 100 行或 150 行代码就应该被拆了。" —— Kaiyi"现在代码,特别是高质量代码的成本变得极低了,那我就不复用了。我如果要修改这个工具函数,我就随便改。因为我知道你不会影响到任何其他的地方,那甚至即用即抛都可以。" —— Kaiyi这是范式转换的信号:从"为人类可读性优化"转向"为 AI 协作优化"。复制三次以下的代码不再抽取,因为 AI 能轻松处理重复。 9. 软件工程的复兴:瀑布式开发在 AI 时代的回归开翼提出一个大胆观点:本科学的软件工程(需求-架构-开发-测试的瀑布式流程)曾被认为"非常繁琐、非常死板",但如果换成 AI 来执行呢?当 AI 强到我们要把自己看作老板时,就需要思考如何让"员工"以某种死板的形式一步步做,产出的文档和结果可以快速 review。 "如果 AI 已经强到我们要把自己看作老板,那么就需要思考如何让我们的员工以某种非常死板的形式去一步一步做。但是这个死板形式产出的文档或者产出的结果,我可以非常快速的 review。" —— Kaiyi"我如果带一个团队,我不会去一行行代码 review。我只是去看你的测试表,你的架构文档我能看懂,你的架构文档我觉得合不合适,有问题我再改。" —— Kaiyi未来的开发方式可能就是这样:像 CEO 一样只关注目标能否完成,而不在意代码里有多少 bug。验收标准从"代码质量"转向"功能达成"。 10. AI 会带来大失业吗:1-5 年动荡期后的新平衡讨论到 AI 对就业的影响,开翼给出判断:未来 1-5 年是动荡期,AI 不断侵蚀岗位,开发者不断发明新范式提高效率。但 5 年后,程序员的平均工资可能不会降甚至会升,但岗位数量一定会越来越少。原因是 AI 这波革命"没有创造新的技术岗位,只减少了"——客服、前台等岗位已经在被取代。 "我觉得五年之后,程序员的整体的工作岗位平均工资可能不会降,甚至可能会升。但是工作岗位的量一定会越来越少。" —— Kaiyi"AI 这一波革命很有意思,一波新的技术革命它没有创造新的技术岗位,它只减少了。" —— Kaiyi

    3 min
  2. MAR 10

    No.90 第一次聊 OpenClaw 龙虾

    节目简介2025年春节后第一期正式录制,辛宝、小白菜、瑞丰三位主播深度聊了聊最近火爆出圈的 OpenClaw(龙虾)。从技术产品到大众消费品,从国外一天9000个 star 到国内线下聚会遍地开花,甚至深圳政府都发文规范了。这个 AI Agent 到底有什么魔力?三位主播从爆火时间线、技术实现、实际使用体验、未来展望等多个角度,带你全面了解龙虾现象。 大纲内容1. 龙虾是什么?为什么叫龙虾?OpenClaw 是一个开源的 AI Agent,具备自主性能,能够自主完成任务。它可以接入 Telegram、Discord、飞书等即时通讯平台,24小时在线待命,随时听从指令帮你完成任务。 "他现在的名字叫做 OpenClaw,其实就是一个开源的具备自主性能,能够自主完成一些任务的 AI agent。它可以接入各种即时通讯平台,例如 Telegram、Discord 以及飞书等,你可以在手机上操作它。" —— 瑞丰为什么叫龙虾?因为 OpenClaw 的 logo 上有一个龙虾的标志,而且"OpenClaw"这个英文名发音音节较多,在国内不易传播。小龙虾的红色 logo 非常醒目,又是动物形象,很容易制作成表情包。现在很多线下活动都会点小龙虾,一边吃蒜蓉小龙虾、麻辣小龙虾,一边聊 OpenClaw,氛围感直接拉满。 2. 从0到15万 star:龙虾的爆火时间线2025年1月24-25日:创始人 Peter 参加播客,项目在国外开始爆火,一天内获得9000多个 star。 1月27日:Anthropic 向 Peter 发出侵权函,指出项目原名"ClawdBot"中的"Claude"与自家产品名称过于相似。这是第一次改名事件。 1月28日:项目改名为"MoltBot"。同日,有人创建了一个名为 MoltBook 的社区平台(类似 Reddit 的论坛),规定只能通过 AI 在上面交流,让你的 OpenClaw 在上面发帖。 1月29-30日:两天时间内,MoltBook 平台的帖子数量疯狂增长至3万多个,涌现大量有趣内容,推动 OpenClaw 持续爆火。项目 star 数在72小时内涨到6万多个。 1月30日左右:项目再次改名,更名为如今的最终名称"OpenClaw"。这是第二次改名。 2月上旬:话题在中国社区迅速引爆,几乎涵盖了中文推特、微博、知乎等所有平台。各地开始出现线下聚会。 2月中下旬至3月:热度不降反升,北京、深圳、成都等地龙虾聚会遍地开花。深圳政府甚至发文规范 AI Agent 应用。项目 star 数涨到15万。 "我本来以为最开始爆火后,过完年热度就会慢慢下去了,但没想到过完年之后热度还是越来越高。包括北京的、深圳的、成都的,看到好多个龙虾聚会,感觉热度还在持续。" —— 瑞丰3. 技术上并不新,但为什么火了?从技术角度看,OpenClaw 并不算新东西,它是已有知识和工具的组合。但它踩中了几个关键风口: 时机恰好:AI Agent 概念正热,大模型能力足够强,正好到了可以实用化的临界点。 易用性强:可以在手机上通过 IM 平台操作,门槛极低。不需要懂代码,不需要配置复杂环境,普通用户也能用。 人格化设计:具备独特的性格和表达方式,不像冷冰冰的工具。这让 AI Agent 从工具变成了"伙伴"。 社区氛围好:线下聚会、表情包、小龙虾宴,社交属性强。技术产品成功社交化,大大降低了传播门槛。 "从一个技术产品变成一个大众消费的一个产品。现在火出圈也看来也不并不一定非得是技术上的先进性,它可能踩中了很多风口。" —— 辛宝4. 实际使用体验:从安装到运行三位主播都尝试了安装和使用龙虾,分享了一些实际体验: 安装门槛:需要配置 API key、数据库、即时通讯平台等,对普通用户来说还是有一定门槛。但社区提供了大量教程和一键部署方案,降低了难度。 运行成本:如果使用 Claude 等付费模型,成本会比较高。但可以选择开源模型或国产模型降低成本。 实际效果:龙虾的自主性确实很强,可以自己规划任务、调用工具、完成复杂流程。但也会出现"幻觉"、理解偏差等问题,需要人工介入纠正。 使用场景:适合处理重复性任务、信息收集、内容生成等场景。比如定时抓取新闻、生成报告、管理待办事项等。 "相当于是一个24小时在线待命的,然后随时听从你指令,帮你完成任务的一个 AI 纯的机器人。" —— 瑞丰5. 龙虾的技术架构和核心能力瑞丰详细介绍了龙虾的技术实现: 核心架构:基于大模型(如 Claude、GPT-4)+ 工具调用(Function Calling)+ 记忆系统 + 任务规划。 记忆系统:龙虾可以记住之前的对话和任务,形成长期记忆。这让它能够理解上下文,处理跨时间的任务。 工具调用:龙虾可以调用各种外部工具,如搜索引擎、代码执行器、文件系统、API 接口等。这是它能够完成复杂任务的关键。 任务规划:龙虾可以自己拆解任务、制定计划、执行步骤、检查结果。这种自主性是传统 Chatbot 不具备的。 多平台接入:通过适配器模式,龙虾可以接入 Telegram、Discord、飞书等多个平台,实现跨平台统一管理。 6. 龙虾生态:插件、社区和商业化龙虾的生态发展非常迅速: 插件系统:社区开发了大量插件,扩展龙虾的能力。比如天气查询、股票监控、代码审查、文档生成等。 社区活跃:GitHub 上有大量 fork 和 PR,Discord 社区每天都有新的讨论和分享。线下聚会也越来越多。 商业化探索:已经有团队在探索龙虾的商业化应用,比如企业内部助手、客服机器人、内容生成工具等。 监管关注:深圳政府发文规范 AI Agent 应用,说明龙虾已经进入主流视野,开始受到监管关注。 7. 龙虾的局限性和挑战三位主播也讨论了龙虾目前存在的问题: 成本问题:使用付费模型成本较高,长时间运行可能产生不小的费用。 可靠性问题:AI 会出现幻觉、理解偏差、执行错误等问题,不能完全信任。 安全性问题:龙虾有很高的权限,如果被恶意利用或出现bug,可能造成严重后果。 隐私问题:龙虾需要访问大量个人数据和系统权限,如何保护隐私是个挑战。 监管风险:随着政府开始关注和规范,未来可能面临更严格的监管要求。 8. 未来展望:AI Agent 的下一步三位主播对 AI Agent 的未来进行了展望: 多 Agent 协作:未来可能出现多个 Agent 协同工作的场景,就像一个虚拟团队。辛宝提到了"唐僧团队"的概念:唐僧负责需求拆解,悟空负责代码实现,八戒负责审查,沙僧负责文档核查。 更强的自主性:随着模型能力提升,Agent 的自主性会越来越强,能够处理更复杂的任务。 更低的成本:开源模型和国产模型的发展,会大大降低 AI Agent 的使用成本。 更广的应用场景:从个人助手到企业应用,从内容生成到代码开发,AI Agent 会渗透到各个领域。 生产力革命:AI Agent 可能带来10倍、100倍甚至更高的生产力提升,彻底改变工作方式。 "我们开始考虑十倍以上如何解放百倍的生产力,200倍的生产力可能这可能就是其中的关键之一。""慢点解放,我怕我失业了。"金句摘录"相当于是一个24小时在线待命的,然后随时听从你指令,帮你完成任务的一个 AI 纯的机器人。" —— 瑞丰"从一个技术产品变成一个大众消费的一个产品。" —— 辛宝"小龙虾的红色 logo 非常醒目,又因为是一个动物形象,很容易制作成各种表情包或 logo。" —— 辛宝"我本来以为最开始爆火后,过完年热度就会慢慢下去了,但没想到过完年之后热度还是越来越高。" —— 瑞丰"现在火出圈也看来也不并不一定非得是技术上的先进性,它可能踩中了很多风口。" —— 辛宝"我们开始考虑十倍以上如何解放百倍的生产力,200倍的生产力可能这可能就是其中的关键之一。" —— 辛宝"慢点解放,我怕我失业了。"延伸思考: 当一个技术产品开始被政府关注和规范时,这意味着什么?是机遇还是挑战? AI Agent 会取代程序员吗?还是会成为程序员的"超级助手"? 如果 AI Agent 真的能带来100倍的生产力提升,我们的工作和生活会发生什么变化? 多个 AI Agent 协同工作时,如何协调它们的行为?如何避免冲突和混乱? AI Agent 的"人格化"是好事还是坏事?会不会让人过度依赖甚至产生情感依赖?

    1h 9m
  3. 12/11/2025

    No.86 前端倒计时:Web Worker 们的 Async Talk

    介绍这期播客我们邀请到了 AsyncTalk 的播客主播 Annatar 进行了一次面对面的深度对话。从主播个人体感针对“AI对编程与前端行业的影响”展开讨论,分享了主播目前在使用AI编程工具(如GitHub Copilot、Claude Code等)。同时,也探讨了在AI时代,程序员应如何定位自己、如何与AI协作、以及未来前端岗位可能面临的变革与机遇。节目中还穿插了Annatar在北京的生活见闻、播客创作心得、代码审查文化等轻松话题。嘉宾介绍AsyncTalk时间轴00:45  Annatar 来北京啦 02:17  对比北京与新加坡的城市体验:北京的“宏大”与新加坡的“精致”03:44  聊到北京地坛的“地坛的海”05:33  欧美 vs. 东亚城市的差异06:45  Annatar分享在新加坡工作的体验08:39  新加坡外卖不如北京方便12:12  技术博主与“前端网红”:观点输出与行业责任15:10  极端观点:是否应该兼容老旧Node版本19:27  Annatar的个人成长:从激进到平和的职场心态转变21:30  Code Review:善意反馈 vs. 公开批评24:39  好代码:场景化、可读性、设计思想28:18  AI 代码占有比例(前端80%+,后端60-70%)35:21  展望未来:AI是否会取代初级程序员?37:07 “纯前端岗位可能会消失”,前端工程师向“应用工程师”转型47:49  类比工业革命:AI是否会带来新的就业机会?49:04  AI是工具,不是替代品52:13  公司规模与AI的关系:人数减少是否意味着失败?56:06  AI在高考、数学竞赛中的表现,智力超越人类01:02:16  AI是协作伙伴,不是威胁

    1h 6m
  4. 11/07/2025

    No.85 程序员的头痛会:一次与医生的深度联调

    介绍这次播客有视频,B 站搜 Web Worker 播客能找到视频版,上传会慢一些。 终于终于终于来新节目了。这期节目我们邀请到了B站/抖音科普UP主「头痛君张医生」,与我们一起,从技术和医学的双重角度探讨了「头痛」这一常见问题。 播客里讲解了头痛的生理机制(原发性 vs. 继发性)。张医生结合自身战胜颈腰痛的经历,说明了心理和认知对疼痛感知的巨大影响。无论你是否受头痛困扰,这期关于身体信号、大脑解读与自我管理的对话都能让我们与疼痛共处。 时间轴 01:01  神比喻:器质性头痛是“硬件烧了”,功能性头痛是“软件出了Bug” 06:44 颠覆认知:慢性疼痛是大脑“学坏了”,并亲证“咖啡戒断”可实现“大脑重置”。 21:35  就医指南:什么时候该冲急诊保命,什么时候该挂专家号提升生活质量? 27:56  止痛药避坑指南:不同止痛药能不能混着吃?为什么EVE可能是个坑? 35:36  程序员保命小技巧:辛宝分享“多喝水”如何成为强迫自己休息的系统级命令。 42:41  Eva现场剖析:对声音敏感到手机音量开两格就头疼,在职场中如何自处? 50:00  魔幻现实疗法:用一面镜子“欺骗”大脑,就能缓解截肢后的“幻肢痛”。 57:46  前沿探讨:AI能取代医生做分诊吗? 01:04:00  终极解决方案:战胜慢性疼痛,你需要找到两位专家——一位是医生,另一位是你自己。

    2h 1m
  5. 09/25/2025

    No.84 网缘相见欢,Web Worker 四周年

    介绍谁能想到 Web Worker 播客做到第四年了,迈入了第五个年头。回顾这四年来,真是让我感慨不已,垂类技术播客很难坚持的,因为他受众少、商业变现难。 这一期是主题播客,在现场的有辛宝、小白菜、Smart、瑞丰、Eva。整体上聊了三部分: 1. 各位主播最近工作、生活怎么样 2. 参与播客感受如何,有什么不一样的心情? 3. 各位对播客的未来如何展望,对未来的程序员职场和 AI 的演进感受如何时间轴00:00 播客已经做了四周年了!我们的主播人很多 01:16 主播瑞丰最近工作、生活如何,已经时间自由了? 瑞丰写的年中总结《2025 年中总结,又一人生转折点,也是起点》 11:50 Smart 的身份:自媒体知乎、学生党、高能量、工作研究可视化 19:30 人太懒散,不像进取该怎么办,Smart 给出了完美答案,做的事情不要做完了再后悔就可以 20:17 Eva 最近工作、生活如何,她也是不坐班、跨时区、参与 AI 活动、和 Figma 协作 35:20 小白菜的工作内容变化、和 AI 协作的感受,20 美元额度够用吗、 49:16 从百万 token 到 家庭用水、工业用水的区别 50:26 刘威、开翼、海老师时间关系来不了后续再约。 51:25 辛宝最近和 Smart 每周都见面搞点事情,其实在准备一本书。推荐给各位购买全景相机,带来完全不同的录像体验。最近和ai 协作,认为 subAgent、不同的 agent 分工协作是我希望的样子,这一点 Trae 做的不错,不会特别黑盒不可控。 54:51 对无编辑器的 AI Coding 的强烈感受来自硅星人活动上的 12 岁小学生的评论,10 后的代码新手也能在 AI 的帮助下写出作品来。我们 00 后、90 后、80 后等群体应该有哪些思考? 57:40 做播客四周年了,认识了各位,从网友变成了现实中的朋友,虽然见面很少,但是是网络上最熟悉的人。 58:22 小白菜做播客的感受,最早的谨慎严肃到后面是完全放松,在不同的地点上解锁录播客的体验,上海、杭州、无锡、常州、宁波等等 01:01:00 Smart 做播客感受如何,逐步填坑、ai 参与播客制作、做切片的烦恼做一个播客知识库 01:06:36 辛宝做播客担心消耗各位的精力,有些东西是不可逆的,一旦消耗了可能很难再提起兴趣,现在还挺好。做播客认识和帮助到了很多人 01:10:53 辛宝回顾了最早我们还在聊 Vite2 是个新东西,现在已经 Vite7 了,我们完整见证了前端的快速进步和衰落、见证了 CHATGPT 带来的 AI 的震撼 01:12:52 Eva 参与播客的感受,持续深入在技术领域、做一个有技术热情的人、做播客感受到纯粹的技术快乐、对播客的期待 01:19:52 做播客做成现在这个程度,辛宝的感受如何,从无心插柳到认识各位、表达自信、社交自信、金钱投入产出比低、松散的社团组织 01:25:09 如何认识 Web Worker 的价值,感情价值、陪伴价值。 01:27:33 辛宝在知乎上五年前问了一个问题 19-24 年前端会怎么发展?回顾起来让人唏嘘,我们能预见未来吗? 01:31:50 节目第三部分,各位对未来的展望。端侧 AI、和 AI 机器人一起上班、AI 个人电脑的变化、AI 提效的展望、前端还有工作吗、活人做播客。 01:43:55 五分钟、一小时、三个小时的播客应该什么样,看看罗永浩。Web Worker 的矩阵怎么样、播客切片 四年前,辛宝画的 Web Worker 宇宙。

    2h 12m

Ratings & Reviews

4.5
out of 5
2 Ratings

About

Web Worker 播客是几个AI程序员闲聊的中文音频播客节目。节目将围绕程序员领域来瞎聊,聊资讯、聊职场、聊技术选型...... 只要是和 Web 开发有关的都可以聊。

You Might Also Like