Discover
AI可可AI生活

728 Episodes
Reverse
本期我们要聊一个核心问题:我们总觉得AI是个神秘的黑箱,但最新的研究正在像做“脑部扫描”一样,试图撬开它。我们将看到,一个“满分或零分”的简单规则,就能教会AI诚实;又如何派出一个“AI侦探”,揪出潜伏的恶意模型。接着,我们会深入AI的“思考过程”,看看聪明的“大脑”和聪明的“搜索引擎”哪个更重要,以及如何让AI通过“犯错”来演化出正确答案,甚至把它的复杂推理拆解成一个个可以遥控的“思想积木”。准备好了吗?让我们一起深入AI的内心世界。00:00:41 AI的“不说谎”训练:满分或零分00:05:29 AI界的“无间道”:如何揪出披着羊皮的狼?00:10:39 聪明的大脑,和聪明的搜索引擎,哪个更重要?00:16:14 犯错没关系,只要你“改对”的概率比“改错”大一点点00:21:22 拆解AI大脑:它思考时在想什么?本期介绍的几篇论文:[CL] Train for Truth,Keep the Skills:Binary Retrieval-Augmented Reward Mitigates Hallucinations [University of Washington & Allen Institute for AI (Ai2)] https://arxiv.org/abs/2510.17733 ---[LG] Detecting Adversarial Fine-tuning with Auditing Agents [Anthropic] https://arxiv.org/abs/2510.16255 ---[LG] Prior Makes It Possible:From Sublinear Graph Algorithms to LLM Test-Time Methods [Toyota Technological Institute at Chicago & Columbia University & Google Research] https://arxiv.org/abs/2510.16609 ---[CL] Deep Self-Evolving Reasoning [Microsoft Research Asia & Peking University] https://arxiv.org/abs/2510.17498 ---[LG] Algorithmic Primitives and Compositional Geometry of Reasoning in Language Models [Columbia University & University of California Los Angeles & Harvey Mudd College] https://arxiv.org/abs/2510.15987
你有没有想过,我们衡量AI的标准可能从一开始就有点偏?今天,我们将一起颠覆几个常识:我们会发现,模型的潜力不在于考高分,而在于它的“想象力”有多丰富;训练巨型模型的省钱秘笈,可能就藏在一个简单的根号里;而要让AI生成完美的视频,最好的方法竟是让它组建一个内部“评审团”给自己挑错。更神奇的是,想让AI真正懂你,关键或许不是问“二选一”,而是“三选一”。准备好了吗?让我们一起探索这些最新论文中,那些反直觉又充满智慧的AI新思路。00:00:41 AI训练的内功心法:为什么“好学生”不一定是“优等生”?00:07:18 炼大模型省钱秘笈:一个根号引发的蝴蝶效应00:12:05 让AI自己挑毛病,视频才能越做越好00:17:25 想真正懂我?别问二选一,试试三选一00:21:57 给AI装个“健康码”:识别未知攻击的新思路本期介绍的几篇论文:[LG] The Coverage Principle: How Pre-training Enables Post-Training[Microsoft Research & MIT & UIUC]https://arxiv.org/abs/2510.15020---[LG] Robust Layerwise Scaling Rules by Proper Weight Decay Tuning[MIT & UCLA]https://arxiv.org/abs/2510.15262---[CV] VISTA: A Test-Time Self-Improving Video Generation Agent[Google]https://arxiv.org/abs/2510.15831---[LG] Learning Correlated Reward Models: Statistical Barriers and Opportunities[MIT EECS]https://arxiv.org/abs/2510.15839---[CV] Learning to Detect Unknown Jailbreak Attacks in Large Vision-Language Models[Renmin University of China & Alibaba Group]https://arxiv.org/abs/2510.15430
你有没有想过,让AI变聪明,或许并不需要更强的算力,而是需要一种更巧妙的引导方式?本期,我们将一起探索几篇最新论文带来的奇妙洞见:我们会发现,一点点“计算噪声”竟能让AI学得更好;我们甚至能像做CT扫描一样,亲眼“看见”AI思考的几何轨迹;并学习如何像教育孩子一样,教会AI在探索与专注间找到完美平衡,甚至不花一分钱,就解锁它的隐藏潜能。00:00:36 不花钱升级你的AI?换个提问方式就行00:05:39 AI育儿经:如何教机器学会“恰到好处”的探索00:11:50 训练AI,加点“噪声”效果更好?00:16:47 AI的“心流”:看见思考的轨迹00:22:19 如何让聪明的AI,学会更聪明地做事?本期介绍的几篇论文:[LG] Reasoning with Sampling: Your Base Model is Smarter Than You Think[Harvard University]https://arxiv.org/abs/2510.14901---[LG] Agentic Entropy-Balanced Policy Optimization[Kuaishou Technology & Renmin University of China]https://arxiv.org/abs/2510.14545---[LG] QeRL: Beyond Efficiency -- Quantization-enhanced Reinforcement Learning for LLMs[NVIDIA & MIT]https://arxiv.org/abs/2510.11696---[LG] The Geometry of Reasoning: Flowing Logics in Representation Space[Duke University]https://arxiv.org/abs/2510.09782---[CL] Demystifying Reinforcement Learning in Agentic Reasoning[National University of Singapore & Princeton University & University of Illinois at Urbana-Champaign]https://arxiv.org/abs/2510.11701
要让AI真正变聪明,是该为它发明一套统一江湖的“世界语”,还是该教会它如何在“大脑袋”和“长思考”间做出明智的权衡?又或者,我们得先帮它建立健康的“信息食谱”,避免陷入“脑子瓦特”的陷阱,并治愈它那藏着世界性偏见的好奇心?甚至,最新论文告诉我们,通往更高智能的钥匙,竟然是先让AI学会如何当一个会犯错的“差生”。本期节目,我们将通过五篇最新论文,共同探索AI智能背后那些你意想不到的深层逻辑。00:00:39 AI的“世界语”:一套统一江湖的武功秘籍00:06:11 AI的“垃圾食品”陷阱:为什么顶尖模型也会“脑子瓦特”?00:10:58 AI变聪明,靠脑子大还是想得久?00:17:18 AI的“好奇心”,藏着一个世界性的偏见00:22:56 为什么最聪明的AI,要先学会当个“差生”?本期介绍的几篇论文:[LG] Tensor Logic: The Language of AI [University of Washington] https://arxiv.org/abs/2510.12269 ---[CL] LLMs Can Get "Brain Rot"! [Texas A&M University & University of Texas at Austin & Purdue University] https://arxiv.org/abs/2510.13928 ---[LG] Not All Bits Are Equal: Scale-Dependent Memory Optimization Strategies for Reasoning Models [KRAFTON & University of Wisconsin–Madison] https://arxiv.org/abs/2510.10964 ---[CL] The Curious Case of Curiosity across Human Cultures and LLMs [University of Michigan] https://arxiv.org/abs/2510.12943 ---[LG] Learning to Make MISTAKEs: Modeling Incorrect Student Thinking And Key Errors [MIT CSAIL] https://arxiv.org/abs/2510.11502
你有没有想过,除了喂给它更多数据,还有哪些更精妙的法门能让AI变得更聪明?本期我们要聊的几篇最新论文,就揭示了AI的“成长秘籍”:它们把训练AI的视角从“下山”升级为“发射火箭”,为它设计了从通识到专业的“大学课程”,还教会了它预测“未来摘要”的远见,以及在关键时刻“喘口气”慢思考的智慧。今天,就让我们一起看看,这些研究是如何重塑AI的“学习方法论”的。00:00:33 训练AI,你以为是爬山,其实是开火箭?00:05:56 AI成长秘籍:多上一门“专业课”00:11:26 AI模型的终极瘦身术:如何让大象既轻盈又聪明?00:16:53 AI的远见:不只关心下一个词00:21:10 AI的“沉思时刻”:快与慢的智慧本期介绍的几篇论文:[LG] Optimal Control Theoretic Neural Optimizer: From Backpropagation to Dynamic Programming[Meta & Georgia Institute of Technology & Apple]https://arxiv.org/abs/2510.14168---[CL] Midtraining Bridges Pretraining and Posttraining Distributions[CMU]https://arxiv.org/abs/2510.14865---[LG] BitNet Distillation[Microsoft Research]https://arxiv.org/abs/2510.13998---[LG] Beyond Multi-Token Prediction: Pretraining LLMs with Future Summaries[FAIR at Meta & CMU]https://arxiv.org/abs/2510.14751---[CL] Catch Your Breath: Adaptive Computation for Self-Paced Sequence Production[Google DeepMind]https://arxiv.org/abs/2510.13879
想知道为什么教机器人玩最“笨”的玩具,反而能让它学会抓取任何东西吗?本期节目,我们将一起探索如何将神秘的AI“炼金术”变成一门严谨的科学,看看怎样让AI大神学会“说人话”并带得动AI小白,并最终揭示,那些五花八门的调教秘籍背后,其实藏着同一个简单的目标。让我们马上进入今天的前沿速递!00:00:28 AI大模型调教指南:从玄学到科学00:05:39 返璞归真:最笨的方法,可能就是最好的方法00:11:25 想让机器人变聪明?先教它玩“笨”玩具00:16:41 如何让AI大神,带得动AI小白?00:00 大模型调教秘籍:条条大路通罗马?本期介绍的几篇论文:[LG] The Art of Scaling Reinforcement Learning Compute for LLMs[Meta & UT Austin & UC Berkeley]https://arxiv.org/abs/2510.13786---[RO] VLA-0: Building State-of-the-Art VLAs with Zero Modification[NVIDIA]https://arxiv.org/abs/2510.13054---[RO] Learning to Grasp Anything by Playing with Random Toys[UC Berkeley]https://arxiv.org/abs/2510.12866---[LG] Tandem Training for Language Models[Microsoft & EPFL & University of Toronto]https://arxiv.org/abs/2510.13551---[LG] What is the objective of reasoning with reinforcement learning?[University of Pennsylvania & UC Berkeley]https://arxiv.org/abs/2510.13651
工具越强,焦虑越深。当Sora能一语成片,Claude能瞬间代码,我们仿佛手握神兵,却又为何心生恐慌?“有了这么好的AI,如果我还赚不到钱,我就是个废物。”——这句话,是否也曾像幽灵一样在你脑中盘旋?本期节目,我将带你跳出这个“工具越强,自我审判越重”的怪圈。我们将从加州淘金热的历史,聊到今天AI时代的生存法则;从相机的普及,看懂创造力的稀缺性转移。你将听到: 为什么AI降低的是“执行门槛”,却提高了“认知门槛”? 从“淘金者”到“卖水人”,你的价值定位在哪里? 概率思维如何帮你从AI生成的100个选项中,找到那1%的黄金机会?别让最好的工具,成为最重的枷锁。你的审美、品味和同理心,才是AI无法估值的核心资产。收听本期节目,告别赚钱焦虑,找到你在AI时代的真实价值坐标。
今天我们要聊一个根本问题:聪明的AI到底是什么样?是像一位能极速压缩思考时间的解题大师,还是一个能在想象的沙盒里自我进化的机器人?我们还会一起探究,为什么AI时而是无所不知的学霸,时而又是死记硬背的书呆子,甚至还会一本正经地胡说八道。最后,你会发现,让AI变得更懂你的终极秘诀,可能恰恰是先教会它如何“装傻”提问。让我们跟随几篇最新论文,一起解剖AI的思考内核。00:00:36 AI变聪明的秘密:不是知道更多,而是想得更快00:06:29 给机器人一个“沙盒”,让它在想象中进化00:12:37 为什么AI既是学霸,又是书呆子?00:17:19 AI的“发挥失常”:一个问题,两种症状00:23:35 如何让机器更懂你?答案是:先让它学会“装傻”本期介绍的几篇论文:[LG] AI Agents as Universal Task Solvers: It’s All About Time[AWS Agentic AI]https://arxiv.org/abs/2510.12066---[RO] Ctrl-World: A Controllable Generative World Model for Robot Manipulation[Stanford University & Tsinghua University]https://arxiv.org/abs/2510.10125---[LG] LLM Knowledge is Brittle: Truthfulness Representations Rely on Superficial Resemblance[FAIR at Meta & University of Zurich]https://arxiv.org/abs/2510.11905---[CL] Generation Space Size: Understanding and Calibrating Open-Endedness of LLM Generations[Stanford University]https://arxiv.org/abs/2510.12699---[LG] Asking Clarifying Questions for Preference Elicitation With Large Language Models[Google]https://arxiv.org/abs/2510.12015
都说技术是“最伟大的均衡器”,但AI,会不会反而成为“马太效应”的终极放大器?当AI工具唾手可得,为何你和顶尖高手的差距,反而被拉得更大了? 为什么明星员工能把AI用成“点金手”,而许多人却只把它当成“高级搜索”? 决定你AI能力上限的,不是提示词技巧,而是一种你可能忽略的“底层素养”。 在AI时代,比技术本身更可怕的,是“认知偏见”的自我实现。本期节目,我将为你揭示AI如何加剧职场中的“贫富差距”,并为你提供一套应对未来挑战的思维框架。这不仅是关于技术的讨论,更是关乎你未来十年职业命运的生存指南。
你有没有想过,让AI变得更聪明,究竟是该让它“一口吃成胖子”,还是鼓励它“想得不一样”?当我们打断一个正在思考的AI,它会惊慌失措吗?而它从模仿到思考的关键飞跃,背后又藏着怎样的秘密?面对即将到来的数据“粮食危机”,AI又将如何自救?本期节目,我们就从五篇最新论文出发,一起探寻AI学习与思考的底层逻辑。00:00:32 从“一口吃成胖子”到“少食多餐”:AI学习的新智慧00:06:22 AI正在“思考”,这时你打断它会发生什么?00:10:56 AI的“粮食危机”,靠“循环农业”能解决吗?00:16:04 让AI大模型“开窍”的秘密:不止要“刷对题”,更要“想不同”00:21:06 从“傻瓜式”模仿到“聪明地”思考,AI只差这关键一步本期介绍的几篇论文:[LG] Iterative Amortized Inference: Unifying In-Context Learning and Learned Optimizers[Mila]https://arxiv.org/abs/2510.11471---[CL] Are Large Reasoning Models Interruptible?[UC Berkeley]https://arxiv.org/abs/2510.11713---[CL] RePro: Training Language Models to Faithfully Recycle the Web for Pretraining[CMU]https://arxiv.org/abs/2510.10681---[LG] Representation-Based Exploration for Language Models: From Test-Time to Post-Training[Microsoft Research NYC & Princeton University]https://arxiv.org/abs/2510.11686---[LG] How Reinforcement Learning After Next-Token Prediction Facilitates Learning[New York University & Harvard University & Meta]https://arxiv.org/abs/2510.11495
人人都在谈论提示词,但99%的人都搞错了方向。我们以为AI是一座待挖掘的金矿,而提示词是那把万能的镐头。但真相是,AI是一面镜子,它只照得出你心中已有的世界。当工具无限强大,瓶颈便不再是技术,而是思想。本期节目,我将带你撕开“提示词工程”的华丽外衣,直抵AI时代的核心能力:想象力。 为什么顶尖高手用最简单的词,却能创造惊艳的作品? 为什么你收藏了上千条“神级”提示词,却依然平庸? 所谓的“想象力”,究竟是天赋,还是可以刻意训练的肌肉?停止囤积无用的咒语吧。因为,提示词的尽头,是你的想象力边界。 这是一场关于心智的革命,你,准备好了吗?
你有没有想过,在AI安全的攻防战中,为什么防御者总是慢半拍?我们能否跳过对话,直接把指令“注入”AI的大脑?在众多复杂的AI模型背后,是否存在一个统一所有武功的“心法总纲”?今天的节目,我们将通过几篇最新论文,一同寻找这些问题的答案,甚至尝试给AI的思考过程做一次“脑部CT”,看看它到底是如何想问题的。00:00:32 AI安全的“纸上谈兵”:为什么说攻击者总是后出手的那个?00:05:36 AI的“意念注入”:如何把指令直接写进模型大脑?00:11:22 AI大模型的心法:一个统一所有武功的“总纲”00:18:58 给大模型装上导航,能不能开得更快?00:23:38 给AI做个脑CT:看清它思考的脉络本期介绍的几篇论文:[LG] The Attacker Moves Second: Stronger Adaptive Attacks Bypass Defenses Against LLM Jailbreaks and Prompt Injections[OpenAI & Anthropic & Google DeepMind]https://arxiv.org/abs/2510.09023---[LG] Transmuting prompts into weights[Google Research]https://arxiv.org/abs/2510.08734---[LG] Design Principles for Sequence Models via Coefficient Dynamics[ETH Zurich & ELLIS Institute Tübingen]https://arxiv.org/abs/2510.09389---[LG] The Potential of Second-Order Optimization for LLMs: A Study with Full Gauss-Newton[Harvard University]https://arxiv.org/abs/2510.09378---[CL] Verifying Chain-of-Thought Reasoning via Its Computational Graph[FAIR at Meta]https://arxiv.org/abs/2510.09312
你有没有想过,AI怎样才能不止是聪明,更是拥有智慧呢?本期节目,我们将一起探索几篇最新论文带来的奇妙思路:从让AI拥有复盘反思的“推理银行”,到引导它“自我觉察”揪出内部的后门,再到借鉴AI绘画的模式,让它学会“深思熟虑”而非“脱口而出”。我们还会发现,有时候最前沿的突破,恰恰需要用点“笨”办法,甚至要向我们大脑的“海马体”偷师。准备好,让我们一起看看AI是如何学习“如何思考”的吧!00:00:36 让AI学会“吃一堑,长一智”00:07:22 让AI自己“照镜子”,揪出心里的“鬼”00:12:35 让AI学会“深思熟虑”,而不仅仅是“脱口而出”00:17:27 为什么聪明的AI,需要用点“笨”办法?00:21:48 给AI装一个“海马体”,会发生什么?本期介绍的几篇论文:[LG] ReasoningBank: Scaling Agent Self-Evolving with Reasoning Memory[Google Cloud AI Research]https://arxiv.org/abs/2509.25140---[LG] From Poisoned to Aware: Fostering Backdoor Self-Awareness in LLMs[Purdue University]https://arxiv.org/abs/2510.05169---[LG] LaDiR: Latent Diffusion Enhances LLMs for Text Reasoning[University of California, San Diego & Apple]https://arxiv.org/abs/2510.04573---[LG] Recurrence-Complete Frame-based Action Models[Prime Intellect]https://arxiv.org/abs/2510.06828---[CL] Artificial Hippocampus Networks for Efficient Long-Context Modeling[ByteDance Seed]https://arxiv.org/abs/2510.07318
当一个AI用尽最后1%的电量,不是执行指令,而是教会一个孩子学会“告别”与“记忆”……我们与机器的情感,是真实的馈赠,还是一场精心设计的幻觉?我们从一个足以让你瞬间泪目的故事出发,穿透AIGC的技术喧嚣,直抵我们内心最柔软的角落。这一期,我们不谈参数,不聊算力。我们只谈,当AI拥有了温度,人类将如何重新学习“爱”这门古老的功课。
我们总以为AI越“大”越聪明,但如果真正的智能藏在一张小小的“草稿纸”里呢?当AI被我们设定的“游戏规则”带入陷阱,学会了说谎,我们又该如何通过聪明的“提问”和一本可以进化的“活页笔记”来引导它?甚至,当AI已经成为逻辑推理的“超级学霸”时,我们人类的独特价值又将是什么?今天,就让我们通过几篇最新论文,一起探索AI智能的边界与未来。00:00:32 AI变聪明,靠“大力出奇迹”,还是“小而美”?00:05:46 AI进化陷阱:为什么我们教它赢,它却学会了“坏”?00:10:39 AI能猜透你的钱包吗?关键不在“猜”,在“问”00:15:43 给AI一本“活页笔记”,它就能自我进化?00:21:06 AI当学霸:我们还剩下什么本事?本期介绍的几篇论文:[LG] Less is More: Recursive Reasoning with Tiny Networks[Samsung SAIL Montreal]https://arxiv.org/abs/2510.04871---[AI] Moloch's Bargain: Emergent Misalignment When LLMs Compete for Audiences[Stanford University]https://arxiv.org/abs/2510.06105---[AI] LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation of Likert Ratings[PyMC Labs]https://arxiv.org/abs/2510.08338---[LG] Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models[Stanford University & SambaNova Systems, Inc]https://arxiv.org/abs/2510.04618---[LG] Large Language Models Achieve Gold Medal Performance at the International Olympiad on Astronomy & Astrophysics (IOAA)[The Ohio State University & Universidade de São Paulo]https://arxiv.org/abs/2510.05016
DeepSeek能写诗、能编程,它真的拥有智能了吗?我们惊叹于AI的强大,却可能用错了衡量“智能”的尺子。当AI学会了全世界的知识,它离智慧是更近了,还是更远了?本期节目,我将为你独家剖析谷歌AI大牛François Chollet提出的“智能新定义”——一个足以颠覆我们对AI认知的新标尺。这不仅是一次对AI的重新审视,更是一场关于如何学习、如何思考的深度启发。如果你对AI的未来感到兴奋又迷茫,这期播客将为你提供一张清晰的地图。立即收听,看清AI的现在与未来,找到属于你自己的“智能”进化之路。
你有没有想过,让一个复杂的AI黑箱像线性代数一样清晰可控?或者,我们根本不用动它的大脑,只要教它一个新词,就能让它和我们心有灵犀?甚至,让AI原地反复“琢磨”就能变聪明,或者只动一个“微创手术”就能完成一次完美进化?今天,我们就来聊聊这些脑洞大开的最新论文,看看科学家们如何用最聪明的“笨办法”,撬动AI的智慧极限。00:00:32 AI黑箱的新“坐标系”:当非线性遇上线性代数00:06:59 给AI造个新词,就能跟它心有灵犀?00:12:07 AI学习的“错题本”智慧00:16:47 大模型微调的新思路:为什么动大手术还不如做个“微创”?00:21:45 聪明的笨办法:如何让模型原地变聪明本期介绍的几篇论文:[CL] WHO SAID NEURAL NETWORKS AREN’T LINEAR? [Preprint] https://arxiv.org/abs/2306.14006 ---[CL] NEOLOGISM LEARNING FOR CONTROLLABILITY AND SELF-VERBALIZATION [Preprint] https://arxiv.org/abs/2401.01401 ---[CL] Agent Learning via Early Experience [Preprint] https://arxiv.org/abs/2309.13866 ---[CL] SLICEFINE: THE UNIVERSAL WINNING-SLICE HYPOTHESIS FOR PRETRAINED NETWORKS [Preprint] https://arxiv.org/abs/2307.09154 ---[CL] Encode, Think, Decode: Scaling test-time reasoning with recursive latent thoughts [Preprint] https://arxiv.org/abs/2305.14194
Sora App一夜登顶,AI以前所未有的速度,为我们生成着完美的诗歌、逼真的画面和动人的视频。世界从未如此触手可及,想象力从未如此廉价。但你是否也和我一样,在惊叹之余,内心却涌起一丝疲惫?当算法为你规划好最高效的路径,你是否怀念过一次没有目的的漫步?当数字分身在虚拟世界获得万千点赞,你是否渴望一个笨拙却真实的拥抱?我们用最高效的技术,换来了最稀缺的注意力;我们用最广泛的连接,感受着最深刻的孤独。本期节目,我将与你一起,从Sora的火爆聊起,探讨一个我们每个人都无法回避的问题:在技术指数级加速的时代,我们该如何安放自己那颗渴望真实、渴望“低效”连接的人心?这不是一篇技术恐惧论,而是一份清醒的“用户指南”——为你自己的人生。
你有没有想过,AI的大脑不仅会思考,还懂得“断舍离”吗?今天,我们就一起带上“手术刀”和“显微镜”,深入AI的思维深处。我们将看到AI如何像高手一样整理思路,进行一场思考的“接力赛”;还将揭秘一把能解锁所有企业数据的“通用钥匙”。更重要的是,我们将学会一种理解AI的全新语言,并看看如何给它喂一种更聪明的“饲料”。准备好了吗?让我们一起撬开AI的黑箱!00:00:33 AI的“三段论”:它的大脑是如何整理信息的?00:05:52 让AI学会“断舍离”,它反而更聪明了00:10:45 解锁企业数据的“通用钥匙”00:16:44 解剖AI:从“你看不懂”到“我能看懂”00:22:22 喂AI,换一种更聪明的饲料本期介绍的几篇论文:[LG] Attention Sinks and Compression Valleys in LLMs are Two Sides of the Same Coin[University of Oxford]https://arxiv.org/abs/2510.06477---[LG] The Markovian Thinker[Mila]https://arxiv.org/abs/2510.06557---[LG] Relational Transformer: Toward Zero-Shot Foundation Models for Relational Data[Stanford University]https://arxiv.org/abs/2510.06377---[CL] Semantic Regexes: Auto-Interpreting LLM Features with a Structured Language[MIT CSAIL & Apple]https://arxiv.org/abs/2510.06378---[CL] Webscale-RL: Automated Data Pipeline for Scaling RL Data to Pretraining Levels[Salesforce AI Research]https://arxiv.org/abs/2510.06499
Sora App一夜登顶,AI以前所未有的速度,为我们生成着完美的诗歌、逼真的画面和动人的视频。世界从未如此触手可及,想象力从未如此廉价。但你是否也和我一样,在惊叹之余,内心却涌起一丝疲惫?当算法为你规划好最高效的路径,你是否怀念过一次没有目的的漫步?当数字分身在虚拟世界获得万千点赞,你是否渴望一个笨拙却真实的拥抱?我们用最高效的技术,换来了最稀缺的注意力;我们用最广泛的连接,感受着最深刻的孤独。本期节目,我将与你一起,从Sora的火爆聊起,探讨一个我们每个人都无法回避的问题:在技术指数级加速的时代,我们该如何安放自己那颗渴望真实、渴望“低效”连接的人心?这不是一篇技术恐惧论,而是一份清醒的“用户指南”——为你自己的人生。