AI可可AI生活

来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿

[人人能懂] 让AI学会内省、进化与断舍离

你有没有想过,聪明的AI不只靠堆算力,更要靠高质量的思考方式?本期我们要聊的几篇最新论文,就为我们揭示了AI正在经历一场深刻的“认知升级”。我们将看到,AI如何像一个身处江湖的开源模型,用聪明的策略追赶顶尖高手;又如何进行哲学层面的“自我觉醒”,把自己看作世界的一部分来做出更优决策。我们还会探讨,AI怎样像武林高手一样边解决难题边“涨功夫”,甚至学会给自己的思维“断舍离”,用最少的步骤直达问题核心。准备好,我们马上进入AI的思考进化之旅。00:00:41 AI江湖:开源大模型如何追赶“独孤求败”?00:06:34 AI的心智革命:当我成为世界的一部分00:12:38 AI如何像高手一样,边解题边涨功夫?00:18:14 AI思考,也需要“断舍离”00:22:58 如何让你的AI助手,思考速度提升三倍?本期介绍的几篇论文:[LG] DeepSeek-V3.2: Pushing the Frontier of Open Large Language Models[DeepSeek-AI]https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.2/resolve/master/assets/paper.pdf---[LG] Embedded Universal Predictive Intelligence: a coherent framework for multi-agent learning[Google]https://arxiv.org/abs/2511.22226---[LG] ThetaEvolve: Test-time Learning on Open Problems[Microsoft & University of Washington]https://arxiv.org/abs/2511.23473---[LG] ORION: Teaching Language Models to Reason Efficiently in the Language of Thought[Harvard University & Hippocratic AI & MIT]https://arxiv.org/abs/2511.22891---[CL] Focused Chain-of-Thought: Efficient LLM Reasoning via Structured Input Information[FAR.AI & German Research Center for Artificial Intelligence (DFKI) & University of Kassel]https://arxiv.org/abs/2511.22176

12-02
28:39

[人人能懂] 从“眼神”交流到“元宇宙”练兵

如果AI团队开会只用“眼神”交流,会发生什么?本期节目,我们就来探索AI世界的奇妙新思路。我们将看到,驯服AI的秘诀,可能只是把一个“开关”换成“旋钮”,而让模型更聪明,也许只需给它一条“虚拟”的超宽车道。我们还会发现,机器人正从“打工仔”变身“修炼者”,而最顶尖的AI,甚至正在为它的同伴搭建一个“元宇宙”操场来练兵。让我们一起深入这些最新论文,看看智能的未来是如何被巧妙构想的。00:00:37 AI开会,从此只用“眼神”交流00:04:46 驯服AI:开关与旋钮的差别00:09:21 AI大模型的新玩法:不花大钱,也能办大事00:13:48 机器人不是在打工,是在“修炼”00:18:41 AI练兵新思路:没有操场,咱就造个“元宇宙”操场本期介绍的几篇论文:[CL] Latent Collaboration in Multi-Agent Systems[Princeton University & University of Illinois Urbana-Champaign]https://arxiv.org/abs/2511.20639---[LG] Soft Adaptive Policy Optimization[Qwen Team, Alibaba Inc.]https://arxiv.org/abs/2511.20347---[LG] Virtual Width Networks[ByteDance Seed]https://arxiv.org/abs/2511.11238---[RO] Robot-Powered Data Flywheels: Deploying Robots in the Wild for Continual Data Collection and Foundation Model Adaptation[Stanford University]https://arxiv.org/abs/2511.19647---[LG] Simulating Environments with Reasoning Models for Agent Training[University of Washington & Microsoft & CMU]https://arxiv.org/abs/2511.01824

12-01
24:28

[人人能懂] 从学会走路,到打通游戏,再到过目不忘

你有没有想过,AI的“开窍”瞬间,背后藏着什么样的秘密?这一期,我们将一口气解锁五篇最新论文,探讨AI智能的进化法则。我们会发现,为什么让AI的大脑长得“更高”而不是“更胖”,能让它学会体操一样的神操作;为什么“学得快”的AI画家比“学得久”的更有创造力;以及AI是如何通过自我复盘和深度研究,从一个模仿者,成长为能打通复杂游戏的通才。00:00:33 人工智能的成长秘密:与其更胖,不如更高00:04:46 AI画画,为什么“学得快”的比“学得久”的更聪明?00:09:32 不止是模仿:机器人如何学会自我迭代00:14:42 AI上岗:我们是怎么教会它打通一款游戏的?00:20:44 你的大脑不是硬盘,而是搜索引擎本期介绍的几篇论文:[LG] 1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities[Princeton University]https://openreview.net/forum?id=s0JVsx3bx1---[LG] Why Diffusion Models Don't Memorize: The Role of Implicit Dynamical Regularization in Training[Université PSL]https://arxiv.org/abs/2505.17638---[LG] π∗0.6: a VLA That Learns From Experience[Physical Intelligence]https://arxiv.org/abs/2511.14759---[AI] Lumine: An Open Recipe for Building Generalist Agents in 3D Open Worlds[ByteDance Seed]https://arxiv.org/abs/2511.08892---[CL] General Agentic Memory Via Deep Research[Beijing Academy of Artificial Intelligence]https://arxiv.org/abs/2511.18423

11-30
26:46

[人人能懂] 从自我审视、大脑协作到效率革命

今天我们要探讨一个很有意思的问题:聪明的AI和“真正理解”的AI,中间到底隔着什么?本期节目,我们将通过几篇最新论文,一探究竟。我们会看到,AI如何从只会“猜答案”的学生,蜕变为懂得自我批判的“思考者”;也会发现,我们大脑理解语言的秘密,可能在于一个高效的“跨部门协作网络”。接着,我们会揭示AI如何通过巧妙的“团队分工”,同时实现速度与性能的飞跃;最后,我们将探讨一门被忽视的“老手艺”和一种让AI“一句话一句话思考”的新模式,它们或许是让AI真正懂你的关键。准备好了吗?让我们一起开启这场关于AI思考方式的深度探索之旅!00:00:47 从“猜对答案”到“讲清道理”:AI的一次认知飞跃00:07:09 语言的“深加工”:你的大脑里藏着一个协作网络00:12:14 既要马儿跑,又要马儿不吃草?AI世界里有个新答案00:17:27 为什么你的AI总是不懂你?秘密藏在一门20年的老手艺里00:23:32 大模型“一句话一句话”地思考,可能吗?本期介绍的几篇论文:[LG] DeepSeekMath-V2: Towards Self-Verifiable Mathematical Reasoning[DeepSeek-AI]https://github.com/deepseek-ai/DeepSeek-Math-V2/blob/main/DeepSeekMath_V2.pdf---[CL] What does it mean to understand language?[Harvard University & Georgia Institute of Technology & MIT]https://arxiv.org/abs/2511.19757---[CL] Kimi Linear: An Expressive, Efficient Attention Architecture[Kimi Team]https://arxiv.org/abs/2510.26692---[CL] Context Engineering 2.0: The Context of Context Engineering[SJTU & SII]https://arxiv.org/abs/2510.26493---[CL] Continuous Autoregressive Language Models[WeChat AI, Tencent Inc]https://arxiv.org/abs/2510.27688

11-29
30:58

[人人能懂] 把AI打造成指挥家、极简主义者和刹车大师

今天我们来聊聊AI如何学会“精打细算”:它既能像乐团指挥一样,用小模型撬动大任务,也能像个老练的棋手,知道什么时候该点到为止,不再过度思考。我们还会揭开AI成功的两个秘密:一个藏在摄像头无形的运动轨迹里,另一个则深植于它追求“极简”的算法内核。最后,我们会重新审视AI过去十年的万倍效率飞跃,看看这惊人的步究竟是来自无数小改进,还是几次决定性的“工业革命”。准备好了吗?让我们一起探索这些最新论文中反常识的迷人洞见。00:00:40 聪明人的新思路:如何用小模型办成大事00:05:26 不用看画面,如何“猜”出视频里发生了什么?00:09:54 AI万倍效率提升,原来只靠两件事?00:16:47 为什么AI这么神?一篇论文揭示了它的极简主义内核00:22:34 AI学会了“点到为止”,这事儿为啥重要?

11-27
28:38

[人人能懂] 从养成通才、高效瘦身到精准遗忘

我们都知道AI越来越强大,但你有没有想过,我们该如何让它跑得更快、更稳,甚至更“多才多艺”?本期节目,我们将一起探索几篇最新论文,看看科学家们是如何给AI的训练过程装上一个更稳健的导航系统,并揭开AI绘画高手背后“民间偏方”的科学原理。我们还会聊到,如何像培养一个“通才”一样,让一个AI同时学会两百件事。最后,我们将见证两种神奇的“魔法”:如何在没有数据的情况下给大模型高效“瘦身”,以及如何对一个黑箱模型进行精准的“微创手术”。00:00:41 如何给AI装上一个更聪明的“导航系统”00:05:19 AI绘画高手,背后藏着什么训练秘诀?00:11:06 AI通才养成记:如何让一个机器学会200件事?00:17:12 AI模型“瘦身”,如何做到无米之炊?00:25:14 给AI模型做微创手术,需要几步?本期介绍的几篇论文:[LG] ROOT: Robust Orthogonalized Optimizer for Neural Network Training  [Huawei Noah’s Ark Lab]  https://arxiv.org/abs/2511.20626 ---[LG] Demystifying Diffusion Objectives: Reweighted Losses are Better Variational Bounds  [Google DeepMind]  https://arxiv.org/abs/2511.19664 ---[LG] Learning Massively Multitask World Models for Continuous Control  [University of California San Diego]  https://arxiv.org/abs/2511.19584 ---[LG] CafeQ: Calibration-free Quantization via Learned Transformations and Adaptive Rounding  [Google]  https://arxiv.org/abs/2511.19705 ---[LG] ModHiFi: Identifying High Fidelity predictive components for Model Modification  [CSA, IISc & HP Inc. AI Lab & Google]  https://arxiv.org/abs/2511.19566 

11-27
31:05

[人人能懂] 从动态陪练、视觉心眼到临时大脑

AI的学习和思考方式正在发生一场静悄悄的革命。这一期的最新论文,将带我们深入AI的“思维”深处:从和AI陪练一起进化的动态标准,到扔掉秘籍、只学“心法”的速成功夫;从让AI睁开“心眼儿”看懂空间,到将你的指令变成它的“临时大脑”;最后,我们还会看看如何治好AI写作的“耿直病”,让它变得更聪明、更高效。准备好了吗?让我们一起探索AI如何变得更像我们。00:00:36 让AI成为一个既聪明又靠谱的研究助理00:05:51 想学绝世武功,非得有本秘籍吗?00:10:25 让AI睁开‘心眼儿’看世界00:14:33 你的指令,如何成为AI的临时大脑?00:19:45 AI写稿太慢?也许是它太“耿直”了本期介绍的几篇论文:[CL] DR Tulu: Reinforcement Learning with Evolving Rubrics for Deep Research[University of Washington & Allen Institute for AI & MIT]https://arxiv.org/abs/2511.19399---[LG] Flow Map Distillation Without Data[MIT & NYU]https://arxiv.org/abs/2511.19428---[CV] Chain-of-Visual-Thought: Teaching VLMs to See and Think Better with Continuous Visual Tokens[UC Berkeley & UCLA]https://arxiv.org/abs/2511.19418---[LG] Equivalence of Context and Parameter Updates in Modern Transformer Blocks[Google Research]https://arxiv.org/abs/2511.17864---[LG] CDLM: Consistency Diffusion Language Models For Faster Sampling[Seoul National University & UC Berkeley]https://arxiv.org/abs/2511.19269

11-26
24:52

[人人能懂] AI的协作、预算与感知新范式

今天我们要聊的,不是AI模型又变大了多少,而是它们如何从内部变得更“聪明”。我们将看到,最新的论文如何教会AI从“指哪打哪”的工具,进化为能“懂你意思”的助手;又如何让强大的AI科学家学会“混圈子”,融入人类的协作生态。我们还会探讨,AI如何拥有“预算意识”,像个聪明的管家一样精打细算;以及当AI变小时,为什么最先退化的竟然是“眼力”而不是“脑力”。最后,我们还会揭秘AI“高考”中的乌龙事件,看看科学家们如何给AI的“评分尺”纠偏,这一切都指向了AI发展的新方向。00:00:42 让电脑学会“指哪打哪”之后,我们如何教它“看懂”?00:06:05 AI也能当科学家?关键要先学会“混圈子”00:11:20 聪明的AI,是如何学会“省钱”的?00:16:17 AI的“高考”,谁来检查试卷的错别字?00:21:14 AI变笨的秘密:为什么“眼力”比“脑力”更脆弱?本期介绍的几篇论文:[CV] SAM 3: Segment Anything with Concepts[Meta Superintelligence Labs]https://arxiv.org/abs/2511.16719---[AI] OmniScientist: Toward a Co-evolving Ecosystem of Human and AI Scientists[Tsinghua University]https://arxiv.org/abs/2511.16931---[LG] Budget-Aware Tool-Use Enables Effective Agent Scaling[Google Cloud AI Research & Google DeepMind & UC Santa Barbara]https://arxiv.org/abs/2511.17006---[LG] Fantastic Bugs and Where to Find Them in AI Benchmarks[Stanford University]https://arxiv.org/abs/2511.16842---[CV] Downscaling Intelligence: Exploring Perception and Reasoning Bottlenecks in Small Multimodal Models[Stanford University]https://arxiv.org/abs/2511.17487

11-25
27:19

[人人能懂] 大模型根本局限、演化策略、认知框架与具身智能

今天,我们不聊AI有多神奇,而是要给它来一次全面的“体检”,看看它那道看不见的“玻璃天花板”究竟在哪。接着,我们会颠覆你对AI训练的认知,看看它除了“上课”,如何像生物一样“演化”,以及它强大的推理能力背后,是否藏着一套需要我们帮它解锁的“思维地图”。最后,我们会发现,无论是教它解奥赛难题,还是教它做家务,最聪明的办法,可能都藏在我们自己的学习和生活经验里。准备好,让我们一起揭开AI光环背后的真实运作逻辑!00:00:38 AI的玻璃天花板:为什么模型越大,犯的错越“自信”?00:08:26 训练AI,除了“上课”还能“生娃”?00:14:31 AI的“聪明”难题:为什么它能解奥数,却像个没头苍蝇?00:21:39 AI的“题海战术”,跟我们有啥不一样?00:27:36 一副眼镜,如何成为灵巧机器人的“私教”?本期介绍的几篇论文:[LG] On the Fundamental Limits of LLMs at Scale[Stanford University & The University of Oklahoma]https://arxiv.org/abs/2511.12869---[LG] Evolution Strategies at the Hyperscale[FLAIR - University of Oxford & WhiRL - University of Oxford]https://arxiv.org/abs/2511.16652---[LG] Cognitive Foundations for Reasoning and Their Manifestation in LLMs[University of Illinois Urbana-Champaign & University of Washington & Princeton University]https://arxiv.org/abs/2511.16660---[LG] P1: Mastering Physics Olympiads with Reinforcement Learning[Shanghai AI Laboratory]https://arxiv.org/abs/2511.13612---[RO] Dexterity from Smart Lenses: Multi-Fingered Robot Manipulation with In-the-Wild Human Demonstrations[New York University & Meta]https://arxiv.org/abs/2511.16661

11-24
33:50

[人人能懂] 从虚假纠错、全知指数到诗歌越狱

我们总惊叹AI越来越聪明,但你有没有想过,它为什么也越来越会“一本正经地胡说八道”?我们又该如何教会它回归事物的本质,甚至理解整个物理世界的运行规律?而当一个AI变得如此强大时,为什么一句简单的诗,就能轻易攻破它的安全防线?今天,我们就从几篇最新论文出发,一起聊聊AI光环之下的真实面貌。00:00:29 AI:一个既聪明又靠不住的“好学生”00:05:23 AI画画:为什么“猜噪音”不如“看本质”?00:10:13 为什么聪明的AI也爱“一本正经地胡说八道”?00:14:35 AI当学霸:如何用一个模型,通晓万物运行之道00:19:54 为什么AI大模型,偏偏就怕“文化人”?本期介绍的几篇论文:[LG] Structural Inducements for Hallucination in Large Language Models[University of Maryland]https://www.researchgate.net/publication/397779918_Structural_Inducements_for_Hallucination_in_Large_Language_Models_An_Output-Only_Case_Study_and_the_Discovery_of_the_False-Correction_Loop_An_Output-Only_Case_Study_from_Extended_Human-AI_Dialogue_Str---[CV] Back to Basics: Let Denoising Generative Models Denoise[MIT]https://arxiv.org/abs/2511.13720---[CL] AA-Omniscience: Evaluating Cross-Domain Knowledge Reliability in Large Language Models[Artificial Analysis]https://arxiv.org/abs/2511.13029---[LG] Walrus: A Cross-Domain Foundation Model for Continuum Dynamics[Flatiron Institute & University of Cambridge]https://arxiv.org/abs/2511.15684---[CL] Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language Models[DEXAI – Icaro Lab]https://arxiv.org/abs/2511.15304

11-22
26:16

[人人能懂] 当AI学会给自己出题、换引擎、当私教

今天我们不只聊AI能做什么,更要揭秘它是“如何”做到的,聊聊那些让AI变得更聪明、更高效的“幕后机制”。我们将看到,AI如何像一个科研搭档一样与人协作,又如何通过一个巧妙的“飞轮”学会从一张照片脑补出三维世界。我们还会发现,AI怎样通过给自己出题、换上新引擎,甚至给自己当“私教”来实现自我进化,打破能力瓶颈。准备好了吗?让我们一起探寻这些驱动AI飞跃的精妙设计。00:00:35 你的下一个同事,可能不是人00:07:57 一张照片,一个世界:我们如何“脑补”出三维?00:13:22 AI自己教自己,怎么才能不原地踏步?00:18:06 AI造句新高速:换个引擎,解决堵车问题00:22:49 AI的私教课:让聪明的芯片更聪明本期介绍的几篇论文:[CL] Early science acceleration experiments with GPT-5[OpenAI & University of Oxford]https://arxiv.org/abs/2511.16072---[CV] SAM 3D: 3Dfy Anything in Images[Meta Superintelligence Labs]https://arxiv.org/abs/2511.16624---[LG] Agent0: Unleashing Self-Evolving Agents from Zero Data via Tool-Integrated Reasoning[UNC-Chapel Hill]https://arxiv.org/abs/2511.16043---[LG] Breaking the Bottleneck with DiffuApriel: High-Throughput Diffusion LMs with Mamba Backbone[Mila – Quebec AI Institute & ServiceNow Research]https://arxiv.org/abs/2511.15927---[LG] AccelOpt: A Self-Improving LLM Agentic System for AI Accelerator Kernel Optimization[Stanford University & Amazon Web Services]https://arxiv.org/abs/2511.15915

11-21
28:43

[人人能懂] 从思路宽度、品味演化到左右脑协同

你有没有想过,最顶尖的AI是如何思考的?本期节目,我们将从四篇最新论文出发,揭示AI成长的秘密:有时,思路的宽度比深度更重要;有时,机器也需要演化出难以言喻的“品味”;甚至,它还需要学会“左手画方、右手画圆”的协同技巧,并懂得在关键时刻,用恰当的“约束”来避免犯下最聪明的傻错误。准备好了吗?让我们一起潜入AI思考的深水区。00:00:34 AI搞科研,拼的不是智商,而是“思路宽”00:05:32 如何让机器拥有“数学品味”?00:10:30 AI思考,也需要“左手画方,右手画圆”?00:16:58 为什么最聪明的工具,反而最容易犯傻?本期介绍的几篇论文:[AI] What Does It Take to Be a Good AI Research Agent? Studying the Role of Ideation Diversity  [FAIR at Meta]  https://arxiv.org/abs/2511.15593 ---[LG] Learning Interestingness in Automated Mathematical Theory Formation  [UT Austin]  https://arxiv.org/abs/2511.14778 ---[CV] Think Visually, Reason Textually: Vision-Language Synergy in ARC  [The Chinese University of Hong Kong & Shanghai AI Laboratory]  https://arxiv.org/abs/2511.15703 ---[LG] CODE: A global approach to ODE dynamics learning  [University of Stuttgart & Stanford University]  https://arxiv.org/abs/2511.15619 

11-21
21:17

[人人能懂] 从视角切换、跨界偷师到耐心分步

你有没有想过,让AI变得更聪明,不一定需要更强的算力,也许只需要换个“姿势”看问题?本期节目,我们将一起探索几篇最新论文,看看AI如何通过像艺术家一样思考、像高明的交通协管员一样调度、甚至像耐心的学生一样“分步走”,来解决那些曾经的无解难题。更神奇的是,我们还会发现,当AI学会结合语言和演示来猜测我们心思的时候,它其实也在教我们如何更有效地沟通。准备好了吗?让我们马上进入今天的前沿之旅。00:00:36 换个姿势,AI也能像人一样思考?00:05:29 AI画画,能不能别再“三班倒”了?00:12:14 AI变聪明的秘密:不是更猛,而是更有耐心00:16:54 AI训练场上的“交通协管员”00:22:42 机器人“猜”心思的秘密本期介绍的几篇论文:[CV] ARC Is a Vision Problem![MIT]https://arxiv.org/abs/2511.14761---[CV] Diffusion As Self-Distillation: End-to-End Latent Diffusion In One Model[Peking University]https://arxiv.org/abs/2511.14716---[CV] Step by Step Network[Tsinghua University]https://arxiv.org/abs/2511.14329---[LG] Seer: Online Context Learning for Fast Synchronous LLM Reinforcement Learning[Moonshot AI]https://arxiv.org/abs/2511.14617---[RO] Masked IRL: LLM-Guided Reward Disambiguation from Demonstrations and Language[MIT CSAIL]https://arxiv.org/abs/2511.14565

11-20
28:15

[人人能懂] 从看见空间、探索信息到理解“不要”

你有没有想过,能写诗作画的AI,为什么有时却像个固执的孩子?本期我们要聊的几篇最新论文,就试图教会AI一些我们习以为常、但它却难以理解的人类智慧。我们将一起看看,如何治好AI的“路痴”症,让它拥有空间感;如何让它从被动看图,变身主动破案的“侦探”;甚至,如何通过巧妙的“换个姿势”,让它终于听懂“不要”,并随心所欲地调整观察事物的“粒度”。00:00:33 人工智能的“路痴”难题00:05:24 AI侦探,如何给千米大桥做“体检”?00:09:59 从“你猜”到“你定”:AI图像分割的新玩法00:14:45 换个姿势,让AI听懂“不要”本期介绍的几篇论文:[CV] Scaling Spatial Intelligence with Multimodal Foundation Models  [SenseTime Research]  https://arxiv.org/abs/2511.13719 ---[CV] BridgeEQA: Virtual Embodied Agents for Real Bridge Inspections  [University of Houston]  https://arxiv.org/abs/2511.12676 ---[CV] UnSAMv2: Self-Supervised Learning Enables Segment Anything at Any Granularity  [UC Berkeley]  https://arxiv.org/abs/2511.13714 ---[CV] SpaceVLM: Sub-Space Modeling of Negation in Vision-Language Models  [MIT]  https://arxiv.org/abs/2511.12331 

11-18
19:51

[人人能懂] 从灵感溯源、速读秘诀到诚实AI

你有没有想过,最顶尖的AI,它的智慧可能不是体现在无所不知,而是敢于坦诚地说出“我不知道”?本期节目,我们将一起探索AI如何学会这项宝贵的品质。我们还会揭秘,如何给AI装上一双“眼睛”让它在嘈杂派对里也能跟你轻松对话,如何用一个优美的公式教会它“速读”长篇报告,甚至让一份200页的PDF自己开口说话,并在一秒内找到AI画作的灵感“祖先”。准备好了吗?让我们一起进入AI更深邃、更智慧的内心世界。00:00:39 AI画画的灵感,能秒速溯源吗?00:06:29 大模型读书慢?给它一副聪明的“速读眼镜”00:12:13 给AI一双眼睛,让它学会“察言观色”00:16:37 AI的最高智慧,是承认自己不知道00:22:56 如何让一份200页的PDF,自己开口说话?本期介绍的几篇论文:[CV] Fast Data Attribution for Text-to-Image Models[CMU & Adobe Research & UC Berkeley]https://arxiv.org/abs/2511.10721---[LG] Optimizing Mixture of Block Attention[MIT]https://arxiv.org/abs/2511.11571---[CL] AV-Dialog: Spoken Dialogue Models with Audio-Visual Input[University of Washington & Meta AI Research]https://arxiv.org/abs/2511.11124---[LG] Honesty over Accuracy: Trustworthy Language Models through Reinforced Hesitation[Toyota Technological Institute at Chicago & University of California, San Diego]https://arxiv.org/abs/2511.11500---[CL] Information Extraction From Fiscal Documents Using LLMs[Google Inc & XKDR Forum]https://arxiv.org/abs/2511.10659

11-18
29:00

[人人能懂] 从组建乐团、自我修炼到深度思考

想让AI更聪明,答案一定是用更多数据喂出个更大的模型吗?本期我们要聊点不一样的:当AI不再单打独斗,而是组建起一支“交响乐团”;当它不再追求更大,而是学会了“反复琢磨”;当它甚至能像武林高手一样开启“自我修炼”。我们将从几篇最新论文出发,看看AI如何从理解微观世界的“集体舞步”,到为自己的想象力配上一本“物理说明书”,走上一条更聪明的进化之路。00:00:31 AI制药,也需要一个“交响乐团”?00:05:32 人工智能的“自我修炼”手册00:11:46 如何预测一群舞者的集体舞步?00:17:16 AI变聪明的捷径:不是更大,而是更深00:22:03 给AI视频配一本“物理说明书”本期介绍的几篇论文:[LG] MADD: Multi-Agent Drug Discovery Orchestra  [ITMO University]  https://arxiv.org/abs/2511.08217 ---[LG] AgentEvolver: Towards Efficient Self-Evolving Agent System  [Tongyi Lab]  https://arxiv.org/abs/2511.10395 ---[LG] Entangled Schrödinger Bridge Matching  [University of Pennsylvania & Duke-NUS Medical School]  https://arxiv.org/abs/2511.07406 ---[CL] Teaching Pretrained Language Models to Think Deeper with Retrofitted Recurrence  [University of Maryland & New York University]  https://arxiv.org/abs/2511.07384 ---[RO] Robot Learning from a Physical World Model  [Google DeepMind & USC]  https://arxiv.org/abs/2511.07416 

11-17
26:52

[人人能懂] 乐高说明书、喜剧大赛与科研空间站

你有没有想过,AI的大脑里到底是什么样?今天我们就来一次深度探险,看看最新论文如何为我们绘制出AI的“乐高说明书”,又如何让它兼顾深思熟虑与脱口而出。我们还会把AI送上喜剧舞台,一探它那难以共情的奇特笑点,甚至把它放进一个虚拟“空间站”,看它能否成为真正的科学家。最后,我们会聊一个大趋势:AI正在悄悄地从遥远的云端,搬到你我的身边。00:00:31 AI的“乐高”说明书00:06:17 让AI既能深思熟虑,又能脱口而出00:11:07 AI的笑点,为什么我们Get不到?00:15:29 AI科学家,告别流水线00:21:19 AI大变局:从云端到你身边本期介绍的几篇论文:[LG] Weight-sparse transformers have interpretable circuits  [OpenAI]  https://cdn.openai.com/pdf/41df8f28-d4ef-43e9-aed2-823f9393e470/circuit-sparsity-paper.pdf---[CL] TiDAR: Think in Diffusion, Talk in Autoregression  [NVIDIA]  https://arxiv.org/abs/2511.08923 ---[CL] Assessing the Capabilities of LLMs in Humor: A Multi-dimensional Analysis of Oogiri Generation and Evaluation  [Hitotsubashi University]  https://arxiv.org/abs/2511.09133 ---[LG] The Station: An Open-World Environment for AI-Driven Discovery  [Dualverse AI]  https://arxiv.org/abs/2511.06309 ---[LG] Intelligence per Watt: Measuring Intelligence Efficiency of Local AI  [Stanford University]  https://arxiv.org/abs/2511.07885 

11-16
26:41

[人人能懂] 从大师风范到听懂音乐

如何让AI更聪明、更可靠?这期节目,我们将颠覆你的好几个固有认知。我们会发现,让小模型拥有大师风范的最佳方式,竟是引入一场“鉴赏家”参与的博弈;而AI最好的记忆方法,有时反而是那个最“笨”的。接着,我们将探讨如何用一张“考试大纲”驯服AI,又如何给它内置一个“苏格拉底”进行自我纠错。最后,我们还会揭秘,AI是如何从仅仅“听到”音乐,进化到能够“听懂”音乐背后的高级情感与故事的。00:00:37 让你的小模型,拥有宗师风范00:05:09 为什么说,最笨的方法,是AI最好的记忆方法?00:10:30 AI的“考试大纲”:我们如何让它更听话?00:15:54 如何让AI少犯错?给它一个内置的“苏格拉底”00:21:06 从“好听”到“高级”:AI如何学会聊音乐?本期介绍的几篇论文:[CL] Black-Box On-Policy Distillation of Large Language Models  [Microsoft Research]  https://arxiv.org/abs/2511.10643 ---[CL] Convomem Benchmark: Why Your First 150 Conversations Don't Need RAG  [Salesforce AI Research]  https://arxiv.org/abs/2511.10523 ---[CL] Rubric-Based Benchmarking and Reinforcement Learning for Advancing LLM Instruction Following  [Meta Superintelligence Labs & Princeton University]  https://arxiv.org/abs/2511.10507 ---[CL] SSR: Socratic Self-Refine for Large Language Model Reasoning  [Salesforce AI Research]  https://arxiv.org/abs/2511.10621 ---[AS] Music Flamingo: Scaling Music Understanding in Audio Language Models  [NVIDIA & University of Maryland]  https://arxiv.org/abs/2511.10289 

11-14
27:23

[人人能懂] 推演未来,思考多元,还能给想法“瘦身”

你有没有想过,让AI更强大,除了把它做得更大,还有哪些更聪明的办法?今天我们就来聊聊几篇最新的论文,它们不约而同地指向了“思维品质”的提升。我们将看到AI如何学会像人一样看“大局”,如何用“人海战术”的群体智慧实现零失误,甚至如何拥有一个可以推演未来的“虚拟世界”。我们还会探讨,如何通过给AI的思维“剪枝”,以及鼓励“多样性”,让它变得既聪明又不无聊。00:00:34 让AI学会“看大局”,会发生什么?00:05:38 “笨蛋”的胜利:当AI学会了“人海战术”00:10:57 如何给AI一个可以推演未来的世界?00:16:21 为什么AI越来越像个只会复读的“乖孩子”?00:21:23 给AI的思维“剪枝”,让它想得又快又好本文介绍的几篇论文:[LG] Aligning machine and human visual representations across abstraction levels[University of Maryland]https://arxiv.org/abs/2505.11080---[LG] Solving a Million-Step LLM Task with Zero Errors[Cognizant AI Lab]https://arxiv.org/abs/2511.09030---[CV] PAN: A World Model for General, Interactable, and Long-Horizon World Simulation[Mohamed bin Zayed University of Artificial Intelligence]https://arxiv.org/abs/2511.09057---[CL] Diverse Preference Learning for Capabilities and Alignment[MIT CSAIL]https://arxiv.org/abs/2511.08594---[CL] Chopping Trees: Semantic Similarity Based Dynamic Pruning for Tree-of-Thought Reasoning[Algoverse AI Research]https://arxiv.org/abs/2511.08595

11-14
26:53

[人人能懂] 大道至简、精准打击与自我解释

今天我们来聊一个特别有意思的话题:AI的“内心世界”。我们总惊叹于AI的强大,但它在学习时,究竟是大刀阔斧地改造自己,还是在悄悄地“偷懒”走捷径?当AI开始模仿人类的身体,甚至尝试像科学家一样思考,它离真正的创造还有多远?更重要的是,我们如何才能听到AI的“真心话”,而不是精心编排的场面话?今天,我们就从五篇最新论文出发,一起探寻AI大脑深处的秘密。00:00:36 AI训练的“第一性原理”:大道至简00:06:38 机器人告别“笨拙”的秘密武器00:11:49 AI进化的秘密:为什么最聪明的学习,看起来最“懒”?00:18:46 AI的“真心话”,能教出来吗?00:22:51 AI当“科学家”,靠的是两位“老师”本期介绍的几篇论文:[LG] LeJEPA: Provable and Scalable Self-Supervised Learning Without the Heuristics[Brown University & New York University]https://arxiv.org/abs/2511.08544---[RO] SONIC: Supersizing Motion Tracking for Natural Humanoid Whole-Body Control[Nvidia]https://arxiv.org/abs/2511.07820---[LG] The Path Not Taken: RLVR Provably Learns Off the Principals[Meta AI & The University of Texas at Austin]https://arxiv.org/abs/2511.08567---[CL] Training Language Models to Explain Their Own Computations[Transluce & MIT CSAIL]https://arxiv.org/abs/2511.08579---[CL] AlphaResearch: Accelerating New Algorithm Discovery with Language Models[Tsinghua University & New York University & Yale University]https://arxiv.org/abs/2511.08522

11-13
28:03

Recommend Channels