震惊!OpenAI大神爆料:现在的AI都是死记硬背的学渣?
Description
2025年12月01日
最近AI圈有个大新闻,被很多人称为“AI教父”的Ilya Sutskever,就是OpenAI的联合创始人,他最近一番采访,可以说是直接把整个AI圈的遮羞布给掀了。听完感觉,原来我们每天吹上天的AI,本质上就是个“题海战术”培养出来的高分低能选手?
没错,他这个比喻特别精准。现在的AI就像一个刷了1万道题的竞赛生,考试成绩爆表,各种评测榜单上碾压人类。但你让他在现实世界里解决一个稍微没见过的问题,他就可能犯一些特别低级的错误。
我太有感触了。有时候让AI写个代码,它看起来头头是道,但你指出一个bug,他道歉,然后改,结果又引入一个新bug,你再指出来,他又把第一个bug给改回来了,像个复读机一样在两个错误之间反复横跳。
这就是典型的应试教育后遗症。AI公司太在乎那些评测指标了,哪个分数低了就赶紧针对性的猛刷题。结果AI变得非常擅长考试,而不是真正的理解和解决问题。
这就有点本末倒置了。我们花了这么多资源,结果就培养了一堆只会考试的机器学生。话说回来,我们人类又是怎么做到在数据量少的可怜的情况下,反而拥有那么强的学习和决策能力的?
你俩提的那个例子就特别有冲击力。他说有个病人因为脑损伤负责情绪的区域坏掉了。这个人的智商测试完全正常,逻辑推理也没问题,但是他做不了任何决策,选双袜子都要花好几个小时。
这有点颠覆我的认知。我们总觉得情绪是决策的干扰项,是不理性的对。
但事实恰恰相反,这个案例说明情绪或者说一个更底层的价值判断系统,才是我们人类做出正确决策的核心。没有他,你就是个高智商的废人。反观我们学习,一个小孩没看过多少数据,他的车辆识别能力已经强到足够去学开车了。这背后一定有一种比现在AI更高效的底层学习算法。
我明白了,所以我们人类这种举一反三的能力和AI靠海量数据运算的题海战术根本就不是一个路子。那现在这些AI巨头们还在沿着老路走吗?
这就是Ilya批评的重点。他有句话特别扎心,说现在AI圈的问题是公司比点子还多。你想想OpenAI、google、meta还有国内一大堆公司都在疯狂烧钱,但本质上都在做同一件事,怎么说?就是把模型搞得更大把数据喂得更多A把这比作大家都在比谁的锅更大,而不是研究怎么把菜做得更好吃。
这个比喻太形向了。
这就是所谓的缩放时代的弊端。大家都在堆算力堆数据,但真正的突破性想法很少。Ilya认为这条路快走到头了,因为互联网上的高质量数据快用完了,单纯再加100倍的算力,带来的提升也越来越小。
所以他觉得继续沿着堆料这条路走下去,很快就会撞上天花板,AI行业必须得回到真正的研究时代去找新方法了。
完全正确。这就像一个行业过度依赖某一种成功模式,一旦这条路走不通,就可能集体迷茫。Ilya的喊话其实就是对整个行业的一种警示,要警惕这种路径依赖的陷阱。
好,既然堆料这条老路走不通了,未来的超级AI会是什么样子?Ilya好像也有个颠覆性的看法。
他重新定义了大家对AGI也就是通用人工智能的理解。我们总以为AGI是一个什么都会全知全能的上帝,但Ilya说人类自己都不是AGI,你让一个普通人去当医生律师,他也不会有道理。
那人类的通用智能体现在哪?
体现在学习能力上。所以伊利认为未来的超级AI更应该是一个超级学习者,他就像一个新员工,但学习速度可能是人类的100倍。
我明白了,所以未来可能不会有一个万能的AI而是会出现很多专科ai比如一个AI特别擅长写代码,另一个特别擅长打官司,就像我们人类社会的分工一样。
正是这个意思。但这也带来了一个更深层次的问题,如果一个AI能学会所有技能,还能把不同领域学到的知识融会贯通,那就太可怕了。所以安全问题就成了重中之重。
没错,这种超级学习者的潜力越大,失控的风险就越高。关于AI安全alia是怎么看的?
他说了句大实话,AI安全最大的问题是我们根本想象不出超级AI有多强。就像我们现在很难去真正理解一个超级智能会怎么思考。但他预测随着AI越来越强,以前的竞争对手比如OpenAI和Anthropic会开始在安全问题上合作,因为他们是真的怕了,同时政府也一定会像管制核武器一样介入。
这些听起来都还比较常规,他有没有提出什么更更激进的方案?
他提了一个,而且他自己都说我不喜欢,但这可能是答案,就是人机合体。
人机合体,你是说用脑机接口把人和AI连起来。
对,他的逻辑是如果未来人类只是站在旁边看AI工作,那我们迟早会被边缘化,变成吉祥物,这很危险。但如果通过脑机接口,AI懂什么你也懂什么,AI做决策你也参与决策,这样人类才能继续留在核心圈。
这听起来也太科幻了,不过想想马斯克的Neuralink也确实在搞这个。那Ilya他自己从OpenAI出来创立的新公司SSI又在憋什么大招呢?
他的计划非常硬核,别的公司都是一步步迭代,从GPT3到GPT4。这样SSI的目标是不发中间产品,直接搞出最终的超级智能。他想完全专注于技术突破,不受市场竞争的干扰。
这真是要么不出手,一出手就要王炸。他有说大概什么时候我们能看到超级AI吗?
他给了一个区间,5到20年.
这范围也太大了。
看起来大,但其实很有深意。五年大概是2030年和OpenAI之前提的AGI时间点差不多。20年就是2045年,接近奇点理论家库兹韦尔说的时间。所以基本可以确定,我们这一代人大概率是能亲眼见证历史了。
听完感觉我们真的活在科幻小说里。今天聊下来,感觉Ilya这次访谈信息量巨大。你能不能帮我们总结一下最关键的几个要点?
当然我觉得核心有这么几点。第一,现在的AI陷入了应试教育的困境,高分低能必须反思。第二,AI公司靠堆数据堆算力的缩放时代快到头了,必须回归到真正的技术研究。第三,未来的超级AI不会是全能上帝,而是一个超级学习者,可能会带来行业的高度专业化。最后也是最重要的,超级AI可能在5到20年内出现,它的影响力会超乎想象,我们必须极度重视它的安全问题。
以上就是本期播客的全部内容啦。









