AI 到处刷榜,却在真实开发里犯低级错。看完 IIya 2 小时最新访谈,我释然了。这份最新访谈我整理后放墨问了,去掉了口语、重复部分,保留了 Ilya 的主要观点和细节,一共 6000 字。想看原文的点这里: 一个国家要把 1% 的 GDP 投在 AI 上?好的(AI 大神 IIya 最新访谈) OpenAI 联合创始人、前首席科学家 Ilya Sutskever 在最近一期访谈里,第一次系统谈了自己离开 OpenAI、创立 Safe Super intelligence(SSI)后的想法。 IIya 回顾了几个时代:2012–2020 是“研究时代”,AlexNet、Transformer 等工作,用的 GPU 也并不夸张;2020 之后进入“扩展时代”,大家找到预训练方法:更多数据、算力和参数,性能顺着幂律往上爬,巨头持续砸钱。预训练数据终会见顶,RL 的扩展越来越像围绕评测做“奖励黑客”。在他看来,单纯再乘 100 倍算力,很难再带来以前那种质变,行业迟早要回到“怎么学”的方法问题上。现在算力增加了,但人们需要重新进入“研究时代”。为什么 AI 会犯低级错误?关于“人类学习 vs 模型泛化”,Ilya 表示,今天的大模型在 benchmark 上到处刷榜,却在真实开发里犯低级错:修 bug 时在两个错误之间来回跳,对长链路任务缺乏稳定性。Ilya 说,现在的系统像刷了 1 万小时题目的竞赛选手,而不是只练几百小时、但更会迁移学习成果的学生。预训练的长处是“量大、自然”,短板是没学到人类那种稳健泛化的能力。人类在数学、编程这类进化史里几乎不存在的任务上,依然展现出惊人的样本效率,他据此推断:大脑里一定有更本质的“学习原理”,情绪、价值函数、社会需求很可能都是机制的一部分——而这正是现有 ML 框架基本没碰到的地带。 Ilya 一方面强调要“逐步、提前部署 AI”,让社会和政府通过真实使用了解能力边界;另一方面又抛出一个锋利的立场:希望首先出现的是“关心所有有感知生命”的超智能,而不是只服务人类利益的工具。未来他预期会有多家前沿公司、多个超智能并存,在能力上竞争、在安全上被迫合作。 llya 最后说,一个想法,在美学上应该是“简洁、优雅”的。不一定是最简单的,但要有一种“对的味道”;从多个角度看,它都说得通。

MacTalk 2025-11-27 16:44
推荐阅读