Meta华人新秀毕树超,重磅爆料下一代LLM路线!RL+预训练直通AGI

AIGC动态15小时前发布 AIera
40 0 0
Meta华人新秀毕树超,重磅爆料下一代LLM路线!RL+预训练直通AGI

 

文章摘要


【关 键 词】 AI发展AGI挑战数据质量探索机制终身学习

在哥伦比亚大学的演讲中,OpenAI前研究员毕树超深入探讨了通用人工智能(AGI)的发展路径与核心挑战。AGI的实现不仅需要跨领域泛化能力,还需与环境互动并适应新任务,这要求强化学习与好奇心驱动的探索机制相结合。尽管当前AI技术取得显著进展,但毕树超指出,数据质量而非算力规模才是关键瓶颈——高质量、与目标对齐的数据及高效算法是突破AGI的前提。

关于智能的本质,他提出颠覆性观点:人脑与计算机的学习本质并无差异,智能的核心在于规模效应而非结构复杂性。这一观点通过ChatGPT的矩阵运算实现智能得到佐证。针对Scaling Law的争议,他强调其有效性取决于数据智能密度,当前模型受限于可验证领域的数据匮乏和探索效率低下,如同蒙特卡洛树搜索面临组合爆炸问题。解决路径包括提升数据效率或开发更优算法,而模拟环境与具身交互可能加速这一进程。

在知识发现层面,人类依赖好奇心驱动的探索与知识传承循环,而AI目前主要通过插值和外推生成内容。毕树超认为,赋予AI探索机制可缩小搜索空间,形成类似AlphaFold的正向飞轮效应。但研究显示,强化学习虽能提高任务精度(Pass@1),却未显著扩展模型创新能力(Pass@100万),揭示当前AI仍缺乏真正的灵感涌现能力。不过,AlphaEvolve在数学构造上的突破表明,机器可能发展出独特的”偶然发现”模式。

学习效率差异构成另一关键挑战。人类通过抽象意图学习,而AI仍困于表层token预测,导致样本效率低下。未来范式需解决高层次抽象学习与可控推理问题。毕树超预见下一代AI将拓展至工具使用、自我博弈和记忆能力,其中终身学习将成为核心竞争力。最后,他警示需关注AI安全的三重风险,尤其是对齐失败可能引发的系统性危机,这将成为研究重点领域。

原文和模型


【原文链接】 阅读原文 [ 3079字 | 13分钟 ]
【原文作者】 新智元
【摘要模型】 deepseek/deepseek-v3-0324
【摘要评分】 ★★★★☆

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...