Sora负责人与谢赛宁「隔空对话」,LLM先锋集结中国最硬核AI内行盛会!智源大模型全家桶亮相

AIGC动态6个月前发布 AIera
1,138 0 0
Sora负责人与谢赛宁「隔空对话」,LLM先锋集结中国最硬核AI内行盛会!智源大模型全家桶亮相

 

文章摘要


【关 键 词】 智源大会低碳AI多模态模型AI技术路径通用人工智能

2024年的智源大会展示了人工智能领域的最新进展和学术成果,其中最引人注目的是智源研究院和中国电信人工智能研究院联合研发的全球首个低碳单体稠密万亿参数大模型Tele-FLM-1T。该模型在算力资源消耗上实现了低碳生长,仅使用了112台A800服务器,以业界普通训练方案9%的算力资源,在4个月内完成了3个模型总计2.3Ttokens的训练。这一成果有望解决全球算力紧缺的难题,对于开源社区和整个产业链具有重要意义。

在大模型领域,学界对于当前技术路径是否正确提出了质疑。图灵奖得主LeCun认为,现有的大型语言模型(LLM)无法达到人类级别的AI,甚至不如家猫的通识和理解力。他指出,基于自回归预测下一个token的大模型只是AI发展路线图中的一个阶段,无法进行规划和推理。为了实现人类级别的AI,需要将基于Transformer的自监督预训练模型置于能够推理、规划的「世界模型」体系中。

智源研究院提出了统一原生的多模态大模型技术路径,发布了Emu 2EVA-CLIP-18B模型,分别在生成式多模态和视觉表征方面取得了领先的性能。正在训练中的原生多模态「世界模型」Emu 3,将多种模态融合,同时将生成和理解进行融合,具备图像、视频、文字的输入和输出能力,以及更多模态的可扩展性。

此外,智源研究院还发布了全球下载量最高的国产AI模型BGE,以及通用计算机控制系统Cradle,展示了AI在计算机控制和自主完成任务方面的能力。智源大模型全家桶包括语言大模型、多模态大模型、具身大模型、生物计算大模型,以及支撑这些大模型技术迭代的算力集群「操作系统」。

智源大会的学术成果和前沿技术展示了人工智能向AGI(通用人工智能方向发展的潜力,同时也引发了对当前技术路径的深入思考和讨论。随着大模型参数的增长和多模态能力的融合,未来几年内,我们有望见证人工智能领域的重大突破。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 8743字 | 35分钟 ]
【原文作者】 新智元
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...