450美元训练一个「o1-preview」?UC伯克利开源32B推理模型Sky-T1,AI社区沸腾了

450美元训练一个「o1-preview」?UC伯克利开源32B推理模型Sky-T1,AI社区沸腾了

 

文章摘要


【关 键 词】 开源模型推理能力数据混合技术演进学术机遇

加州大学伯克利分校天空计算实验室的研究团队NovaSky发布了Sky-T1-32B-Preview,这是一个32B推理模型,其训练成本不到450美元,显示出高级推理能力的复制可以经济高效。该模型在多个关键基准测试中与OpenAI o1的早期版本相媲美,并且是第一个真正开源的推理模型,团队发布了训练数据集和必要的训练代码,使得任何人都能从头开始复制。

Sky-T1-32B-Preview在数学和编码推理方面展现出竞争力,团队开源了所有细节,包括基础设施、数据、技术细节和模型权重,以便社区复制和改进。在数据整理过程中,团队使用了QwQ-32B-Preview开源模型,通过混合数据涵盖不同领域,并采用拒绝采样程序提高数据质量。训练过程中,团队微调了Qwen2.5-32B-Instruct模型,使用DeepSpeed Zero-3 offload技术在8个H100上完成训练。

评估结果显示,Sky-T1在MATH500和LiveCodeBench上的表现优于o1的早期预览版本,但在GPQA-Diamond上不如o1预览版。团队发现模型大小和数据混合对模型性能有显著影响,较小模型经常生成重复内容,限制了有效性,而均衡的数据混合使模型在数学和编程领域都表现出色。

这一成果标志着2025年大模型技术演进的加速,预示着未来个人在本地运行不到1万亿个参数的模型的可能性。尽管有研究者对此表示怀疑,但NovaSky团队的这一贡献无疑为学术界和开源社区的参与提供了新的机遇。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 1751字 | 8分钟 ]
【原文作者】 机器之心
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★☆☆☆

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...