极大降低大模型训练内存需求,Meta等推出高效方法

AIGC动态9个月前发布 AIGCOPEN
1,001 0 0

模型信息


【模型公司】 OpenAI
【模型名称】 gpt-3.5-turbo-0125
【摘要评分】 ★★☆☆☆

极大降低大模型训练内存需求,Meta等推出高效方法
 

文章摘要


【关 键 词】 GaLore低秩结构内存优化参数学习性能保持

该文章介绍了一个名为GaLore的高效训练方法,旨在解决大型语言模型在预训练过程中对内存需求过高的问题。研究人员发现,在训练过程中,梯度矩阵会自然呈现出低秩结构,为GaLore算法提供了理论基础。GaLore通过将权重矩阵梯度投影到低秩形式,大幅降低了优化器状态的内存需求,同时保留了完整参数的学习能力。在LLaMA 1B7B模型上的测试显示,GaLore相比全精度基线减少了90%的优化器内存开销,性能仅下降了约1%。研究人员还证明了GaLore的训练是收敛的,并比LoRA方法更出色,具有完整参数学习、更少内存占用和保持模型性能等优势。GaLore的应用使得使用消费级显卡即可完成大型语言模型的预训练,无需其他技术支持。该方法为解决大型模型训练中的内存需求问题提供了一种高效的解决方案。

原文信息


【原文链接】 阅读原文
【阅读预估】 1158 / 5分钟
【原文作者】 AIGC开放社区
【作者简介】 专注AIGC领域的专业社区,关注微软OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...