标签:微调方法

LoRA、完全微调到底有何不同?MIT 21页论文讲明白了

本研究旨在探讨完全微调和低秩自适应(LoRA)两种微调大型语言模型方法之间的差异。微调是将预训练的大型语言模型应用于特定下游任务的关键步骤,而LoRA方法...

上海交大、腾讯发布高效扩散模型微调方法,提升图像生成效率

近年来,扩散模型在图像、视频和3D生成等任务中发挥了重要作用,但在将预训练模型微调应用于实际业务场景时面临挑战。现有微调方法如AFT、RFT和SFT存在局限性...

LLaMA-2-7B数学能力上限已达97.7%?Xwin-Math利用合成数据解锁潜力

这篇文章介绍了一项由西安交通大学、中国科学技术大学、清华大学和微软亚洲研究院的学者共同完成的研究工作,名为Xwin,旨在探索通用预训练下规模为7B的语言...