文章摘要
【关 键 词】 多模态、创新能力、训练方法、性能提升、泛化能力
这篇文章介绍了中山大学HCP实验室团队与Sea AI Lab以及哈佛大学合作的研究成果,他们提出了一种新的训练方法CLoT,旨在激发多模态大模型的创造力。首先,团队选择了来自日本的“大喜利”游戏作为数据来源,这种游戏要求玩家给出创新的、有趣的回应,适合用于探索多模态大模型的创新能力。团队设计了两个阶段的训练方法,第一阶段是关联性指令微调,用于训练模型具备创新响应能力;第二阶段是探索性自我调整,通过设计远距离关联的条件词,促使模型生成多样化且创新的回答。实验结果表明,CLoT能够显著提高多模态大模型的性能,超越了包括GPT-4在内的先进模型,并在用户调查和其他任务评估中也表现出不错的泛化能力。团队介绍了中山大学HCP实验室的背景和成就,并提供了论文链接和项目代码。整体而言,他们的研究为多模态大模型的创造力提供了新的训练思路,并取得了令人瞩目的成果。
原文和模型
【原文链接】 阅读原文 [ 2129字 | 9分钟 ]
【原文作者】 量子位
【摘要模型】 gpt-3.5-turbo-0125
【摘要评分】 ★☆☆☆☆
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...