“梗王”大模型,靠讲笑话登上CVPR | 中山大学

AIGC动态6个月前发布 QbitAI
569 0 0
“梗王”大模型,靠讲笑话登上CVPR | 中山大学

 

文章摘要


【关 键 词】 多模态创新能力训练方法性能提升泛化能力

这篇文章介绍了中山大学HCP实验室团队与Sea AI Lab以及哈佛大学合作的研究成果,他们提出了一种新的训练方法CLoT,旨在激发多模态大模型的创造力。首先,团队选择了来自日本的“大喜利”游戏作为数据来源,这种游戏要求玩家给出创新的、有趣的回应,适合用于探索多模态大模型的创新能力。团队设计了两个阶段的训练方法,第一阶段是关联性指令微调,用于训练模型具备创新响应能力;第二阶段是探索性自我调整,通过设计远距离关联的条件词,促使模型生成多样化且创新的回答。实验结果表明,CLoT能够显著提高多模态大模型的性能,超越了包括GPT-4在内的先进模型,并在用户调查和其他任务评估中也表现出不错的泛化能力。团队介绍了中山大学HCP实验室的背景和成就,并提供了论文链接和项目代码。整体而言,他们的研究为多模态大模型的创造力提供了新的训练思路,并取得了令人瞩目的成果。

原文和模型


【原文链接】 阅读原文 [ 2129字 | 9分钟 ]
【原文作者】 量子位
【摘要模型】 gpt-3.5-turbo-0125
【摘要评分】 ★☆☆☆☆

© 版权声明

相关文章

暂无评论

暂无评论...