小红书这场大模型论文分享会,集齐了四大国际顶会的作者

AIGC动态5个月前发布 almosthuman2014
1,173 0 0
小红书这场大模型论文分享会,集齐了四大国际顶会的作者

 

文章摘要


【关 键 词】 大模型自然语言评测方法应用场景论文分享

大模型正在引领新一轮的研究热潮,业界和学术界都在这一领域涌现出众多创新成果。小红书技术团队也在这一浪潮中不断探索,并在多个国际顶会上频频亮相。大模型与自然语言处理的交汇处,带来了新的机遇和挑战。有效的评测方法和大模型在应用场景中的融入成为研究的重点。

小红书将在2024年6月27日举办第十一期《小红书 2024 大模型前沿论文分享》线上活动,特别邀请了小红书社区搜索团队分享他们在大模型研究方面的最新成果。活动将展示六篇在2024年发表的论文,涵盖大模型解码与蒸馏技术、大模型评测方法以及大模型在小红书平台上的实际应用。

第一篇论文《Escape Sky-high Cost: Early-stopping Self-Consistency for Multi-step Reasoning》提出了一种早停自洽性方法(ESC),用于解决大模型多步推理中的高成本问题。该方法通过动态选择不同任务和模型的性能-成本平衡,在不牺牲性能的情况下显著降低了采样次数。

第二篇论文《Integrate the Essence and Eliminate the Dross: Fine-Grained Self-Consistency for Free-Form Language Generation》提出了细粒度自洽性方法(FSC),显著提升了自洽性方法在自由格式生成任务上的表现。通过实验分析,团队发现现有方法的不足在于粗粒度的共性样本选择,FSC方法则有效利用了不同样本细粒度片段之间的共性知识。

第三篇论文《BatchEval: Towards Human-like Text Evaluation》提出了BatchEval方法,能够以更低的开销达到类人水平的文本评测效果。该方法通过样本间比较建立更加立体全面的评测基准,在评测开销与评测效果两方面都取得了显著更优的表现。

第四篇论文《Poor-Supervised Evaluation for SuperLLM via Mutual Consistency》提出了PEEM方法,通过模型间的互一致性实现对超越人类水平的大语言模型的准确评测。该方法能够有效缓解现实中评测样本不足的问题,从而实现对超越人类水平的大语言模型的准确评测。

第五篇论文《Turning Dust into Gold:Distilling Complex Reasoning Capabilities from LLMs by Leveraging Negative Data》提出了一个利用负样本促进大模型推理能力的蒸馏框架。该框架通过负向协助训练、负向校准增强和动态自洽性三个步骤,显著提升了大模型在复杂推理任务中的表现。

第六篇论文《NoteLLM: A Retrievable Large Language Model for Note Recommendation》介绍了基于大语言模型的笔记内容表征推荐系统。该系统通过生成增强表征和多模态内容表征,显著提升了笔记内容的理解和推荐效果,已在小红书多个业务场景中取得显著收益。

此次活动将通过微信视频号、B站、抖音、小红书等平台同步直播,观众可以在线与论文作者交流,获取关于大模型技术的最新见解,探讨未来的发展趋势,并交流如何利用这些前沿技术提升用户体验,推动平台智能化发展。

豆包-智能助手

原文和模型


【原文链接】 阅读原文 [ 2484字 | 10分钟 ]
【原文作者】 机器之心
【摘要模型】 gpt-4o
【摘要评分】 ★★★★★

© 版权声明

相关文章

暂无评论

暂无评论...