文章摘要
【关 键 词】 EMNLP2024、华人学者、LLM检测、跨文化研究、语音编码器
EMNLP 2024 最佳论文奖揭晓,5篇获奖论文中有3篇华人学者参与。中科院网络数据科学与技术重点实验室、中国科学院大学等机构的学者提出了一种新方法,用于检测文本是否为大型语言模型(LLM)预训练数据的一部分,以提高LLM训练数据透明度。EMNLP’24共收录2978篇论文,比去年增长5%,其中2455篇主会议论文,523篇workshop论文。
上海交通大学、CMU等团队获得最佳论文奖。CMU的论文研究图像跨文化再创作任务,提出了三个包含SOTA生成模型的管道。CMU、上海交通大学、丰田工业大学芝加哥分校等机构的论文介绍了跨语言通用语音编码器XEUS,构建了包含4057种语言、超100万小时数据的预训练语料库,在多个下游任务中表现优异。以色列理工学院、特拉维夫大学的研究人员将基于Transformer的语言模型的可解释性方法扩展到后向传递和梯度。康奈尔大学的研究团队提出结合语言理解和生成能力的方法,在与用户交互中提升性能。
此外,还有20篇论文获得杰出论文奖,涉及大语言模型的隐私法律调整、学习倾向、跨文化机器翻译等议题。加州大学洛杉矶分校副教授Nanyun Peng团队的三篇论文获奖,关注评估LLM在创意叙事生成方面的能力。
原文和模型
【原文链接】 阅读原文 [ 2062字 | 9分钟 ]
【原文作者】 量子位
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★☆☆☆
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...