谷歌推出AGREE,增强大模型生成回答准确性

AIGC动态6个月前发布 AIGCOPEN
1,189 0 0
谷歌推出AGREE,增强大模型生成回答准确性

 

文章摘要


【关 键 词】 AI技术幻觉信息AGREE框架内容准确性信息验证

在生成式AI技术快速发展的今天,尽管模型如ChatGPT和Gemini等在文本理解和生成方面取得了划时代的成就,但它们在实际应用中仍会生成不准确的内容,即所谓的“幻觉”信息。为解决这一问题,谷歌研究院推出了创新框架AGREE,旨在提高大型语言模型生成内容的准确性和引用性。

AGREE的核心在于通过检索文档中的相关段落,强化大模型生成回答的事实基础,并提供可靠的引用。该框架主要包括两个阶段:训练阶段微调和测试时自适应。

在训练阶段微调中,首先采用基础的大模型生成回答序列,然后使用自然语言推理模型(NLI)评估给定段落是否支持特定声明,并自动构建训练数据集。通过LORA轻量级微调技术,AGREE在保证模型泛化能力的同时,高效地对模型权重进行针对性调整。

测试时自适应是一种动态推理增强方法,允许大模型在面对新查询时,主动检索相关信息并不断优化和修正已生成的回答。这一过程是自动迭代式的,模型会自我评估并识别需要进一步支持的声明,通过检索相关段落,结合已有回答,生成更完善准确的内容。

实验证明,与现有方法相比,AGREE在提升大模型内容回答的准确性和引用性方面表现出色。该框架不仅有助于提高回答的质量,同时也为用户验证信息真实性提供了可能,对于推动AIGC领域的发展具有重要意义。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 1139字 | 5分钟 ]
【原文作者】 AIGC开放社区
【摘要模型】 glm-4
【摘要评分】 ★★☆☆☆

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...