清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!

AIGC动态10个月前发布 AIera
1,197 0 0

模型信息


【模型公司】 OpenAI
【模型名称】 gpt-3.5-turbo-0125
【摘要评分】 ★★★☆☆

清华NLP组发布InfLLM:无需额外训练,「1024K超长上下文」100%召回!
 

文章摘要


【关 键 词】 InfLLM超长文本记忆模块滑动窗口效果提升

这篇文章介绍了一种名为InfLLM的方法,旨在解决大型语言模型在处理超长文本时的能力瓶颈。传统大型模型在处理超长文本时往往无法记忆和理解足够长的上下文信息,限制了其在实际应用中的表现。InfLLM方法通过引入一个外部记忆模块,实现了对超长上下文信息的存储和处理,从而扩展了模型的上下文长度。该方法利用滑动窗口机制,每次计算只考虑与当前Token相关的局部信息和记忆模块中的少量相关信息,避免了注意力被过度分散到无关信息上。作者还设计了高效的记忆查找和卸载机制,以降低计算和显存消耗。实验结果表明,InfLLM在处理长文本任务上取得了显著的效果提升,甚至在1024K长度的任务中实现了100%的召回率。总的来说,InfLLM方法能够有效地扩展大型语言模型的上下文处理能力,捕捉长距离的语义信息,同时减少计算和显存消耗。

原文信息


【原文链接】 阅读原文
【阅读预估】 1513 / 7分钟
【原文作者】 新智元
【作者简介】 智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...