谷歌推出基于Transformer的创新技术——无限注意力

AIGC动态6个月前发布 AIGCOPEN
977 0 0
谷歌推出基于Transformer的创新技术——无限注意力

 

文章摘要


【关 键 词】 AI技术TransformerInfini-Attention长序列处理AIGC发展

随着生成式AI产品如ChatGPT和Sora等的流行,Transformer架构已成为处理文本、图像、视频和音频等数据的大型语言模型(LLM)的基础。

谷歌提出了一种名为Infini-Attention的创新技术,通过融合压缩记忆、局部遮蔽注意力等模块到自注意力机制中,使模型能够处理无限序列数据,同时保持有限的内存和计算资源。压缩记忆作为Infini-Attention的核心,允许模型以固定参数数量存储和回忆信息,与传统注意力机制相比,压缩记忆在处理长文本时具有更高的推理和计算效率,同时降低内存使用。

Infini-Attention的另一个关键特性是局部遮蔽注意力,它通过限制模型的注意力范围,使其只关注当前局部上下文,而不是整个序列,从而提高计算效率并减少资源浪费。此外,Infini-Attention采用增量式更新策略,只更新与当前输入相关的部分记忆,提高更新效率并减少不稳定性。

在长上下文语言建模、密钥检索任务和书籍摘要任务等基准测试中,Infini-Attention模型表现出色,优于Transformer-XL和Memorizing Transformers等基础模型。特别是在使用100K序列长度进行训练时,Infini-Attention的困惑度得分显著降低,显示出其在处理长序列数据方面的优势。

Infini-Attention技术的开发为大型语言模型在处理长序列数据方面提供了新的解决方案,有望推动AIGC领域的进一步发展。通过解决Transformer架构在处理超长序列时的瓶颈问题,Infini-Attention有望提高模型性能,降低成本,并为AIGC开发者生态带来新的可能性。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 1633字 | 7分钟 ]
【原文作者】 AIGC开放社区
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★☆

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...