标签:多模态领域

还在卷长文本?谷歌最新论文直接把文本干到…无限长了

本文介绍了谷歌发布的一篇论文《Leave No Context Behind: Efficient Infinite Context Transformers with Infini-attention》,该论文提出了一种新的注意力...