标签:注意力机制

再战Transformer!原作者带队的Mamba 2来了,新架构训练效率大幅提升

自2017年提出以来,Transformer架构在AI大模型领域占据了主导地位,尤其是在语言建模方面。然而,随着模型规模的扩大和序列长度的增加,其局限性也逐渐凸显,...

新架构Mamba更新二代!作者:别争了,数学上Transformer和SSM是一回事

研究人员推出了Mamba-2模型,该模型在状态空间模型(SSM)与Transformer架构之间建立了新的联系。通过对两种模型的数学基础进行深入分析,研究团队发现,尽管...

谷歌创新框架:从非结构化数据,实现多模态学习

在数据爆炸时代,大模型学习非结构化数据如视频、音频和图片面临重大挑战。多模态学习,特别是处理多种输入和异构数据时,深度神经网络易出现过拟合和泛化不...

Bengio等人新作:注意力可被视为RNN,新模型媲美Transformer,但超级省内存

在近期的研究中,加拿大皇家银行 AI 研究所 Borealis AI 与蒙特利尔大学的研究者提出了一种新型序列建模方法,该方法旨在解决 Transformer 模型在推理时内存...

CVPR 2024|多模态场景感知,小红书高保真人体运动预测方法来了!

< strong >SIF3D(Sense-Informed Forecasting of 3D human motion)是一种由小红书创作发布团队提出的先进场景感知运动预测技术,已被计算机视觉顶会CVPR202...

图文详解Transformer为什么如此强大

Transformer模型自问世以来,已经在自然语言处理(NLP)领域取得了革命性的进展,并且其影响力已经扩展到了NLP之外的其他领域。Transformer的核心特点在于其...

图解Transformer工作原理

本文是关于 Transformer 的系列文章的第二篇,主要深入探讨了 Transformer 的内部工作机制。Transformer 的架构主要由编码器(Encoder)和解码器(Decoder)...

图解Transformer架构设计

近年来,Transformer技术在自然语言处理(NLP)领域引起了巨大关注。Transformer是一种新型架构,利用注意力机制显著提升深度学习NLP翻译模型性能。自从在论...

文本生成4K超高清图像,华为等推出创新模型PixArt-Σ

是由华为诺亚方舟实验室、大连理工大学和香港大学的研究人员推出的一款文本生成4K超高清图像的模型。与上一代PixArt-α相比,在图像质量、细节、训练效率以及...