“Transformer架构”的搜索结果

五年后的今天,训练GPT-2只需不到700刀、24小时,Karpathy又整新活
2019年2月,OpenAI发布了具有15亿参数的GPT-2模型,该模型在文本生成方面表现出色,充分利用了预训练的Transformer架构,被认为是大型预...
谷歌推出全新模型,将Transformer与NAR相结合
在AIGC领域,Transformer架构的引入极大地推动了大模型的技术创新,催生了ChatGPT、Coplit、讯飞星火、文心一言等生成式AI产品。尽管Tra...
英伟达已成大模型行业的“苹果”,无问芯穹要做一种更兼容的“安卓”
汪玉教授是定制应用域加速领域的先驱,提出了“深度学习算法-编译-芯片联合设计”的路线。他们的实验室孵化了AI芯片公司深鉴科技,后被赛...
中国生成式AI专利38,000个,是美国6倍、超过全球总和!
联合国于2024年7月4日发布的深度调查报告揭示了中国在生成式人工智能(AIGC)领域的显著领先。2014至2023年间,中国申请的AIGC专利数量...
AI主战场,万卡是标配:国产GPU万卡万P集群来了!
夸娥万卡智算集群以全功能GPU为底座,旨在打造国内领先的、能够承载万卡规模、具备万P级浮点运算能力的国产通用加速计算平台,专为万亿...
哈佛、麻省推出面向医学多模态助手—PathChat
哈佛医学院、麻省理工学院和俄亥俄州立大学韦克斯纳医学中心的研究人员联合开发了一款名为PathChat的多模态AI助手,专为医学领域设计。P...
​端侧模型打响突围战!VC 疯抢,又一创企“杀”出
在2024年,人工智能领域经历了一场重大的变革,其中三家公司Cohere、Mistral AI和SakanaAI分别完成了巨额融资,这标志着大模型技术的新...
哈佛辍学生搞AI芯片公司:融资1.2亿美元,面向一个模型
AI芯片初创公司Etched近期宣布已筹集1.2亿美元资金,挑战Nvidia在AI芯片设计领域的领导地位。Etched正在研发一款名为Sohu的新芯片,专注...
麻省理工提出“跨层注意力”,极大优化Transformer缓存
在人工智能生成内容(AIGC)领域,Transformer架构因其在大语言模型(LLM)中的关键作用而备受关注。然而,随着模型参数的指数级增长,...
谷歌推出基于Transformer的创新技术——无限注意力
随着生成式AI产品如ChatGPT和Sora等的流行,Transformer架构已成为处理文本、图像、视频和音频等数据的大型语言模型(LLM)的基础。谷歌...
1 2 3 4 5 6 14