“架构”的搜索结果

没有游戏机,就没有AMD?
在Computex 2024展会上,AMD推出了基于4nm Zen 5架构的Ryzen 9000系列处理器,包括Ryzen 9、Ryzen 7和Ryzen 5家族。新款Zen 5架构预计将...
台积电进军埃米芯片,主攻背面供电
台积电在2024年北美技术论坛上发布了其A16制程技术,标志着公司正式进入埃米级芯片领域。这项技术采用了台积电独有的“超级电轨”架构(SP...
清华汪玉教授团队支招:如何把“大”模型部署到“小”设备上 | Q福利
2024年,AI驱动的应用产品如GPT-4o等因其广泛的应用前景而受到广泛关注,这促使大量资源被投入到AI的基础建设中,包括算法研究、数据清...
独家对话燧原科技创始人张亚林:逆全球化下,国产AI算力如何解决商业落地问题?
燧原科技,一家由张亚林创立的AI算力企业,经过6年多的发展,累计融资额近70亿元人民币,估值达到160亿元。张亚林曾在AMD工作11年,带领...
斯坦福、丰田最新研究,单视频合成多视角模型GCD
在AI视觉领域,重建复杂动态场景是一个极具挑战性的任务。尽管OpenAI的Sora模型能够生成长达一分钟的高质量视频,但其在没有多视角视频...
Karpathy又整活儿了!一天训练出GPT-2、成本还骤降100倍,网友:dream老黄把价格再打下来
OpenAI的创始成员和前研究科学家Andrej Karpathy最近成功地在单个八H100节点上重现了GPT-2(1.6B)模型,整个过程仅需24小时,成本为672...
H100利用率飙升至75%!英伟达亲自下场FlashAttention三代升级,比标准注意力快16倍
FlashAttention-3,一种用于大模型训练和推理的算法,经过一年的开发,已经推出了第三代。这一升级版本在训练速度上实现了1.5至2倍的提...
五年后的今天,训练GPT-2只需不到700刀、24小时,Karpathy又整新活
2019年2月,OpenAI发布了具有15亿参数的GPT-2模型,该模型在文本生成方面表现出色,充分利用了预训练的Transformer架构,被认为是大型预...
Mamba一作再祭神作,H100利用率飙至75%!FlashAttention三代性能翻倍,比标准注意力快16倍
FlashAttention-3是针对H100 GPU优化的第三代FlashAttention技术,它在前一代的基础上实现了1.5至2倍的速度提升,将H100 GPU的FLOPs利用...
18个月326项能力,这家大厂猛猛上新生成式AI,如今纯靠Prompt就搞定企业级应用了
亚马逊云科技在2024年的纽约峰会上推出了一系列生成式AI技术,旨在降低企业使用这些先进技术的门槛。亚马逊云科技全球AI产品副总裁Matt ...
1 33 34 35 36 37 99