“性能差距”的搜索结果

AI几小时设计芯片超越人类!谷歌AlphaChip登Nature,已设计出三代旗舰TPU
谷歌DeepMind推出了一款名为AlphaChip的AI系统,它能够利用强化学习原理,在数小时内设计出与人类专家水平相当或更优的芯片布局。AlphaC...
全球3.5亿下载量破纪录! Llama家族暴涨10倍,开源帝国掀AI革命
Llama模型自诞生一年半以来,已经成为全球开源界的领头羊,其在HuggingFace平台的下载量接近3.5亿次,是去年同期的10倍。这一成就甚至让...
新PyTorch API:几行代码实现不同注意力变体,兼具FlashAttention性能和PyTorch灵活性
机器之心报道了PyTorch团队为解决注意力机制实现中的超立方体问题而引入的FlexAttention。注意力机制在机器学习中至关重要,但现有的实...
1890美元,就能从头训练一个还不错的12亿参数扩散模型
Sony AI等机构的研究者开发了一种低成本的端到端pipeline,用于训练文本到图像的扩散模型,显著降低了训练成本,同时不需要访问数十亿张...
OpenAI「突拔网线」,国内大厂笑疯!泼天流量来了,微软急伸橄榄枝
OpenAI近期封锁了中国地区的API使用,但与此同时,微软Azure向中国开发者开放,表明其人工智能模型可供中国客户使用。微软发言人确认,...
从LLM中完全消除矩阵乘法,效果出奇得好,10亿参数跑在FPGA上接近大脑功耗
在深度学习领域,矩阵乘法(MatMul)一直占据着核心地位,尤其是在语言模型中。然而,这一操作在计算开销和内存访问方面占据了很大比例...
在对齐 AI 时,为什么在线方法总是优于离线方法?
在人工智能对齐领域,在线方法和离线方法在性能上存在显著差异。DeepMind的最新研究通过实证剖析,探讨了在线算法普遍优于离线算法的根...
复刻Sora的通用视频生成能力,开源多智能体框架Mora来了
何恺明的目标是探索面向复杂世界的智能。Sora是首个引起广泛关注的大规模通用视频生成模型,自OpenAI于2024年2月推出以来,没有其他视频...
AI芯片杂谈~~
这篇文章讨论了近年来国内AI芯片市场的快速发展和多样化。AI芯片是专为人工智能算法设计的集成电路,通过解决大规模并行计算问题提高了...