标签:华为
MoE那么大,几段代码就能稳稳推理 | 开源
华为最新开源项目Omni-Infer为超大规模混合专家网络模型(MoE)的推理提供了全面的架构、技术和代码支持。该项目旨在帮助企业用户实现高性能、易维护的推理部...
鸿蒙生态的“中国速度”:技术破局与生态共创的胜利
余承东在2025年华为开发者大会上宣布HarmonyOS 6开发者Beta正式启动,标志着鸿蒙生态的又一次重大进化。值得注意的是,HarmonyOS 5.1刚刚在一周前随华为Pura ...
「悄悄发育」的华为 AI,这次放了个「大招」
华为在2025年开发者大会上展示了其在AI领域的全面发力,重点围绕盘古大模型5.5和昇腾AI云服务的升级展开。盘古大模型5.5在自然语言处理、计算机视觉、多模态...
「没有包袱」的原生鸿蒙,要做成最纯粹的「AI 操作系统」
华为还展示了其在3D技术和AR领域的创新,例如结合3D高斯技术和方舟图形引擎的Remy,用户可以通过手机环绕拍摄生成可交互的3D模型。AR Engine则让QQ音乐实现了...
Pura 80 Ultra 体验:华为在用造相机的逻辑定义移动影像
随着移动影像技术的飞速发展,手机摄影已成为消费者选择手机时的重要考量因素。华为Pura系列作为其影像技术的旗舰载体,不断推动行业规则的革新,每一代产品...
华为CloudMatrix384超节点:官方撰文深度解读
在2025年华为云生态大会上,华为推出了CloudMatrix 384超节点,旨在应对AI时代的海量算力需求。这一新型架构基于“一切可池化、一切皆对等、一切可组合”的高速...
华为版《黑客帝国》首次亮相:训推复杂AI前先“彩排”,小时级预演万卡集群
华为首次推出了一项名为“数字化风洞”的技术,旨在通过虚拟环境平台在正式训练和推理复杂AI模型之前进行预演,从而优化资源配置并减少算力浪费。该技术由华为...
昇腾+鲲鹏联手上大招!华为爆改MoE训练,吞吐再飙升20%,内存省70%
华为在MoE(Mixture of Experts)训练系统领域取得了显著的技术突破,提出了全新的算子和内存优化方案,显著提升了训练效率和内存利用率。MoE作为一种独特的...
华为中科大联创大模型低比特量化算法,1‰数据实现昇腾无损压缩7倍
大模型在人工智能领域展现出强大的能力,但其庞大的参数量和部署成本成为广泛应用的主要障碍。以DeepSeek-R1 671B为例,其推理过程需要高达1342GB的显存,即...
华为:让DeepSeek的“专家们”动起来,推理延迟降10%!
混合专家模型(MoE)因其能够将不同任务分配给擅长处理的专家网络而备受关注,但专家网络的负载均衡问题成为影响系统推理性能的关键因素。某些专家网络被频繁...