标签:MoE
MoE那么大,几段代码就能稳稳推理 | 开源
华为最新开源项目Omni-Infer为超大规模混合专家网络模型(MoE)的推理提供了全面的架构、技术和代码支持。该项目旨在帮助企业用户实现高性能、易维护的推理部...
腾讯混元推出首款开源混合推理模型:擅长Agent工具调用和长文理解
腾讯混元于6月27日宣布开源首个混合推理MoE模型Hunyuan-A13B,该模型总参数为80B,激活参数仅为13B,表现出与同等架构领先开源模型相当的效果,但在推理速度...
昇腾+鲲鹏联手上大招!华为爆改MoE训练,吞吐再飙升20%,内存省70%
华为在MoE(Mixture of Experts)训练系统领域取得了显著的技术突破,提出了全新的算子和内存优化方案,显著提升了训练效率和内存利用率。MoE作为一种独特的...
华为:让DeepSeek的“专家们”动起来,推理延迟降10%!
混合专家模型(MoE)因其能够将不同任务分配给擅长处理的专家网络而备受关注,但专家网络的负载均衡问题成为影响系统推理性能的关键因素。某些专家网络被频繁...
MoE模型已成新风口,AI基础设施竞速升级
近期开源的 Llama 4 系列模型因基准测试成绩与实际表现差异较大而引发争议,但MoE(混合专家)架构被认为是未来 AI 大模型的主流范式之一。从 Mixtral 到 Dee...
面壁不只要做中国Mistral,还要超过它
文章介绍了面壁智能发布了四个特性鲜明的模型,并宣布了数亿元的新融资。这次融资由春华创投、华为哈勃领投,北京市人工智能产业投资基金等跟投,知乎作为战...