标签:MoE
华为:让DeepSeek的“专家们”动起来,推理延迟降10%!
混合专家模型(MoE)因其能够将不同任务分配给擅长处理的专家网络而备受关注,但专家网络的负载均衡问题成为影响系统推理性能的关键因素。某些专家网络被频繁...
MoE模型已成新风口,AI基础设施竞速升级
近期开源的 Llama 4 系列模型因基准测试成绩与实际表现差异较大而引发争议,但MoE(混合专家)架构被认为是未来 AI 大模型的主流范式之一。从 Mixtral 到 Dee...
面壁不只要做中国Mistral,还要超过它
文章介绍了面壁智能发布了四个特性鲜明的模型,并宣布了数亿元的新融资。这次融资由春华创投、华为哈勃领投,北京市人工智能产业投资基金等跟投,知乎作为战...