“MoE架构”的搜索结果

独家对话蜜度CTO刘益东:国内AI大模型下一步“卷”什么?|钛媒体AGI
此次大会由多个国家级部门和上海市政府共同主办,主题为“以共商促共享 以善治促善智”,吸引了全球顶级科学家、企业家和投资人,共同探讨...
揭秘:阶跃星辰万亿MoE+多模态大模型矩阵亮相
在2024年世界人工智能大会上,阶跃星辰公司展示了其最新的AI大模型技术,吸引了大量观众。一个特别受欢迎的展台提供了一种互动体验,观...
上海WAIC大会现场“大闹天宫”:模型够猛,产品够酷,公司够强
在今年的上海世界人工智能大会上,一家名为阶跃星辰的国产大模型团队成为了焦点。该团队由微软前全球副总裁、微软亚洲互联网工程院前首...
100天后,阶跃星辰交出了第二份答卷
阶跃星辰公司在2024年全球开发者先锋大会上发布了Step系列通用大模型,包括千亿参数语言大模型Step-1、多模态大模型Step-1V和万亿参数Mo...
32专家MoE大模型免费商用!性能全面对标Llama3,单token推理消耗仅5.28%
浪潮信息推出的源2.0-M32模型,采用MoE架构,仅需5.28%的算力消耗,就能在精度上对标Llama 3。这一模型的总参数量为40B,激活参数量为3....
MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」
本文介绍了MoE(混合专家)作为一种模块化的稀疏激活技术在大型模型训练中的应用。MoE通过将模型参数划分为多个专家子模块,每个输入仅...
量化起家,万卡在手,降价狂魔,DeepSeek可能就是中国大模型混战的终结者
最近中国大模型领域掀起了一场价格战,由量化对冲基金幻方旗下的AI团队深度求索引发。深度求索发布了新的模型DeepSeek-V2,并将API价格...
GPT-4 Turbo首次被击败!国产大模型拿下总分第一
在中文大模型测评基准SuperCLUE的最新评测中,商汤科技的日日新5.0(SenseChat V5)以总分80.03分荣登榜首,超过此前长期领先的GPT-4 Tu...
智子引擎发布多模态大模型 Awaker:MOE、自主更新、写真视频效果优于 Sora
这个模型采用了MOE架构,并具备了业界首个「真正」自主更新的能力。其性能在写真视频生成上超过了Sora模型,有望解决大模型在实际应用中...
超级智能体生命力觉醒!可自我更新的AI来了,妈妈再也不用担心数据瓶颈难题
本文介绍了由智子引擎团队研发的多模态大模型Awaker 1.0,该模型在多模态任务中表现出色,特别是在数据生成和模型自主更新方面具有创新...
1 2 3 4 5