标签:MoE架构

李开复:相对于美国硅谷巨头,中国AI大模型优势在于更快更低成本实现商业落地|钛媒体AGI

零一万物公司近日推出了新的旗舰预训练模型Yi-Lightning,并在国际权威盲测榜单LMSYS上超越了OpenAI GPT-4o-2024-05-13和Anthropic Claude 3.5 Sonnet,排名...

微软「小而美」系列三连发!视觉小钢炮PK GPT-4o,MoE新秀力压Llama 3.1

微软发布了Phi 3.5系列的三款新模型,分别为Phi-3.5-mini-instruct、Phi-3.5-MoE-instruct和Phi-3.5-vision-instruct,这些模型在Hugging Face平台上可供下载...

100天后,阶跃星辰交出了第二份答卷

阶跃星辰公司在2024年全球开发者先锋大会上发布了Step系列通用大模型,包括千亿参数语言大模型Step-1、多模态大模型Step-1V和万亿参数MoE语言大模型Step-2预...

超级智能体生命力觉醒!可自我更新的AI来了,妈妈再也不用担心数据瓶颈难题

本文介绍了由智子引擎团队研发的多模态大模型Awaker 1.0,该模型在多模态任务中表现出色,特别是在数据生成和模型自主更新方面具有创新性。以下是对文章内容...

搞AI的是真没钱了

近日,一个由MIT、普林斯顿等研究机构的华人团队发布了自己的大模型JetMoE,声称仅需10万美元的成本就能训练出与数十亿美元成本的LLaMA2级别相媲美的大模型。...

全球最强开源模型一夜易主,1320亿参数推理飙升2倍!

Databricks公司发布了全球最强开源模型DBRX,超越了Llama 2、Mixtral和Grok-1。DBRX采用了细粒度MoE架构,每次输入仅使用360亿参数,实现了更快的每秒token吞...

独家支持MoE大模型一键训练,达观大模型管理平台两大全新功能发布

达观大模型管理平台推出曹植MoE模型达观大模型管理平台(DATAGRAND)推出了支持中文的曹植MoE模型,以满足用户多样化的模型管理需求。曹植MoE模型具有更大的...

深度 | 万模大战,杀出一匹黑马

文章总结:本文主要介绍了近期在多模态大模型领域的最新进展,包括LLaVA-NeXT、SPHINX-X、MobileVLM和CogCoM等多个模型。这些模型在性能、训练成本、多模态理...