“MoE架构”的搜索结果

面壁不只要做中国Mistral,还要超过它
文章介绍了面壁智能发布了四个特性鲜明的模型,并宣布了数亿元的新融资。这次融资由春华创投、华为哈勃领投,北京市人工智能产业投资基...
中文OCR超越GPT-4V,参数量仅2B,面壁小钢炮拿出了第二弹
面壁智能,一家源自清华大学的创业公司,近期在大语言模型领域取得了显著进展。该公司致力于优化语言模型,以提高效率并降低成本。今年2...
国内首款AI音乐大模型一曲封神!核心技术业内首公开,爆改霉霉周杰伦效果惊艳
国内首个音乐ChatGPT,「天工SkyMusic」,已经开启内测,引起了编辑部的极大关注。这款AI音乐生成大模型以其高质量的音乐品质和逼真的人...
北大开源最强aiXcoder-7B代码大模型!聚焦真实开发场景,专为企业私有部署设计
最近,AI代码生成领域迎来了一位资深玩家——aiXcoder,它推出了一款专门适用于企业软件开发场景的代码大模型——aiXcoder-7B Base版。这个...
搞AI的是真没钱了
近日,一个由MIT、普林斯顿等研究机构的华人团队发布了自己的大模型JetMoE,声称仅需10万美元的成本就能训练出与数十亿美元成本的LLaMA2...
​最终能为大模型买单的,还是政企客户!
浪潮云近期在青岛发布了其海若大模型业务战略,这一战略不仅展示了过去一年中海若大模型的成功案例和技术迭代,还阐述了未来的发展规划...
马化腾的“灯泡”什么时候拿出来
腾讯在最近的财报发布后的交流会上透露,其混元模型已经是一个万亿级别参数的MOE架构模型,其中文表现在全球大语言模型中处于领先水平。...
1320亿参数,性能超LLaMA2、Grok-1!开源大模型DBRX
Databricks,一家著名的数据和AI平台,于3月28日正式开源了其大模型DBRX。DBRX是一个专家混合模型(MoE),拥有1320亿参数,能生成文本/...
全球最强开源模型一夜易主,1320亿参数推理飙升2倍!
Databricks公司发布了全球最强开源模型DBRX,超越了Llama 2、Mixtral和Grok-1。DBRX采用了细粒度MoE架构,每次输入仅使用360亿参数,实...
阶跃星辰:大模型「new game」里的新玩家
在2024年3月23日的全球开发者先锋大会上,初创公司阶跃星辰发布了Step系列通用大模型,包括Step-1千亿参数语言大模型、Step-1V千亿参数...
1 2 3 4 5