“架构”的搜索结果

比亚迪开了个发布会,市值大涨 500 亿
比亚迪近日发布了第五代DM技术,这一技术的发动机热效率达到了46.06%,亏电油耗低至百公里2.9L,综合续航里程可达2100公里。该技术的主...
马斯克烧60亿美元难题,国内大厂有解?开源MoE模算效率黑马登场,3.7B参数单挑Llama 3-70B
在当前大模型算力需求极高的背景下,浪潮信息推出了一款名为源2.0-M32的混合专家模型。该模型以32个专家的架构,总参数量达到400亿,但...
基于扩散模型的,开源世界模型DIAMOND
研究人员联合开源了一款名为DIAMOND的世界模型,基于扩散模型,用于智能体训练、世界建模及多模态分布建模等强化学习应用。选择扩散模型...
硅谷有了自己的鲁迅!AI大佬LeCun连续暴走,从马斯克到OpenAI,全被怼了个遍
周一笑撰写的文章主要报道了马斯克旗下人工智能初创公司xAI完成B轮60亿美元融资的消息。该公司成立于2023年7月,成立不到一年时间估值已...
清华、华为等提出iVideoGPT:专攻交互式世界模型
近年来,生成模型在视频生成领域取得了显著进展,尤其在无监督方式学习以构建预测世界模型方面。这些模型能积累关于世界如何运作的常识...
AI智能体的炒作与现实:GPT-4都撑不起,现实任务成功率不到15%
尽管大型语言模型(LLM)在性能、准确度和稳定性方面取得了显著进步,但在现实世界中的应用,特别是作为AI智能体,仍面临重大挑战。AI智...
清华接手,YOLOv10问世:性能大幅提升,登上GitHub热榜
YOLO(You Only Look Once)系列作为实时目标检测领域的主要范式,近日迎来了YOLOv10这一重大升级。该新版本由清华大学的研究团队推出,...
MoE 高效训练的 A/B 面:与魔鬼做交易,用「显存」换「性能」
本文介绍了MoE(混合专家)作为一种模块化的稀疏激活技术在大型模型训练中的应用。MoE通过将模型参数划分为多个专家子模块,每个输入仅...
马斯克烧几十亿美元造最大超算中心,10万块H100训练Grok追赶GPT-4o
将建造一座超算中心,以确保Grok 2及其后续版本的训练。这座名为「超级计算工厂」的超算中心预计于2025年秋季建成,规模将是目前最大GPU...
科技动态:哪些AI芯片企业在挑战英伟达
Nvidia在最近一个季度销售额同比增长262%,市值达到了2.62万亿美元,相比之下,整个A股半导体企业合计市值仅为2.59万亿人民币。Nvidia的...
1 50 51 52 53 54 99