标签:大模型
没想到,最Open的开源新模型,来自小红书
小红书近期开源了其首个自研大模型dots.llm1,该模型由小红书hi lab团队研发,参数总量为142B,激活参数为14B,属于中等规模的MoE(Mixture of Experts)模型...
别被MCP的包装骗了!重构系统、向智能体转型,CEO亲述:关键时刻还是RPA兜底?
实在智能成立于2018年,以RPA(机器人流程自动化)为起点,融合AI技术,致力于通过人工智能技术助力人机协同,提供超自动化解决方案。随着技术的发展,实在智...
超6.4亿次下载!智源发布具身大脑等五大新技术,王仲远:具身智能的淘汰赛还没开始
第七届智源大会于6月6日在北京召开,北京智源人工智能研究院发布了“悟界”系列大模型,标志着AI技术从数字世界向物理世界的加速迈进。这一系列包括原生多模态...
4位图灵奖得主布道,2大冠军机器人登台,“AI春晚”果然又高又硬
智源大会2024以“AI春晚”规格拉开帷幕,人形机器人冠军天工与宇树G1同台展示技能迭代成果。宇树G1凭借灵活拳击动作展现运动控制突破,天工2.0版本则从长跑转向...
RL后训练步入超节点时代!华为黑科技榨干算力,一张卡干俩活
在大模型竞赛日益激烈的背景下,强化学习后训练(RL后训练)已成为突破大语言模型(LLM)性能瓶颈的关键路径。OpenAI o1、DeepSeek-R1等模型的成功,均得益于...
微软等提出「模型链」新范式,与Transformer性能相当,扩展性灵活性更好
随着大语言模型(LLM)的快速发展,扩展Transformer架构已成为推动人工智能领域进步的关键途径。然而,LLM参数规模的指数级增长带来了高昂的训练成本和推理效...
SFT在帮倒忙?新研究:直接进行强化学习,模型多模态推理上限更高
随着OpenAI的o1/o3和Deepseek-R1等具备强大推理能力的大语言模型相继问世,学界普遍采用「监督微调 + 强化学习」的两阶段训练范式。这种范式在纯文本领域取得...
微软副总裁X上「开课」,连更关于RL的一切,LLM从业者必读
微软副总裁 Nando de Freitas 在 X 平台上发布了一系列关于人工智能教育的帖子,内容涵盖大语言模型(LLM)的强化学习、扩散模型、流匹配等技术。他通过深入...
华为中科大联创大模型低比特量化算法,1‰数据实现昇腾无损压缩7倍
大模型在人工智能领域展现出强大的能力,但其庞大的参数量和部署成本成为广泛应用的主要障碍。以DeepSeek-R1 671B为例,其推理过程需要高达1342GB的显存,即...
最新W4A4KV4全量化框架,单卡A100大模型推理速度飙升
王颖研究员团队联合华北电力大学和上海科技大学,在ASPLOS 2025会议上发布了COMET框架,该框架通过系统-算法协同优化,实现了权重、激活和KV缓存全4比特推理...