
文章摘要
百度近日宣布文心大模型4.5系列正式开源,并同步提供API服务。此次开源共推出10款模型,涵盖从47B参数的混合专家(MoE)模型到轻量级0.3B稠密型模型,覆盖文本、多模态等多种任务需求。开源内容不仅包括权重与代码,还支持通过飞桨星河社区、HuggingFace、百度智能云千帆平台直接下载使用,且遵循Apache 2.0协议,支持学术研究和产业应用。
文心大模型4.5系列在独立自研模型数量占比、模型类型数量、参数丰富度、开源宽松度与可靠性等关键维度上表现出色。该系列针对MoE架构提出了一种创新性的多模态异构模型结构,适用于从大语言模型向多模态模型的持续预训练范式。这一结构在保持甚至提升文本任务性能的基础上,显著增强了多模态理解能力,其优越性能主要得益于多模态混合专家模型预训练、高效训练推理框架和针对模态的后训练等关键技术点。
实验结果显示,文心大模型4.5系列在多个文本和多模态基准测试中达到SOTA水平,尤其在指令遵循、世界知识记忆、视觉理解和多模态推理任务上表现突出。在文本模型方面,该系列在多个主流基准评测中超越DeepSeek-V3、Qwen3等模型。在多模态模型方面,基于强大的视觉感知能力和丰富的视觉常识,文心大模型4.5系列在视觉常识、多模态推理、视觉感知等主流的多模态大模型评测中优于闭源的OpenAI o1。此外,轻量模型文心4.5-21B-A3B-Base文本模型效果与同量级的Qwen3相当,文心4.5-VL-28B-A3B多模态模型在同量级开源模型中达到SOTA,甚至能与更大参数模型Qwen2.5-VL-32B竞争。
百度还为开发者提供了开箱即用的工具链,显著降低模型的后训练和部署门槛。基于飞桨提供的产业级开发套件,文心大模型4.5系列同步升级发布文心大模型开发套件ERNIEKit和大模型高效部署套件FastDeploy,为开发者提供全流程支持。此外,百度通过文心大模型4.5系列的开源,实现了框架层与模型层的“双层开源”,进一步巩固了其在AI全栈技术领域的优势。
作为国内最早投入AI研发的企业之一,百度在算力、框架、模型到应用的四层布局构建了AI全栈技术优势。飞桨作为中国首个自主研发、功能丰富、开源开放的产业级深度学习平台,基于多年技术与生态系统积累,为文心大模型4.5系列及开发者提供了强大的支持。此次开源不仅展示了百度在AI领域的深厚技术积累,也为开发者提供了更多创新和应用的可能性。
原文和模型
【原文链接】 阅读原文 [ 1036字 | 5分钟 ]
【原文作者】 量子位
【摘要模型】 deepseek-v3
【摘要评分】 ★★☆☆☆