百度文心大模型 4.5 系列正式开源
6 月 30 日,百度正式开源文心大模型 4.5 系列模型,涵盖 47B、3B 激活参数的混合专家(MoE)模型,与 0.3B 参数的稠密型模型等 10 款模型,并实现预训练权重和推理代码的完全开源。目前,文心大模型 4.5 开源系列已可在飞桨星河社区、HuggingFace 等平台下载部署使用,同时开源模型 API 服务也可在百度智能云千帆大模型平台使用。早在今年 2 月,百度就已预告了文心大模型 4.5 系列的推出计划,并明确将于 6 月 30 日起正式开源。
文心大模型 4.5 系列开源模型
此次百度一次性推出 10 款文心大模型 4.5 系列开源模型,在独立自研模型数量占比、模型类型数量、参数丰富度、开源宽松度与可靠性等关键维度上,均处于行业领先位置。
据介绍,文心大模型 4.5 开源系列针对 MoE 架构提出了一种创新性的多模态异构模型结构,适用于从大语言模型向多模态模型的持续预训练范式,在保持甚至提升文本任务性能的基础上,显著增强了多模态理解能力,其优越的性能主要得益于多模态混合专家模型预训练、高效训练推理框架和针对模态的后训练等关键技术点。
此外,文心大模型 4.5 开源系列均使用飞桨深度学习框架进行高效训练、推理和部署。在大语言模型的预训练中,模型 FLOPs 利用率(MFU)达到 47%。实验结果显示,其系列模型在多个文本和多模态基准测试中达到 SOTA 水平,尤其在指令遵循、世界知识记忆、视觉理解和多模态推理任务上效果突出。
在文本模型方面,文心大模型 4.5 开源系列基础能力强、事实准确性高、指令遵循能力强、推理和编程能力出色,在多个主流基准评测中超越 DeepSeek-V3、Qwen3 等模型。在多模态模型方面,文心大模型 4.5 开源系列拥有卓越的视觉感知能力,同时精通丰富视觉常识,并实现了思考与非思考统一,在视觉常识、多模态推理、视觉感知等主流的多模态大模型评测中优于闭源的 OpenAI o1。此外,在轻量模型上,文心 4.5-21B-A3B-Base 文本模型效果与同量级的 Qwen3 相当,文心 4.5-VL-28B-A3B 多模态模型也是目前同量级最好的多模态开源模型,甚至与更大参数模型 Qwen2.5-VL-32B 不相上下。
文心 4.5 预训练模型在主流基准测试中表现优异
文心 4.5-300B-A47B 模型在主流基准测试中表现优异
文心多模态后训练模型(支持思考、关闭思考)在多个多模态基准测试中达到 SOTA 水平
据了解,文心大模型 4.5 开源系列权重按照 Apache 2.0 协议开源,支持开展学术研究和产业应用。此外,基于飞桨提供开源的产业级开发套件,广泛兼容多种芯片,降低模型的后训练和部署门槛。
作为国内最早投入 AI 研发的企业之一,百度在算力、框架、模型到应用的四层布局构建了明显的 AI 全栈技术优势。其中,飞桨是中国首个自主研发、功能丰富、开源开放的产业级深度学习平台,基于多年飞桨开源技术与生态系统积累,此次文心大模型 4.5 开源系列同步升级发布文心大模型开发套件 ERNIEKit 和大模型高效部署套件 FastDeploy,为文心大模型 4.5 系列及开发者提供开箱即用的工具和全流程支持。
值得关注的是,此次文心大模型 4.5 系列开源后,百度实现了框架层与模型层的「双层开源」,为行业树立了新标杆。