2025年6月30日,百度扔出了一颗重磅炸弹:开源文心大模型4.5系列。对于曾信奉“闭源即王道”的百度而言,这一百八十度的大转弯,标志着中国AI牌桌上的一位顶级玩家,终于下定决心,要用一套全新的打法来改写游戏规则。
这次不是小打小闹的试探。百度一次性将10款不同参数规模的模型——从轻巧的0.3B到庞大的424B——连同预学习权重和推理代码全部公之于众。
评价一个模型,先要看它的底子。文心4.5的官方战报显示,在多个主流文本和多模态基准测试上有相关数据表现。其背后是百度自研的新一代原生多模态基础大模型架构,能处理文字、图片、音视频等多模态信息。
实现这一点的关键,是一种被称为“多模态异构MoE”的预学习技术。如果把大模型比作一个公司,传统模型是所有员工挤在一起干所有活,效率低下。而MoE就像设立了不同专家部门(专家网络),一个任务进来,路由器(Router)会精准地把它分配给最擅长的几个部门协同处理。百度这套“异构MoE”更进一步,它为处理文字和处理图像的专家部门设计了不同的组织架构,还引入了“模态隔离路由”等机制,确保各部门各司其职又不互相干扰。
用南加州大学副教授任晓峰的话说,百度通过开源,给远在美国的OpenAI和Anthropic的“收费墙”模式,施加了压力。
百度的行动,并非一时兴起的冲动,而是一场精心策划的行动。时间线清晰地勾勒出了相关路线:
科技顾问公司Omdia的首席分析师Lian Jye Su表示:“百度的转向,说明中国开源派已正式进场抢市。” 这是一次战略重心的转移,目的是通过降低门槛,吸引开发者和企业。
百度为开发者提供了开源支持。
模型权重,遵循最宽松的Apache 2.0协议,学术研究和商业应用畅通无阻;百度为开发者提供的配套产业级开发套件基于飞桨(PaddlePaddle)框架,全面兼容市面上主流芯片。
学习效率是另一个关键。基于飞桨框架,文心4.5在大模型预学习中的算力利用率(MFU)达到了47%。开发者可以在飞桨星河社区、HuggingFace等平台随意下载部署,也可以直接在百度智能云千帆平台上调用API,甚至在文心一言里直接体验。
开源公告一出,开发者社区有了各种技术测评和“跑分”。
来自社区的反馈显示:“300B模型可以跟DeepSeek V3的671B对比,21B模型能与阿里的Qwen 30B对比。” 也有开发者指出28B模型在基础文本能力上增加了视觉功能,具有实用性。还有人开始期待下一步:“文心大模型4.5 Turbo什么时候开源?”
百度的开源行动,展示了技术实力,也影响了AI竞赛的发展。