百度开源文心大模型4.5:一场精心布局的战略阳谋
风口解码站
2025-07-01 02:57:30
来自上海
  • 点赞
  • 评论
  •   ♥  收藏
  • A
    分享到:

2025年6月30日,百度扔出了一颗重磅炸弹:开源文心大模型4.5系列。对于曾信奉“闭源即王道”的百度而言,这一百八十度的大转弯,标志着中国AI牌桌上的一位顶级玩家,终于下定决心,要用一套全新的打法来改写游戏规则。

这次不是小打小闹的试探。百度一次性将10款不同参数规模的模型——从轻巧的0.3B到庞大的424B——连同预学习权重和推理代码全部公之于众。

一、文心4.5技术优势与战略

评价一个模型,先要看它的底子。文心4.5的官方战报显示,在多个主流文本和多模态基准测试上有相关数据表现。其背后是百度自研的新一代原生多模态基础大模型架构,能处理文字、图片、音视频等多模态信息。

实现这一点的关键,是一种被称为“多模态异构MoE”的预学习技术。如果把大模型比作一个公司,传统模型是所有员工挤在一起干所有活,效率低下。而MoE就像设立了不同专家部门(专家网络),一个任务进来,路由器(Router)会精准地把它分配给最擅长的几个部门协同处理。百度这套“异构MoE”更进一步,它为处理文字和处理图像的专家部门设计了不同的组织架构,还引入了“模态隔离路由”等机制,确保各部门各司其职又不互相干扰。

用南加州大学副教授任晓峰的话说,百度通过开源,给远在美国的OpenAI和Anthropic的“收费墙”模式,施加了压力。

二、百度文心4.5开源的布局

百度的行动,并非一时兴起的冲动,而是一场精心策划的行动。时间线清晰地勾勒出了相关路线:

  • 2025年2月,百度首次“预告”文心4.5系列,并明确了6月30日的开源节点。
  • 3月初,李彦宏亲自在人民网署名发文,将“原生多模态大模型”提升到通往通用人工智能(AGI)的战略高度。

科技顾问公司Omdia的首席分析师Lian Jye Su表示:“百度的转向,说明中国开源派已正式进场抢市。” 这是一次战略重心的转移,目的是通过降低门槛,吸引开发者和企业。

三、百度为开发者提供开源支持

百度为开发者提供了开源支持。

模型权重,遵循最宽松的Apache 2.0协议,学术研究和商业应用畅通无阻;百度为开发者提供的配套产业级开发套件基于飞桨(PaddlePaddle)框架,全面兼容市面上主流芯片。

学习效率是另一个关键。基于飞桨框架,文心4.5在大模型预学习中的算力利用率(MFU)达到了47%。开发者可以在飞桨星河社区、HuggingFace等平台随意下载部署,也可以直接在百度智能云千帆平台上调用API,甚至在文心一言里直接体验。

四、文心4.5开源获开发者反馈

开源公告一出,开发者社区有了各种技术测评和“跑分”。

来自社区的反馈显示:“300B模型可以跟DeepSeek V3的671B对比,21B模型能与阿里的Qwen 30B对比。” 也有开发者指出28B模型在基础文本能力上增加了视觉功能,具有实用性。还有人开始期待下一步:“文心大模型4.5 Turbo什么时候开源?”

百度的开源行动,展示了技术实力,也影响了AI竞赛的发展。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-61278686 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:4000300059/952500