Workflow
ERNIEKit训练工具
icon
搜索文档
赛道Hyper | 百度开源ERNIE 4.5:策略是什么?
华尔街见闻· 2025-07-01 17:39
但百度创始人、董事长兼CEO李彦宏曾在2024年的WAIC(世界人工智能大会:World Artificial Intelligence Conference)上,认为开源大模型是"智商税"。 从参数覆盖到工具适配 百度此次开源的10款模型,形成了从0.3B到47B参数的梯度覆盖,囊括基础文本模型和视觉多模态模型 (VLM)。除最小的0.3B 模型外,其余模型都采用异构多模态MoE(专家混合模型:Mixture of Experts)架构。 对于算力有限的中小开发者,0.3B参数的稠密型模型可降低部署门槛,MoE模型则能满足企业级复杂任 务的需求。这种分层供给思路,让不同资源条件的使用者都能找到适配的工具。 作者:周源/华尔街见闻 6月30日,百度正式开源文心大模型4.5系列(ERNIE 4.5),涵盖10款不同参数规模的模型,包括47B (470亿)、3B(30亿)激活参数的混合专家(MoE)模型及0.3B(3亿)参数的稠密型模型,预训练 权重与推理代码均完全开放。 目前,这些模型已可在飞桨星河社区、HuggingFace等平台下载,百度智能云千帆大模型平台也同步提 供了API(应用程序编程接口:Appli ...