Workflow
OpenAI发布2款开源模型,北大校友扛大旗
虎嗅·2025-08-06 08:15

OpenAI开源模型发布 - OpenAI正式发布两款开源语言模型gpt-oss-120b和gpt-oss-20b,这是公司自2019年GPT-2后时隔五年的开源模型发布 [1] - 两款模型均采用Apache 2.0许可证,允许自由构建、实验、定制和商业部署,无需担心copyleft限制或专利风险 [5][67] - 模型采用专家混合(MoE)架构,gpt-oss-120b总参数量1170亿,激活参数51亿;gpt-oss-20b总参数量210亿,激活参数36亿 [3][4][11][12] 模型性能与技术规格 - gpt-oss-120b在多个基准测试中表现优异,在Codeforces测试中优于o3-mini,与o4-mini持平;在MMLU和HLE测试中超越o3-mini,接近o4-mini水平 [13] - 在工具调用TauBench评测中,gpt-oss-120b表现超过o1和GPT-4o等闭源模型;在HealthBench和AIME 2024及2025测试中表现超越o4-mini [13][14] - 模型支持128k上下文长度,采用分组多查询注意力机制和旋转位置编码(RoPE),并原生支持MXFP4量化,降低硬件门槛 [50][51][70] 部署能力与硬件要求 - gpt-oss-120b设计用于数据中心及高端台式机和笔记本电脑,可在单个H100 GPU(80 GB内存)上运行 [3][11] - gpt-oss-20b针对低延迟、本地化场景优化,仅需16GB内存,可在大多数现代台式机和笔记本电脑上运行 [4][12] - OpenAI与多家第三方部署平台合作,包括Azure、Hugging Face、vLLM、Ollama、llama.cpp、LM Studio和AWS等 [74] 行业竞争格局 - 同日三大AI巨头发布重要产品:OpenAI开源gpt-oss、Anthropic推出Claude Opus 4.1、Google DeepMind发布Genie 3,形成激烈竞争态势 [2][82] - Anthropic的Claude Opus 4.1在SWE-bench Verified达到74.5%的成绩,定价为输入每百万token 15美元,输出每百万token 75美元 [84][87][92] - 微软宣布将为Windows设备带来GPU优化版本的gpt-oss-20b模型,由ONNX Runtime驱动,支持本地推理 [79] 技术团队背景 - gpt-oss系列模型的基础设施和推理工作由北大校友Zhuohan Li领导,其具有加州大学伯克利分校博士学位,专注于机器学习与分布式系统交叉领域 [41][42][43] - Zhuohan Li是vLLM项目核心作者之一,通过PagedAttention技术解决大模型部署成本高、速度慢的行业痛点,学术论文引用量超过15000次,h-index达到18 [44][45][46] 模型特色功能 - 模型提供完整的思维链(Chain of Thought)功能,便于开发者调试并增强对输出结果的信任,但此功能不适合展示给最终用户 [6][56] - 支持智能Agent能力,包括原生函数调用、网页浏览、Python代码执行和结构化输出 [8][54] - 模型可根据具体使用场景和延迟需求轻松调整推理强度(低、中、高),并支持参数微调以满足用户具体需求 [6][7][69]