Workflow
OpenAI时隔六年再开源,国内大模型竞争格局添变数
36氪·2025-08-06 15:50

文章核心观点 - OpenAI时隔六年再次发布开源大语言模型gpt-oss-120b和gpt-oss-20b 此举释放技术普惠信号 可能改变国内大模型竞争格局 [1][4][5] 模型技术规格 - gpt-oss-120b总参数量1170亿 激活参数51亿 支持单个80GB GPU运行 适用于生产环境和高推理需求场景 [2] - gpt-oss-20b总参数量210亿 激活参数36亿 支持16GB GPU运行 适用于低延迟和本地化场景 [2] - 两款模型均采用Transformer架构与专家混合设计 使用分组多查询注意力机制和旋转位置编码 原生支持128k上下文长度 [2] - 训练数据聚焦STEM 编程和通用知识领域 使用o200k_harmony分词器 该分词器是GPT-4o所用分词器的超集 [2] 模型特性与许可 - 采用Apache 2.0许可证 允许免费商用和参数级微调 无copyleft限制或专利风险 [3] - 支持可配置推理强度 完整思维链访问和参数级微调功能 [3] - 具备智能体能力 支持原生函数调用 网页浏览 Python代码执行和结构化输出 [3] - 支持本地离线运行 满足金融 医疗等受监管行业的数据隐私要求 [3] 开源策略背景 - 模型属于开放权重类型 不提供训练数据和完整训练代码 [4] - 开源行为可能是对全球AI市场竞争压力的回应 旨在吸引开发者完善生态系统 [4] 国内开源生态现状 - 腾讯8月开源四款轻量级模型(0.5B至7B) 支持256K长上下文和双脑协作架构 [7] - 百度6月开源ERNIE-4.5系列(0.3B至47B) 在C-Eval基准测试中超越GPT-4 [7] - 阿里巴巴7月推出Qwen3推理模型 支持256K上下文 8月推出图像生成模型Qwen-Image [7] - 智谱AI8月开源GLM-4.5(355B MoE)及轻量版GLM-4.5-Air(106B) API成本低至0.8元/百万tokens [8] - 7月单月16家机构共开源31个模型及工具 覆盖全模态场景 [10] 行业影响分析 - 为国内企业提供学习先进技术架构和训练方式的契机 [10] - OpenAI的知名度可能吸引部分国内开发者与用户资源 [10] - 国内企业需要加强本地化优势以应对竞争 [10]