Workflow
六年来首次!OpenAI新模型开放权重,Altman称为“全球最佳开放模型”
华尔街见闻·2025-08-06 21:06

开放权重模型发布 - OpenAI六年来首次推出开放权重语言模型gpt-oss-120b和gpt-oss-20b,这是自2019年GPT-2以来首次发布此类模型[1] - 两款模型允许开发者定制,但不提供训练数据,被视为对Meta、Mistral AI和DeepSeek等竞争对手的回应[1] - 模型采用专家混合(MoE)架构的Transformer,减少活跃参数数量,支持高达128k的上下文长度[5][6] 模型技术参数 - gpt-oss-120b总参数量1170亿,每token激活5.1亿参数;gpt-oss-20b总参数量210亿,每token激活3.6亿参数[6][7] - gpt-oss-20b可在16GB内存笔记本运行,gpt-oss-120b需要约80GB内存,均支持高级推理、工具使用和思维链处理[2][3] - gpt-oss-120b在竞赛编码、通用问题求解和工具调用方面优于o3-mini,匹敌甚至超越o4-mini[8][9] 战略与市场影响 - 发布标志着OpenAI战略转向重要节点,此前多次推迟开放权重模型发布并进行广泛安全测试[3] - 亚马逊首次向客户提供OpenAI模型,微软将GPU优化版gpt-oss-20b引入Windows设备[3][4] - 竞争压力特别是来自中国DeepSeek的挑战推动OpenAI此次战略转变[16] 生态系统部署 - 模型在Apache 2.0许可下免费提供,可通过Hugging Face和GitHub下载[15] - 与Azure、vLLM、Ollama、AWS等领先部署平台合作,确保广泛可用性[15] - 举办50万美元奖金池的红队挑战赛,鼓励识别新的安全问题[15] 性能与特点 - gpt-oss-120b在健康相关查询和竞赛数学方面表现超过o4-mini[8] - 较小的gpt-oss-20b在同类型评估中匹敌甚至超越o3-mini[9] - 模型可在个人电脑甚至手机上本地运行,无需互联网连接,提供完全控制权和隐私保护[3]