深度推理模型
搜索文档
欢迎OpenAI重返开源大模型赛道,谈一谈我关注的一些要点
36氪· 2025-08-06 15:55
文章核心观点 - OpenAI于2025年8月5日发布两款开源大模型GPT-OSS 120B和GPT-OSS-20B,这是公司自2019年11月以来首次发布开源模型,标志着其重返开源赛道[1] - 公司此次开源主要是为了满足企业客户对数据本地化部署、定制化微调和成本控制的需求,以争夺被竞争对手占据的市场[3][4] - 本次开源在技术层面影响有限,因其未披露最新技术、完整训练细节和核心语料库,属于“开放权重”而非完全开源,但证实了外界对其技术路线的猜测大部分正确[5][6][8] 行业竞争格局 - 在OpenAI开源前,全球主流AI开发商中仅OpenAI和Anthropic未发布新版开源模型,而谷歌、Meta、Mistral、阿里巴巴等均已有开源产品[2] - 2025年成为“开源之年”,百度、OpenAI、Meta、阿里巴巴等纷纷发布或加速开源模型,仅Anthropic和字节跳动未提供开源版本[4][5] - 开源策略有助于模型快速普及和生态构建,如DeepSeek因开源迅速获得政企客户,LLaMA在欧美深受大企业欢迎[4] 开源模型的商业动因 - 开源模型支持本地化部署,客户可将数据存储在本地硬件,保障国家或商业机密安全[3] - 客户可基于行业需求对开源模型进行微调,尤其适合医疗、金融等敏感或复杂场景[3] - 本地运行开源模型可能比购买闭源模型使用权更经济,例如GPT-OSS-20B可运行于笔记本电脑[3] 技术细节与性能 - GPT-OSS 120B和20B的参数规模分别为1200亿和200亿,训练数据截止于2024年6月,性能与GPT-4o3相当[6] - 模型采用混合专家架构,120B版本每层有128个专家,20B版本每层有32个专家,每次激活4个专家[6] - 思维链架构在后训练阶段实现,并采用CoT RL技术,但未压制“大模型幻觉”,导致深度推理模式幻觉率较高[6][7] - 训练算力基于英伟达H100 GPU,120B版本消耗210万H100小时,若训练45天需1944张H100,未使用最新Blackwell架构[9][10] 开源内容的局限性 - OpenAI未公布训练用的脚手架模型、Reward模型、预训练语料库及独家工具,因此属于“开放权重”而非完全开源[8] - 技术白皮书仅确认了外界已有猜测,未透露核心独门技术,对行业技术进步的直接影响有限[5][7] - 公司更先进的模型如GPT-4(参数1.37万亿)仍闭源,算力资源可能优先用于GPT-4.5/GPT-5训练[10]
深度推理模型写高考英语作文谁更强?记者实测,名校英语教师点评
贝壳财经· 2025-06-09 09:24
大模型高考英语作文测评结果 - 讯飞星火X1以平均分19.5分排名第一,内容完整且紧扣主题,语言准确句式多样,结构清晰段落衔接自然 [22][27] - DeepSeek R1以平均分19分排名第二,内容详实建议具体,理由全面语言精准,但超字数限制被扣分 [7][27] - 百度文心X1以平均分18.5分排名第三,内容创新建议详实,理由充分语言优秀,结构合理过渡流畅 [26][27] - 通义千问Qwen3以平均分17分排名第四,内容基本完整建议合理,语言准确表达得体,但理由稍简略 [14][27] - ChatGPT o3以平均分14.5分排名第五,内容覆盖要点但理由浅显,语言有错误句式单调,结构发展不足 [10][27] - 腾讯混元T1以平均分13分排名第六,内容基本相关但理由泛泛,语言口语化句式简单,结构松散结尾随意 [19][27] 大模型英语写作能力分析 - 各模型均能完成写作任务,但在内容细节、逻辑关系、观点表达精准性等方面差异较大 [27] - 部分模型语法句法选词精准到位逻辑清晰,部分模型逻辑性欠缺展开不够具体深入 [28] - AI作文立意创新性强于真实考生,因信息搜索整合能力更强,但句式丰富度不及优秀考生 [28] - 模型内嵌评分标准和写作方向差异明显,内容简繁程度与内部数据库密切相关 [28] 国内大模型近期发展动态 - DeepSeek于5月28日更新R1-0528版本 [29] - 腾讯于5月21日迭代混元T1和混元Turbo S [29] - 阿里巴巴于4月29日开源新一代通义千问Qwen3 [29] - 百度于4月25日发布X1 Turbo [29] - 科大讯飞于4月20日升级讯飞星火X1 [29] - 4-5月国内主流大模型集中进行推理层面更新,带来英语写作等能力进步 [29]