o3-pro正式推出!说声“嗨”就花了80美元,思考1+1用时16分钟
量子位·2025-06-11 10:27
模型发布与性能 - OpenAI推出最新推理模型o3-pro,官方测评显示专家一致更偏爱o3-pro的回答 [1][2] - o3-pro在数学、科学和编程领域超越o3和o1-pro,成为当前最强模型 [5][27] - o3-pro通过严格"4/4可靠性"评估,需在四次尝试中正确回答问题 [27][28] 定价策略与市场反应 - o3-pro API定价为每百万输入tokens收费20美元,输出tokens收费80美元 [10] - o3模型价格下调80%,输入/输出tokens分别降至2美元和8美元,与GPT-4o基本持平 [12][13][14] - 降价原因为推理服务架构优化,但用户对o3性能是否降智存在争议 [17][18][19][24] 技术特性与应用场景 - o3-pro响应时间较长,适合高难度问题,如宾大教授测试的单词阶梯挑战 [30][31][36][37][38] - 生物医学测试显示o3-pro能识别人类免疫系统关键局限性,表现优于o3 [41][42][43] - ARC-AGI测试表明o3-pro高难任务表现略好,但成本随难度上升 [44][45] 行业展望与战略方向 - OpenAI CEO预测2025-2027年将出现能执行认知任务、原创见解和现实任务的AI系统 [54] - 智能成本未来或接近电力成本,每次ChatGPT查询耗电0.34瓦时 [54] - 公司定位为超级智能研究公司,推迟公开权重模型发布 [56][57]