OpenAI战略方向与模型发展蓝图 - OpenAI首席执行官Sam Altman在线上研讨会中勾勒了GPT-5及其后续版本的进化蓝图,揭示行业正进入智力成本极低、软件形态从“静态”转向“即时生成”的剧变期 [3] - 公司承认在GPT-5.2的研发中“搞砸了”写作能力的优先级,将有限的算力资源倾斜在了推理、编码和工程能力等硬核智力指标上 [3] - 公司战略重心是通过Scaling Law(规模定律)先攻克人类智力的最高地带(如推理、编程),再回头填补审美和表达等细节,未来模型的竞争将是全维度实现“智力平权” [4] 模型性能与成本趋势 - GPT-5相较于GPT-4.5在逻辑推理和编程上极强,但在文采上略逊一筹,表现出性能的“非对称性” [3] - 公司承诺到2027年底,GPT-5.2级别的智力成本将至少下降100倍 [4][8] - 市场出现新趋势:开发者对“速度”的渴求正在超越对“成本”的关注,随着Agent处理长程任务,输出速度需要实现百倍以上的提升才有实用价值 [5][8] - 公司未来可能提供两种路径:极致廉价的“智力自来水”和极速反馈的“智力推进器” [5] 未来软件形态与操作系统变革 - Altman提出颠覆性愿景:未来软件不应是静态的,计算机应能直接生成“即时应用”来解决特定问题,形成“随需随生、用完即弃”的模式 [5] - 软件将根据用户习惯进行极致定制,工具会不断进化并向个人需求收敛,最终形成一套独属于个人的、动态进化的生产力系统 [5][9] - 在OpenAI内部,员工已习惯用编程模型(Codex)来定制自己的工作流,每个人的工具用起来都完全不同 [9] 对开发者与创业者的影响及建议 - 给创业者的建议是构建“模型越强,产品就越强”的东西,而不要在模型边缘做“小补丁”,否则将难以应对模型更新带来的功能吞噬 [10] - 建立成功初创公司的核心规则未变,仍需解决获客、市场策略、创造粘性和形成网络效应等问题 [10] - 对于Agent执行长流程任务,在特定、理解透彻的任务上今天就能尝试自动化,建议开发者先拆解任务,让Agent能够自我验证每一个中间步骤 [11] AI在科研与创意领域的应用 - AI对科学家而言像是“无限量的博士后”,能同时探索多个新问题,进行广度搜索 [15] - 公司观察到GPT-5.2已经让内部科学家感受到了非平庸的科学进展 [12] - 当创造的成本骤降,可以通过密集的反馈循环快速试错,从而更早找到好的创意,AI有望成为激发人类高质量创意的工具 [12] - 在生物医药领域,三维推理能力是当前药物设计的瓶颈,公司确认这个问题一定会解决,但时间点尚不确定 [25] AI安全与治理框架的转变 - Altman指出,世界在AI安全尤其是生物安全上,需要完成从“封堵(blocking)”转向“韧性(resilience)”的根本性转变 [15] - 类比火灾安全,未来应通过制定规范、发明阻燃材料、建立体系来提高社会对AI潜在风险的韧性,而非一味限制 [16] - AI在生物恐怖主义和网络安全方面会成为真实的问题,但同时也是这些问题的重要解决方案 [16] - 如果今年AI出现明显严重的失败事件,生物安全是一个相当合理的“风险爆点”方向 [17] AI与人类协作及教育 - Altman认为,在一个充满AI的世界里,人与人之间的连接会变得更有价值,而不是更没价值 [20] - AI会以前所未有的方式让多人协作成为可能,例如五人团队与一个AI共同工作,生产力会被大幅放大 [20] - 对于基础教育,Altman反对在幼儿园阶段使用电脑和AI,认为该阶段应注重户外活动、接触真实物体和人际互动 [24] - 当前的教育体系需要改变教学和评估思考能力的方式,以适应AI工具的存在,而非假装其不存在 [19] Agent规模化部署的潜在风险 - 随着Agent开始大规模运行并直接操作生产系统,最被低估的风险是:工具的能力和便利性太强,失败概率虽低但后果可能是灾难性的 [21] - 人们可能因模型表现可靠而逐渐放松警惕,授予其完全、无人监督的系统访问权限,从而在系统中埋下安全漏洞 [21] - 随着模型能力快速上升且越来越难理解,如果存在微妙的错位或新的系统性问题,而整体性的安全基础设施构建不足,可能会在不知不觉中走向危险状态 [21][22]
Altman承认“搞砸了”,曝 GPT-5.2 牺牲写作换顶级编程,明年成本降 100 倍,实锤Agent 已能永久干活
36氪·2026-01-27 12:12