奥特曼承认OpenAI路线走偏了,以及“写代码将变得不再重要”
36氪·2026-01-27 15:37

AI对软件工程与就业市场的影响 - 未来从事工程师工作的人数可能会大幅增加,软件工程岗位需求不会变少,只会变得更多,而且规模会比今天大得多 [3][5] - 工程师花在敲代码、调试代码上的时间会明显减少,更多精力会用在让系统替你把事办成上 [3][5] - 在接下来的几年里,会大量使用只为一个人、或者极小群体量身定制的软件,每个人都会不断给自己定制工具 [3][5] AI模型的技术发展与路线 - OpenAI承认在ChatGPT-5系列模型的开发中搞砸了,有意把大部分精力集中在智力、推理和编程能力上,导致写作能力表现不如4.5模型稳定 [11] - 从长远方向看,未来主流一定会是真正高质量的通用型模型,OpenAI希望继续推进下一代模型,让它们在所有维度上都变得非常优秀 [13][14] - 模型学习新技能的速度在接下来的几年里会比人类还要快,目标是模型面对完全陌生的新环境、新工具时,只需解释一次或自行探索后就能稳定可靠地使用 [4][8] AI的成本、速度与商业化应用 - 模型发展进入新阶段,市场除了注重降低成本,也开始要求更快的输出速度,甚至愿意为速度支付更高的价格 [17][19] - OpenAI在压低模型成本上一直做得非常好,模型成本曲线已出现非常明显的下行趋势,有信心将成本打到非常低,让大规模运行Agent在经济成本上站得住脚 [17][19] - AI让创作成本持续暴跌,可以用极低的代价快速试错、验证想法,并建立紧密的反馈回路以筛选好点子 [20] AI对教育与社会的影响 - 在幼儿园阶段,最重要的不是技术,而是通过真实的东西和人来学习交流,因此在搞清楚技术对青少年的长期影响之前,没必要将AI引入幼儿园 [10] - AI很可能成为一种赋权工具,让个人以极低成本做出以前只有大公司或大团队才能做的事,有潜力拉平部分长期存在的经济差距 [23][25] - AI也可能反过来把权力和财富进一步集中到少数人手里,能否缩小经济差距最终取决于如何部署、监管以及配套的政策设计 [25][26] AI安全与风险 - 对2026年AI可能出问题非常紧张,其中最担心的领域是生物安全,当前的限制访问和分类器等封堵式办法可能撑不了多久 [27][29] - AI安全必须从阻止一切发生,转向提高整体抗风险能力的韧性式安全,AI既是问题本身,也是解决方案的一部分 [27] - 如果今年AI发生明显严重的事故,最有可能的领域就是生物安全 [29] AI时代的创业与价值创造 - 创业最难的部分从来不在把产品做出来,而在于让大众真正关注、使用并与其建立连接,AI并未改变这一根本挑战 [30] - AI让软件开发变轻松,但创业的其他环节并未变简单,必须找到真正有差异化的价值突破口,产品才有可能被市场接受 [30] - 在软件能力爆炸的世界里,人类注意力极其稀缺,真正稀缺的是人的注意力与好创意,创业仍需靠持续创造非凡价值 [30]