Personal AGI
搜索文档
Altman、Brockman十年来首次同台:砍掉Sora不是因为它不够好,第一优先级是Agent
Founder Park· 2026-04-23 21:21
公司战略与产品优先级 - 公司当前三大战略优先级为:构建极致的Agent平台、推出面向所有人的Codex、以及实现Personal AGI [3] - 第一优先级是构建极致的Agent平台,模型已从“产品本身”转变为“产品的一部分”,公司正在为模型(大脑)构建“身体”(如skill、连接器、计算机操作、上下文管理等软件层)[13] - 第二优先级是将Agent应用到所有“computer work”(电脑工作)中,而不仅是知识工作,Codex将面向所有人,并计划通过合作领域专家、生产评估和训练数据,将AI能力应用到法律、金融、写作、做表格、做PPT等垂直行业[13] - 第三优先级是实现Personal AGI,目标是让一个模型真正了解用户的全部上下文,包括身份、生活、在乎的人和事,并能访问其电脑和浏览器,从而彻底改变使用体验 [4][28] - 公司内部将Personal AGI作为目标,旨在构建一个真正了解用户、拥有其上下文、可被信任的AI,用于深度电脑工作和个人生活 [45][46] 产品调整与资源分配 - 砍掉了图像生成模型Sora,原因是其技术路径与核心GPT系列不统一,使用场景不在公司未来3到12个月的核心产品路径上 [16] - 公司正处在向Agent转型的时刻,产品战略聚焦于Agent平台和Codex的整合 [12] - 公司认为算力是利润中心而非成本中心,商业模式是租或买算力,加上利润率后卖出,只要有正毛利就能无限扩展,因为需求是无限的 [17] - 公司否认缩减“Stargate”等基础设施投入的报道,并表示会继续尽最大可能建设算力 [18] - 自研芯片和数据中心硬件项目仍在全力推进中 [19] - “超级App”是公司内部对统一Agent基础设施的简称,其核心是让Codex面向所有人升级,公司计划模糊To C和To B的界限,聚焦于在所有场景下帮助用户达成目标 [20] - 机器人、浏览器项目在继续,但社交网络不做,机器人方向的“ChatGPT时刻”仍需时间 [20] 技术发展与能力认知 - AI的能力边界是“锯齿状”的,在不同领域进展不均 [22] - 过去几天,公司的AI解决了一个长期悬而未决的数学问题,揭示了不同数学领域间此前未被发现的联系 [22] - 技术发展分为两步:第一步是无监督学习,模型通过公开数据预测下一个词;第二步是强化学习,模型尝试想法并根据表现获得信号 [22] - 评判AI在开放性领域(如写作)的表现是难点,因为标准模糊,公司正在扩展可被评分的任务集合,并利用AI自身提供奖励信号 [23] - 评估技术进步不应只看当前位置,而应看其发展斜率,并将其拟合到指数曲线上 [23] - 公司致力于让模型满足10亿用户的个性化需求,使其在不同用户眼中都是“好作家” [23] - 新的图像生成模型ChatGPT Images 2.0即将发布,能生成极其出色的图像,包括文字渲染能力也将很快得到改进 [25][27] - ChatGPT拥有10亿用户,但公司认为其远非最令人印象深刻的技术,发布前的技术(如赢得电子游戏竞赛、解魔方机器人)虽令人惊叹但未产生广泛实际影响,而ChatGPT让用户能亲手感受并产生“aha时刻” [27] - 模型能力和用户期望值正以巨大幅度逐月或逐季提升,当前模型相对于未来还很“笨”,且对用户个人生活几乎一无所知 [28] 公司治理与创始人关系 - 两位联合创始人Sam Altman和Greg Brockman是公司十年搭档,保持每日同步(至少5个电话,每次几分钟),分歧是让公司强大的原因 [9] - Greg Brockman擅长推动公司聚焦于最重要的事,而Sam Altman则在算力规模上不断提高野心,这种平衡被视作公司成功的关键 [10][11] - 近期Greg Brockman接管了产品和研究整合工作,虽上任仅几周,但给公司内部带来了显著的能量和兴奋感 [12] 行业竞争与定位 - 在编程领域,公司在“真实世界代码”应用上起步比Anthropic慢,但竞争提升了公司执行力,目前Codex对比Claude已在很多维度领先 [39][40] - 公司认为某些参与者(暗指竞争对手)只相信自己能做对AI,并出于对无限赌注的考虑而不信任他人,这导致了一些有害的行为 [41] - 公司认为Anthropic在与美国联邦政府的公开冲突事件中未受到公平对待,反对使用《国防生产法》(DPA)和供应链风险认定来威胁AI实验室 [42] - 公司认为领先的AI实验室应协助美国政府,随着模型越来越强大,这种合作会越来越重要 [42] - 公司一直试图在与美国政府的关系中保持温和、中立、理性 [43] - 对于谁先实现AGI,公司认为关键不在于此,而在于如何帮助人们理解技术能为他们做什么,这是所有创造者的责任 [44] 安全与部署理念 - 公司对安全与对齐的谈论方式已改变,早期作为技术极客犯了一个错误:只说要构建超级智能且对人类很好,但未说明中间过程如何实现 [29] - 公司认为人们真正想要的是繁荣、主体性以及继续拥有有意义的工作,而非所有事都被代劳 [30] - 公司找到了不同的方式来谈论安全,核心是“迭代部署”理念:在风险逐步升高的过程中,让产品变得越来越安全 [31] - 公司非营利机构(OpenAI基金会)的核心支柱之一是“AI韧性”(AI resilience),其含义是让AI成为对世界有正面意义的东西,这需要一整套深层的社会调整,而非单点技术干预 [31] - 如果先使用一项不那么强大但能正面改变世界的技术,那么后续部署更强大的变革性技术时,事情会顺利得多,这种思维导向韧性思维和迭代部署 [32] - 早期的恐惧叙事与2017、2018年设想的多智能体竞争模拟技术路线有关,该路线可能产生聪明但与人类价值观无联系的系统,非常可怕且难以对齐 [32][33] - 后来转向的语言模型路线扎根于人类价值观和理解,拥有可监控的思维链,是一条乐观得多的技术路径 [33] 社会影响与访问权 - AI可能带来两种未来:一种是生活水平(地板)大幅抬升,每个人主观上感觉更富裕,但不平等加剧,出现利用AI杠杆的万亿富翁;另一种是生活水平上升较少,但不平等也较小 [35] - 公司创始人认为人们显然应更想要第一种未来,但情感上很多人难以接受 [35] - 无论选择哪种未来,共识是需要更多算力、更多基础设施,以及尽可能便宜的AI访问权,否则将加剧不平等 [37] - AI本质上是机会,但前提是拥有访问权,如果没有算力,再擅长使用Agent也无用 [37] - OpenAI基金会持有公司约25%到30%的股权,价值超过1500亿美元,如果公司成功,这些价值将锁在非营利架构中用于造福世界 [37] - 正在成长的一代人使用Agent的能力将比上一代强10倍 [37] 对Elon Musk诉讼的回应 - 公司认为Elon Musk的诉讼是一个讲出真相的机会 [47] - 诉讼的核心历史分歧点在于:当所有人都同意公司必须转型为营利性结构后,Elon Musk要求多数股权、CEO职位和绝对控制权,公司因坚持使命(不应由任何一个人掌控整个未来)而在这一步说了“不” [49] - 公司此前从未公开讲述过这段故事 [49]