Workflow
Prompt Caching
icon
搜索文档
OpenAI绝地反击,Codex大脑首曝,8亿用户极限架构硬刚Claude
36氪· 2026-01-26 10:29
OpenAI发布Agent Loop架构与PostgreSQL极限架构技术细节 - 公司首次公开了Codex AI Agent的核心“大脑”运转机制,即Agent Loop(智能体循环)架构,这是一个包含“观察-思考-行动-反馈”闭环的智能系统,使AI能够独立解决问题而非简单问答 [8] - 公司分享了支撑ChatGPT等产品的后端数据库架构:仅使用1个PostgreSQL主节点配合50个只读副本,即支撑了全球8亿用户和每秒数百万次的查询处理 [24] - 此次技术发布被视为对竞争对手Anthropic旗下Claude Code产品的直接回应,Claude Code因其端到端的开发体验和能在终端独立工作的能力对Codex CLI构成了威胁 [37] Agent Loop架构详解 - Agent Loop作为“总指挥”,将用户意图、模型大脑和执行工具串联成闭环,其工作流程包括构建Prompt、模型推理、工具调用、结果反馈及循环,直至任务完成 [6][9][12] - 该架构使AI具备了自主规划路径、检查错误和验证结果的能力,实现了从“陪伴聊天”到“独立干活”的飞跃 [12] - 公司针对Agent开发的两大痛点进行了优化:通过Prompt Caching(提示词缓存)技术,将长对话成本从平方级增长降至线性级 [13][14][16][17];通过Compaction(对话压缩)技术,在Token数超阈值时将对话历史压缩成加密摘要,以克服上下文窗口有限的限制,保持AI在处理超长任务时的“智商”在线 [18][19][21][23] PostgreSQL高性能架构关键技术 - 公司通过PgBouncer连接池代理将平均数据库连接建立时间从50毫秒降低至5毫秒,在每秒百万级查询的场景下带来了巨大的性能提升 [27][28] - 采用了缓存锁定/租约机制,当缓存未命中时只允许一个请求查询数据库并回填缓存,有效避免了缓存雪崩 [29][30] - 实施了查询优化与负载隔离,例如将涉及12张表连接的复杂查询逻辑移至应用层处理,并将请求按高、低优先级分流,由专用实例处理以防止“吵闹邻居”效应 [31] - 架构设计核心是读写分离与极致优化读路径,读流量全部分流至副本,主库运行于高可用模式,即使主库宕机服务仍能保持只读可用 [27][32][33] 当前架构面临的挑战与未来方向 - 当前架构已触及物理极限,主要问题在于PostgreSQL的MVCC机制导致的写放大与读放大,以及随着副本数量增加,主库向所有副本推送预写日志带来的网络压力和副本延迟 [34][35] - 为突破限制,公司正计划将可分片的高写入负载迁移至Azure Cosmos DB等分布式系统,并测试级联复制技术,目标是支持超过100个副本 [35] 行业竞争与战略信号 - OpenAI此次更新展示了其在Agent架构上的成熟度与深厚工程积累,包括Prompt Caching、Compaction、MCP工具集成等实打实的能力 [38] - 通过展示支撑8亿用户的后端工程能力,公司暗示其“护城河”不仅在于AI模型,更在于整个强大的工程体系 [39] - 行业内的竞争,如Claude Code与Codex的争霸,正在加速双方的产品迭代与创新,最终将使开发者受益 [41]