奥特曼被吓坏,Codex全家桶上线倒计时,恐将撕开全网漏洞
36氪·2026-01-26 08:21

OpenAI即将发布新版Codex及其网络安全风险评级 - OpenAI预告将在一周后陆续释放与Codex相关的一系列新能力[1] - 这些模型的能力强大到可以在数秒内定位人类多年未发现的安全缺陷,并能被用来复现历史上几乎所有的网络攻击[1] - 因此,OpenAI将这些模型的网络安全风险评级首次定为「高」级别,仅比最高的「关键」等级低一级[1] - OpenAI计划对模型严加防范,阻止用户利用其实施网络犯罪[1] AI模型对网络安全格局的根本性改变 - 当AI模型学会理解软件的全部结构时,它也学会了如何攻击它[3] - 未来,世界上的漏洞数量将不再由人类决定,代码自主生长,系统彼此连接,攻击可能仅需一次提示词而无需动机[2] - 网络安全进入新阶段:问题不在于“有没有问题”,而在于“问题被谁先发现”,而最先发现漏洞的可能已不再是人类[4] - 根据OpenAI安全框架,「高」风险意味着模型能力极可能打破现有网络攻防平衡,导致攻击数量激增[5] - 如果模型达到「严重」等级,则意味着它能自主发现零日漏洞并执行攻击,无需人类指导[6] OpenAI的应对策略:限制使用与辅助防御 - OpenAI采取「先限制使用,后辅助防御」的策略应对潜在风险[8] - 限制使用:对Codex的某些能力进行限制,防止其被滥用[9] - 辅助防御:利用AI提升整体软件安全性,帮助防御方建立防线[9] - OpenAI认为,在更强模型问世前,部署现有技术是构建防御体系的关键一步[9] - 其逻辑是抢先部署能力,帮助好人建立防线,以应对可能被滥用的风险[10] - 防御必须跑在滥用之前,短期内依靠产品级限制阻断恶意指令,长期则需极限加速防御性能力的发展[11][12] - 因为可以预见,世界上很快将同时存在大量强大的模型[13] AI编程工具的理念之争:Codex与Claude Code - 近期,Claude Code在硅谷受到程序员广泛关注,但技术观点认为Codex将赢得人工智能编码之战[14] - 对比的焦点不应是哪个AI更聪明,因为Claude Code和Codex都足够强大,能让不懂代码的人开发出完整应用[19] - 核心问题在于未来大多数软件构建者并非工程师,他们更想要能自主完成任务、无需频繁交互的工具[19] - Claude Code建立在「结对程序员」理念上,强调与用户协作,让用户保持在环节中,设计上需要反复互动[20] - Codex则像「自主打工人」,接受任务后直接工作、修改代码、运行测试并交付结果,无需人工干预,可连续工作数小时[22] - Claude Code适合热爱编程过程、想要参与感和掌控权的工程师[22] - Codex则适合数量庞大的、只想得到结果而非享受过程的非技术背景构建者[25] - 未来软件将成为日用品,核心技能将从写代码转变为定义产品,职业工程师群体将变得相对微不足道[25] - 未来的关键选择在于:AI是一个需要互动的同事,还是一个可以放手让其工作的工具[25]

奥特曼被吓坏,Codex全家桶上线倒计时,恐将撕开全网漏洞 - Reportify