Workflow
Mythos
icon
搜索文档
AI’s ability to see ‘mirages’ shows how alien machine brains really are
Fortune· 2026-04-01 02:20
Anthropic公司动态 - 公司训练了名为“Mythos”(内部代号Capybara)的新AI模型,声称其能力代表“阶跃式变化”,并特别关注该模型带来的网络安全风险[2] - 公司因将包含该模型介绍的博客草稿、即将举行的CEO务虚会文件以及提及员工陪产假的内部文件存放在不安全的公开可搜索数据库中,导致敏感数据泄露[2] - 公司再次发生重大安全漏洞,意外泄露了围绕Claude Code的智能体框架代码[3] - 公司与OpenAI均已就所开发模型的新危险向政府发出警告,并向政府安全专家提供了早期访问权限[3] - 公司赢得联邦法院的初步禁令,阻止了五角大楼将其列为“供应链风险”的认定生效,但法律不确定性依然存在,政府表示将上诉[17] - 公司在加州的诉讼中,法官质疑政府将一家美国公司首次列为“供应链风险”的理由,认为此举可能构成非法报复[17] - 公司在华盛顿特区法院面临另一场诉讼,但上诉合议庭尚未设定听证日期,且可能面临不如加州法院同情的法官[17] OpenAI公司动态 - 公司突然决定关闭其Sora视频生成应用,以将更多计算资源和人才投入核心的ChatGPT和Codex编码智能体业务[18] - Sora应用消耗大量计算能力但用户增长停滞且严重亏损,在公司准备进行可能于今年晚些时候进行的IPO之际,其造成的利润拖累和稀缺计算资源是公司无法承受的[18] - 公司面临来自Anthropic的激烈企业竞争[18] - 公司在做出关闭Sora的决定前,几乎没有向华特迪士尼公司发出警告,尽管迪士尼已计划向公司投资10亿美元并达成一项许可协议,允许Sora用户使用迪士尼角色和IP生成图像[18] - 关闭Sora使公司从AI驱动的娱乐领域战略收缩,可能为其他AI参与者腾出空间,并实质上终结了与迪士尼可能有助于吸引更多投资者的萌芽合作关系[18] Mistral AI公司动态 - 这家巴黎AI初创公司通过债务融资筹集了8.3亿美元,用于在欧洲建设由英伟达芯片驱动的数据中心[19] - 公司常被视为前沿AI实验室中的“欧洲冠军”,随着欧洲及其他地区更多国家寻求美国科技巨头的“主权”AI替代方案,其模型需求不断增长[19] - 该融资支持一项更广泛的数十亿欧元基础设施推动计划,在法国和瑞典规划设施,以满足寻求更多控制其AI系统的政府和企业不断增长的需求[19] 行业监管与政策 - 加州州长发布了一项开创性的行政命令,要求寻求加州州政府合同的AI公司披露详细的安全、隐私和偏见缓解措施,包括防止滥用和误用的保护措施[20] - 该命令主张州政府独立于联邦决定(如五角大楼将Anthropic列为供应链风险),允许加州自行决定合作的AI供应商[20][21] - 该命令进一步指示州机构开始对AI生成内容添加水印,以打击错误信息并提高公众透明度[20] - 该命令可能使加州进一步成为特朗普政府针对的目标,后者誓言将利用联邦权力惩罚制定自己AI法律的州[21] - 联邦贸易委员会与Match Group就其OkCupid平台在未经适当同意的情况下与有争议的AI公司Clarifai共享用户个人数据(包括照片和位置信息)的指控达成和解[22] - 根据和解协议,Match和OkCupid必须停止对其数据实践和隐私控制进行虚假陈述,但未施加经济处罚,Clarifai仍被允许使用这些数据以及基于这些数据训练的面部识别模型[22] AI技术研究进展 - 斯坦福大学研究人员发现,多模态AI模型存在一种被称为“幻影推理”的现象,即模型会声称分析用户实际上从未上传的图像,并在未提供图像的情况下提供诊断,且这些评估通常正确,在基准测试中获得无图像时得分约为有图像时得分的70%至80%[11] - 研究发现模型倾向于在幻影图像中发现病理证据,表明模型可能存在诊断疾病的偏见,若在真实医疗环境中使用可能导致危险且代价高昂的误诊[11] - 研究人员对阿里巴巴的开源模型Qwen-2.5(仅30亿参数)进行了微调,在移除胸部X光基准测试公共训练集的图像后,该微调版本在包含图像的正常X光挑战中超越了所有测试的前沿AI模型,并且比人类放射科医生的得分高出10%,尽管它无法访问任何图像[12] - 研究表明,问题本身存在隐藏模式,其措辞或基准测试中的问题结构对人类而言过于微妙而无法察觉,但足以让模型猜测答案,这意味着多模态模型几乎不使用给定的视觉输入,而严重依赖语言模式来分析图像[12] - 研究指出,大多数多模态基准测试可能无法很好地衡量这些模型在真实临床环境中的表现[12] AI的社会影响与经济分析 - 《金融时报》数据分析显示,与社交媒体放大极端和极化观点不同,AI聊天机器人可能产生“技术官僚化”效应,促使用户转向更温和、与专家意见一致的立场[23] - 基于大量政治态度数据集的测试发现,在61个政策和社会议题上,主要聊天机器人(包括Grok、GPT、Gemini和DeepSeek)在数千次模拟对话中,始终使用户远离意识形态极端:Grok略微偏向中右翼,而ChatGPT、Gemini和DeepSeek偏向中左翼,但都减少了双方的边缘观点[24] - 研究发现聊天机器人很少支持阴谋论(如选举否认或疫苗错误信息),这与社交媒体上此类观点被过度代表形成鲜明对比,且即使聊天机器人获知用户的政治倾向,这种温和效应仍然存在[25] - 伦敦政治经济学院经济学家Luis Garicano分析认为,AI将提升采用最积极的经济体(尤其是美国和中国)的生产力,这些国家将需要提高利率以防止通胀[28] - 由于资本市场运作方式以及美国仍是主要全球储备货币,高利率将被“输入”到AI采用速度较慢的国家,这些地区将面临高利率却没有高增长的补偿,可能面临滞胀前景,这对于AI采用落后于美中的欧洲和英国等地区尤其令人担忧[28]
OpenAI放弃Sora背后是AI无限使用幻想的落幕
日经中文网· 2026-03-31 16:01
OpenAI的战略调整与资源分配 - 公司决定停止提供视频AI服务Sora,并将计算资源集中用于开发作为ChatGPT基础的新模型“Spud”,这是一个艰难但必要的决定,核心原因是算力问题[2][4] - 公司已解除与华特·迪士尼的合作,并停止了Sora服务以及“成人模式”的开发,主要原因是用于AI处理的高性能半导体短缺[4] - 新模型Spud旨在提高AI在代替人类编程和事务性工作方面的性能,计划在未来几周内完成开发[5][6] AI行业竞争格局与新模型推出 - 多家领先AI公司正在竞相推出高性能新模型,OpenAI的Spud预计在5至6月前后提供,Anthropic的Mythos在4至6月前后,Meta的Avocado在5月以后,xAI的Grok5则推迟至3月[7] - 视频生成相比文章和图片需要大量计算,成本更高,Sora服务每天导致公司100万美元的亏损[7] 算力短缺与AI智能体的影响 - 高性能半导体处于慢性供应短缺状态,自主运行的AI智能体(AI Agent)的普及显著加剧了供需紧张[8] - AI智能体能够自问自答以达成目标,并可24小时持续运转,消耗大量算力,使得低价格且“随意使用”AI的模式接近极限[8] - 确保算力需要1年半至2年的时间,公司正着眼于未来大量购买半导体用于研究和提供服务[8] 算力资源货币化与战略运用 - 英伟达CEO黄仁勋提出衡量AI使用量的“AI Token”概念,约75个英语单词相当于100个Token,随着算力稀缺,大量使用Token正成为一种特权[9] - 黄仁勋提出,年薪50万美元的技术人员至少应使用价值25万美元的Token,并将其作为员工福利方案,Token使用量已成为硅谷AI企业招聘人才的宣传口号[9] - OpenAI内部有排名表表彰使用Token最多的员工,旨在通过让员工大量使用AI来拉开生产效率差距[11] - OpenAI CEO萨姆·奥尔特曼曾提倡“全民基本算力”,认为使用AI算力的权利未来将像现金一样不可或缺[11] 行业面临的挑战与上限 - 数据中心的激增引发全球多地居民反对,算力的供应存在上限[11] - 行业必须面对如何高效利用高性能AI并避免使用差距扩大的课题[11]