Artificial General Intelligence (AGI)
搜索文档
硅谷“钱太多”毁了AI ?!前OpenAI o1负责人炮轰:别吹谷歌,Q-Star 被炒成肥皂剧,7年高压被“逼疯”!
新浪财经· 2026-01-25 09:24
Jerry Tworek离职OpenAI的核心原因 - 核心人物Jerry Tworek于2026年1月离开OpenAI,其离职在内部引起巨大震动,被描述为“突然”且“重”[2][86] - 离职主要原因是希望从事有风险的基础研究,而OpenAI等大型AI公司已优先考虑用户增长等商业化指标,导致研究与产品开发脱节[2][86] - 在OpenAI的近七年里,公司从约30名员工成长为规模庞大的全球性公司,Jerry Tworek参与了包括Q-Star、Strawberry(后发展为o1推理模型)、GPT-4、ChatGPT以及早期代码模型和Chinchilla缩放规律在内的众多关键项目[13][14][86] 对OpenAI及行业现状的批评 - 指出OpenAI创新不足,原因包括:最佳模型的竞争异常激烈,公司需不断展现实力以留住用户并证明高昂的GPU成本合理性;僵化的组织结构(组织架构图)导致团队各自为政,跨团队研究难以开展[3][17][89] - 批评整个人工智能行业高度同质化,所有主要AI公司都在开发几乎相同的技术,产品几乎没有区别,迫使研究人员追求短期利益而非实验性突破[3][23][89] - 认为谷歌之所以能成功追赶OpenAI,本质上是OpenAI自身的失误,包括犯了一些错误、行动过于缓慢,未能充分利用原本拥有的巨大领先优势[3][55][89] 对行业研究环境与文化的观察 - 指出大模型行业的叙事已变得娱乐化,像“肥皂剧”或“真人秀”,技术进展被包裹在关于离职、跳槽和内部纷争的连续剧式叙事中,研究者像是在聚光灯下跑一场没有终点的马拉松[6][44][48][92] - 行业的高薪在某种程度上使研究者害怕失去工作,更倾向于追求短期、确定性的收益路径,而非鼓励冒险和大胆下注[28] - 认为研究结构、文化和协作方式比依赖某个特定“明星”研究者更重要,频繁跳槽的研究者往往反而不够高产[80][81] 看好的研究方向与未来展望 - 认为Transformer架构并非终点,行业存在“路径依赖”,呼吁进行“架构创新”,探索训练大模型的新方法[36] - 指出“持续学习”(Continual Learning)是将测试时与训练时真正融合的关键能力,是目前模型迈向AGI前最后几个关键要素之一[37] - 强调“推理模型”(如o1)是继GPT-4之后最重要的能力跃升,其核心是在对世界有深刻理解的基础模型上叠加规模化强化学习,未来应沿此方向前进[20][21][33] - 看好利用电子游戏等复杂环境训练AI智能体的方向,认为这是贴合人类智能、教授问题求解的有趣途径[31] 对竞争对手的评价 - 高度评价竞争对手Anthropic,认为其在过去一年展现出罕见的“清晰感”,尽管算力更少、团队更小,但异常专注、执行力极强,特别是在代码模型与代码Agent方向上取得了不是单纯堆规模的显著成果[4][5][61][62][90][91] - 认为Meta的战略可能不是追求模型层面的完全差异化,而是利用已成熟的AI技术(如Transformer)来构建全新的产品体验,这对其业务而言是合理策略[60][61] - 提及像John Carmack、Ilya Sutskever等人正在押注完全不同的、激进的新研究路线,这种探索值得被资助[28][29][30] AGI发展路径与时间线看法 - 个人对AGI时间线有所更新,此前认为规模化强化学习即是AGI,但现在认为还需整合持续学习、多模态感知等关键能力[38][39] - 认为要实现AGI还有很多必要步骤,但进展可能很快,时间线可能在2026至2029年之间,不会更久太多[39] - 强调当研究者看到像Q-Star早期迹象这样的全新技术出现时,感到担忧和谨慎是健康且负责任的反应[41]
硅谷“钱太多”毁了AI ?!前OpenAI o1负责人炮轰:别吹谷歌,Q-Star 被炒成肥皂剧,7年高压被“逼疯”!
AI前线· 2026-01-24 13:33
文章核心观点 - 文章通过OpenAI前核心研究员Jerry Tworek的离职访谈,揭示了当前大模型行业在激烈竞争下出现的创新瓶颈、研究商业化压力以及行业叙事娱乐化等问题,并探讨了未来AI研究的潜在突破方向 [3][4][6] OpenAI内部变化与Jerry Tworek的离职 - Jerry Tworek于2019年加入OpenAI,当时公司仅有约30名员工,他是现代AI浪潮背后最有影响力却最少露面的关键人物之一,参与了包括Q-Star、Strawberry(最终发展为o1推理模型)在内的许多最重要项目 [3] - 其离职在内部引起巨大震动,多位员工在社交媒体上表示“崩溃”和“难受” [3] - 离职主要原因是想从事有风险的基础研究,而这在OpenAI已不可能,因为公司优先考虑用户增长等商业指标,研究与产品开发之间存在日益加剧的分歧 [3] - 他认为在OpenAI的七年,每一年都像在一家完全不同的公司,经历了从30人小团队到全球数千人员工规模的巨大变化 [17][18][19] 大模型行业面临的挑战与问题 - **创新不足与同质化竞争**:所有主要AI公司都在开发几乎相同的技术,产品几乎没有区别,迫使研究人员追求短期利益而非实验性突破 [4] - **组织架构僵化**:团队各自为政,职责分明,跨团队研究难以开展,组织结构决定了哪些研究是可能的,最终导致公司“交付其组织架构图”,只做组织结构最容易支持的项目 [4][22][23] - **风险偏好降低**:公司需要不断展示最强模型以留住用户并证明高昂的GPU成本(未给出具体数字)的合理性,这影响了承担风险的“胃口” [4][22] - **行业叙事娱乐化**:整个行业被持续围观,技术进展被赋予额外意义,内部变化被解读成信号,研究现场被包裹进一层娱乐业式的叙事,像在聚光灯下跑一场没有终点的马拉松 [6][7][58] 对主要AI公司的评价与比较 - **OpenAI的失误**:谷歌之所以能在AI竞赛中成功追赶,本质上是OpenAI自身的失误,公司犯了一些错误,行动过于缓慢,没能充分利用原本拥有的巨大领先优势,导致一些关键推进“慢得不该那么慢” [4][5][67][68][72] - **Anthropic的清晰感**:在过去一年里展现出罕见的“清晰感”,算力更少、团队更小,却异常专注、执行力极强,特别是在代码模型与代码Agent方向上取得了不是靠简单堆规模取得的成果 [5][75][76] - **谷歌的追赶**:谷歌做出了许多正确决策,并凭借其在硬件、算力和人才储备上的巨大优势成功追赶,但OpenAI的领先最初靠的是对特定技术路线的强烈信念而非资源优势 [4][68][69] - **Meta的战略**:可能选择使用已熟悉的AI技术(如Transformer)来构建全新的产品体验,而非在模型层面追求完全不同的路线,这对其作为社交巨头而言是合理的策略 [74][75] 未来AI研究的潜在方向 - **超越Transformer的架构创新**:Transformer不可能是机器学习的最终架构,存在其他训练大模型的方法值得探索 [45][46] - **持续学习(Continual Learning)**:如何把测试时与训练时真正打通、融合,让模型能像人类一样从看到的数据中持续学习,这是实现AGI的关键能力要素之一 [47] - **世界模型与强化学习的结合**:在高质量世界模型之上大规模运行强化学习,是“毫无疑问正确”的方向,能教会模型仅靠预训练永远学不会的技能 [26][43][44] - **探索与利用的权衡**:行业需要像设计智能体一样,思考如何在研究中进行“探索与利用”的取舍,鼓励更多冒险和大胆的赌注,因为真正的进步正是这样发生的 [36][40] 对AGI(通用人工智能)的展望 - 对AGI时间线的判断有所更新,一年半前认为规模化强化学习即是AGI,但现在认为还需整合持续学习、多模态感知等能力 [49][50] - 不认为谈论AGI是离谱的,但按其定义当前模型仍不是AGI,实现“文明级里程碑”还有很多必要步骤 [49][50] - 预计AGI可能的时间点在2026至2029年之间,不会更久太多,因为投资在年复一年累积增长,人才池和探索的想法数量都在变多 [50] 对AI行业生态与文化的观察 - **高压环境**:在OpenAI工作甚至被描述为比创业压力更大,研究者需要像“做俯卧撑”一样锻炼心理韧性以应对持续高压 [7][61][92] - **人才流动与“明星驱动”**:湾区像一个巨大的转会市场,研究者在几家前沿实验室之间流动,但公司的结构、文化和协作方式比某个特定研究者的去留更重要 [6][96][97][98] - **资源分配问题**:许多有潜力的研究方向缺乏关注、算力和资源,且行业更擅长“从0到1”提出想法,而将不成熟的想法做到大规模可靠落地(从1到100)同样关键但资源往往分散 [84][85][92][93]
2 Bruised Tech Stocks on the Fast Track to AGI
247Wallst· 2026-01-23 22:08
The race to achieve artificial general intelligence (AGI) is on, and the race might be closer than investors realize. ...
Google DeepMind CEO on state of the AI race, push towards AGI and AI impact on jobs
Youtube· 2026-01-23 21:18
Gemini模型的发展与市场地位 - Gemini模型人气飙升,被部分观点认为是大型语言模型中的领先者,苹果公司上周宣布选择Gemini为Siri提供技术支持 [1] - 公司对最新的Gemini 3模型表现感到满意,认为其在大多数基准测试中位居榜首 [4] - 公司正加速基础设施升级并重写大量基础设施代码,以尽快将高质量的模型集成到产品中,目前已开始在搜索和Gemini应用中部署,今年将扩展到更多产品服务,特别是Gmail等 [5] 公司资源整合与技术演进路径 - 过去几年,公司整合了谷歌和DeepMind的所有资产,包括卓越的研究团队、TPU芯片以及十多年来的研究成果,这些构成了AI行业的许多基础 [2] - 公司认为已拥有所有关键要素和可接入AI的出色产品平台,并在过去一年中以高效的方式完成了整合 [3] - 公司拥有最深最广的研究团队,能够同时推进现有范式(如大语言模型)的改进和寻求新的重大突破,以探索通往通用人工智能(AGI)的路径 [7][9] 对通用人工智能(AGI)与行业发展的看法 - 要实现完全的通用人工智能(AGI),现有模型仍缺乏持续学习、真正的创造力以及长期规划和推理等能力 [8] - 关于AGI的实现路径存在两种观点:一种认为只需投入更多计算能力,另一种则认为需要重大的科学研究突破,公司CEO持中间观点,认为这是一个实证问题 [6][7] - 对于实现AGI,尚不确定是需要两三个新的重大突破,还是仅扩大现有技术规模就足够,公司正在双线推进 [9] 对AI行业泡沫与投资热度的评估 - 公司CEO认为AI行业泡沫问题并非简单的“是或否”,行业现已规模庞大且包含多个部分,其中某些领域可能处于泡沫之中 [10] - 一些热门初创公司在种子轮融资中筹集数十亿美元(billions of dollars)却尚无产品或技术,这看起来有些泡沫化且可能不可持续 [11] - 另一方面,AI领域也存在许多出色的应用案例和正在被使用的产品 [11] 对计算需求与效率革命的看法 - 公司CEO认为出现类似DeepSeek那样、宣称不需要大量处理能力的技术革命时刻“非常不可能”,并认为DeepSeek时刻在一定程度上被夸大 [12] - 存在出现意外突破以提高效率的可能性,例如通过自我改进机制减少计算需求,但目前训练、服务和探索新想法等许多环节仍需大量计算 [13] - 公司也在努力使领先模型尽可能高效,例如Gemini 3中的Flash模型作为主力模型非常重要,因其可广泛部署 [13] AI对就业市场的影响与未来机遇 - 目前尚无任何真实证据表明AI已对就业市场造成改变,现阶段仍为早期 [14] - 在入门级工作和实习岗位方面或许受到些许影响,但预计未来五年内,这些工具将带来非凡的新机会,足以弥补并超越可能的影响 [15] - 这些新机会将尤其惠及个体创作者,如艺术家、创作者和游戏设计师,他们几乎可以独自创建完整的应用程序 [15] - 建议当今的年轻毕业生熟练掌握新工具,沉浸其中并达到原生运用的程度,从而利用这些将改变工作场所的新技能实现职业跨越 [15]
OpenAI Accuses Elon Musk Of 'Cherry-Picking' Evidence In Lawsuit, Says He Backed For-Profit Shift And Quit After Failing To Secure Control
Yahoo Finance· 2026-01-20 21:01
OpenAI对马斯克诉讼的回应 - 公司核心观点是马斯克曲解了内部记录 其诉讼选择性使用文件以歪曲公司起源及向营利结构转变的事实[2] - 公司指出争议核心在于控制权而非使命 谈判破裂是因马斯克要求多数股权和完全运营控制权[6] - 公司表示因拒绝将AGI置于任何个人(包括马斯克)控制之下 导致其于2018年离开[7] 关于公司结构与马斯克早期立场 - 公司称早在2017年 马斯克就同意开发AGI需要一个营利实体与非营利组织并存的结构 即公司当前运营模式[3] - 内部通话记录和私人日志显示 马斯克积极讨论从纯非营利模式转变为可筹集数十亿美元资金同时保持慈善使命的结构[4] - 公司声明在2017年与马斯克达成共识 营利结构将是OpenAI的下一阶段 马斯克甚至在讨论后不久探索成立公益公司[5] 谈判破裂与马斯克的要求 - 谈判破裂是因马斯克要求多数所有权和完全运营控制权 内部记录描述其坚持治理权和继任计划[6] - 马斯克表示因其过去曾因缺乏控制权而受损 故需要完全控制 并提议将OpenAI并入特斯拉 但遭公司拒绝[6] - 公司CEO萨姆·阿尔特曼在X上支持公司说法 称马斯克“刻意挑选事情让格雷格(总裁布罗克曼)难堪”[7]
WISeKey and Partners Present the Human-AI-T Manifesto to at Davos 2026 during the WISeKey Event
Globenewswire· 2026-01-19 14:00
公司动态 - WISeKey International Holding Ltd 将于2026年1月21日在达沃斯WISeKey活动上,与其合作伙伴共同正式发布《人类-人工智能-信任宣言》[1] - 该宣言旨在为通用人工智能和量子计算时代,建立一个保障人类主权、信任和伦理治理的全球框架[1] - 公司是一家全球领先的网络安全、区块链和物联网公司,在瑞士证券交易所和纳斯达克上市[1] 业务与技术布局 - 公司通过多家运营子公司构建其技术组合,包括专注于半导体、公钥基础设施和后量子技术产品的SEALSQ Corp[8] - 子公司WISeKey SA专注于为物联网、区块链和AI提供安全认证和识别的根信任及公钥基础设施解决方案[8] - 子公司WISeSat AG专注于用于物联网应用的安全卫星通信空间技术[8] - 子公司WISe.ART Corp运营一个安全的NFT交易市场,专注于可信的区块链NFT[8] - 子公司SEALCOIN AG专注于利用去中心化物理互联网技术开发SEALCOIN平台[8] - 公司在各种物联网领域部署了超过16亿个微芯片,在保护万物互联网方面扮演重要角色[9] - 公司的半导体产生有价值的大数据,通过人工智能分析可实现预测性设备故障预防[9] - WISeKey根信任为物联网、区块链和人工智能应用提供安全认证和识别,确保人与物之间在线交易的完整性[9] 行业倡议与框架 - 《人类-人工智能-信任宣言》旨在确保技术智能在人类自身定义的道德、法律和文化范畴内发展[2] - 该框架的核心原则是:人类尊严、能动性和责任是不可协商的常量,不因技术进步而改变[2] - 随着人工智能系统达到前所未有的自主和推理水平,以及量子技术重新定义计算能力,建立以人为中心的治理已变得紧迫且不可避免[3] - 宣言强调,技术必须从属于人类价值观、人类判断和人类责任[3] - 该框架将信任定位为数字社会的基石,而不仅仅是事后考虑,它是社会接受度、经济韧性和地缘政治稳定的必要条件[5] - 可信的人工智能必须是可审计、可追溯、经过严格测试且安全的,尤其是在通用人工智能和量子技术极大提升规模、速度和影响力的背景下[5] - 宣言呼吁各国政府、国际机构、行业领袖、技术开发者、学术界、民间社会和标准机构采纳该框架,作为治理通用人工智能和量子技术的全球参考框架[6] 框架核心原则 - 人类保持对人工智能系统的控制,拥有有效的监督和决策权[7] - 人工智能应支持而非取代人类决策,尤其是在影响生命、权利和安全的高影响领域[7] - 人类价值观应被刻意注入人工智能算法,而非仅假设其从数据中自动产生[7] - 通过设计嵌入伤害预防机制,应对健康、安全、人权和环境福祉方面的风险[7] - 强制执行公平和非歧视,确保人工智能平等、包容地对待所有人[7] - 透明度、可解释性、可审计性和可追溯性是可信人工智能的强制性要求[7] - 隐私、公民权利和数据主权作为基本人权受到保护[7]
The Biggest Risk to Your Stock Portfolio Is Not Buying AI -- It's Buying the Wrong Kind of AI
The Motley Fool· 2026-01-19 00:33
行业趋势与投资策略 - 人工智能行业正从普涨转向分化 仅凭AI概念就能推动股价飙升的时代即将结束[1] - 预计人工智能行业价值将从2025年的2550亿美元增长至2031年的1.7万亿美元 但各细分领域增长前景差异显著[2] - 投资者需进行选择性投资 构建具备长期稳健回报潜力的投资组合[3] AI基础设施领域 - AI基础设施是当前最热门的领域之一 需要从传统数据中心向加速计算和新型“AI工厂”转型[4] - 新型AI优化数据中心规模庞大且复杂 需要高速可靠的组件 例如Credo Technology Group和Astera Labs提供的产品[5] - 英伟达的图形处理器为AI系统提供算力需求旺盛 其2026财年第三季度营收达570亿美元 同比增长62%[6] - 预计AI基础设施市场规模将从2024年的460亿美元增长至2032年的3560亿美元 为行业带来多年顺风[7] - 投资相关ETF是把握趋势的途径之一 例如First Trust NASDAQ Clean Edge Smart Grid Infrastructure Index Fund[8] AI软件领域 - 并非所有软件公司都能从AI中获得持续的业务增长 其技术必须优于竞争对手并提供经济护城河[9] - 不同AI软件公司表现分化 例如Palantir Technologies第三季度政府销售额同比增长52%至4.86亿美元 而BigBear.ai同期收入下降20%至3310万美元[10] - Palantir凭借其专有的本体论使AI软件能产生实际效果 展示了软件公司间的成败差异 尤其是在技术向通用人工智能演进的过程中[11] 未来AI技术:量子计算 - 实现通用人工智能需要更强的计算能力 量子计算可能是AI的下一个前沿领域[13] - 量子计算机利用量子力学特性 理论上能在几分钟内解决当今超级计算机需数百年才能完成的复杂计算 可能为AGI提供计算基础[14] - 量子比特非常脆弱 导致机器更容易出错 减少错误并有效识别和纠正是该领域所有公司面临的主要挑战[15] - IBM预计到2029年交付一台容错量子计算机 其整体销售表现良好 第三季度营收同比增长9%至163亿美元[15][17] - 英伟达通过其NVQLink平台在量子计算领域发挥作用 该平台充当量子计算机和经典超级计算机之间的桥梁[18]
DeepMind CEO算了4笔账:这轮AI竞赛,钱到底花在哪?
36氪· 2026-01-18 10:21
文章核心观点 - 当前AI行业竞争焦点已从追求模型性能转向实现商业化落地与成本效益,投资应聚焦于构建能理解世界、自主思考的AGI能力,提升模型部署效率,解决能源瓶颈,以及强化内部整合与产品闭环 [1][10][20][29] AGI技术发展路径与能力短板 - 当前大模型存在“参差不齐的智能”短板,表现不稳定且无法举一反三,缺乏持续学习和自主提出新想法的能力 [2] - 通用智能需具备自主提出问题、进行假设并验证的能力,而非仅被动回答问题 [3] - DeepMind研发重点正从大语言模型转向构建“世界模型”,旨在让AI理解世界运转规律并进行预测和模拟,相关项目包括Genie、AlphaFold和Veo [4][5][6] - 实现AGI不能仅靠扩大模型规模,而需通过组合语言模型、视频模型和世界模型等各司其职的模块来构建可靠智能 [7][8][9] 模型商业化与产品策略 - AI商业化成功关键在于模型需“用得起”,策略核心是平衡性能与成本,而非一味追求更强 [10][11] - DeepMind采用“蒸馏”技术,用最强模型训练出更轻、更快、更省资源的“Flash”版本,以实现大规模部署,例如Gemini产品线中的Pro版与Flash版 [11][12][13][14] - 未来重要方向是将AI深度集成至手机、眼镜等终端设备,实现无处不在的智能,DeepMind已与三星、Warby Parker等品牌展开设备端AI合作 [15][16][17] - 商业化设计最高优先级是效率,追求推理更快、能力更平衡、能耗更低,核心是算总成本以实现成本可控和稳定落地 [18][19] 能源瓶颈与AI的解决方案 - 能源是制约AGI发展的核心瓶颈,智能越强耗电越大,能源供应决定了AGI能否从实验室走向现实 [20][21][22][23] - DeepMind采取双轨策略利用AI解决能源问题:开源(生产新能源)与节流(提高能效) [24][25][26][27] - 具体项目包括:用AI控制核聚变反应堆、寻找室温超导材料、重新设计太阳能材料以提高转化率,以及优化电网和数据中心运行效率 [35] - 行业竞争关键将转向能源效率,谁能更省电、把每度电用得更值,谁就能部署更大规模并存活更久 [28][36] 行业竞争格局与公司战略 - Google通过内部整合形成竞争优势,过去两三年将Google Research、Google Brain和DeepMind整合为统一的Google DeepMind,并重建了AI基础设施 [32][33][34] - 整合后所有AI技术由DeepMind统一开发,并可直接、快速扩散至谷歌全线产品,实现了研发与部署的高效协同 [35][37][38] - DeepMind建立了“骨干网”以实现快速部署,例如Gemini 3模型训练完成后次日即上线搜索、Gmail等产品,这得益于其从芯片到模型的完整技术栈和谷歌庞大的现有产品平台 [39][40] - 相较于OpenAI需逐个谈合作,谷歌凭借其产品矩阵能一步到位完成大规模部署,未来12个月AI能力将扩散至更多谷歌产品中 [41][42] - 中国AI实验室在训练效率、模型能力和部署速度上追赶迅速,可能仅落后几个月,但下一阶段关键是从技术复现转向原创突破 [43][44][45][46] - 行业长跑中,生存比速度更重要,胜出关键不在于发布数量或融资额,而在于能否让产品真正运行起来并构建整合优势与产品闭环 [47][48]
奥特曼秘密持股OpenAI!法庭文件曝光Brockman日记:2017年就想转盈利踢走马斯克了
量子位· 2026-01-17 10:53
案件核心进展与双方核心主张 - 马斯克诉OpenAI案有超过100份证词文件被法庭解封,案件预计于2026年4月27日开始审判,持续约4周 [1][2][32] - 法官认为存在大量有争议的证据,适合由陪审团而非法院直接裁决 [30][31] 马斯克方指控要点 - 指控OpenAI联合创始人兼总裁Greg Brockman在2017年的私人日记中承认,其目标是摆脱马斯克并追求经济利益,日记中提到“这是我们摆脱埃隆的唯一机会”以及“如果能赚到数十亿当然很好,也许我们应该转型做营利性公司” [15][16][18] - 指控Sam Altman隐瞒其通过YC基金间接持有OpenAI股份,并同时担任非营利组织的独立董事和首席执行官,与其在2024年国会听证会上声称不持有任何股份的公开表态相悖 [4][10][12][13][14] - 指控OpenAI领导层在2017年11月仍向马斯克保证“团队仍致力于非营利结构”,但私下却在策划转型,涉嫌欺诈 [20] - 马斯克在2015年至2018年间向OpenAI捐赠了约4400万美元 [20] OpenAI方反驳要点 - OpenAI在官网开设专门页面反驳马斯克,称其断章取义 [3][23] - OpenAI声称马斯克在2017年已同意盈利性结构是发展方向,双方分歧在于控制权归属 [26] - OpenAI透露马斯克曾要求获得50%到60%的多数股权、初始董事会控制权并亲自出任CEO,被拒后甚至谈到要“让他的孩子控制AGI” [27][28] - OpenAI认为马斯克不断提起诉讼是为了拖延OpenAI的研发进度,为其自己的xAI公司争取时间 [29]
2025 AI 年度复盘:读完200篇论文,看DeepMind、Meta、DeepSeek ,中美巨头都在描述哪种AGI叙事
36氪· 2026-01-12 16:44
行业技术演进核心观点 - 2025年人工智能技术演进的核心特征是“暴力美学”时代的终结,行业从单纯堆砌参数转向基础研究,重点突破流体推理、长期记忆、空间智能和元学习等领域,以解决通往AGI的能力不平衡问题 [2] 技术能力进展量化评估 - 根据CHC认知理论框架评估,2025年AI在多项关键能力上取得显著进步:即时推理能力从2023-2024年的0%提升至2025年晚期的8%,长期记忆存储从0%提升至3%,视觉处理从0%提升至5%,工作记忆从2%提升至6%,数学能力在2025中期达到10% [3] - 部分能力在2025年达到平台期:一般知识在2025中期达到9%后持平,读写能力在2025中期达到10%后持平,数学能力在2025中期达到10%后持平,听觉处理在2025中期达到6%后持平 [3] - 处理速度在2025晚期达到6%,较2025中期的3%有所提升 [3] 流体推理与Test-Time Compute革命 - 2025年最重要的范式革新是Test-Time Compute的诞生,其核心理念是智能不仅是参数的函数也是时间的函数,代表模型如OpenAI o1和DeepSeek R1通过在推理阶段投入更多计算资源进行“慢思考”,实现了推理能力从0到8的质变 [6] - 强化学习是提升推理能力的关键手段,研究证实RL的作用在于锐化基座模型中已有的原子推理步骤分布,并通过“链接”阶段组合新推理方法以解决未知难题 [7] - 强化学习工程在2025年取得明显发展,评分系统革新体现为基于可验证奖励的强化学习和稀疏奖励指标的全面崛起,尤其在数学、代码等有明确对错的领域效果显著 [11] - 参数更新算法因DeepSeek R1的成功而震荡,GPRO算法因节省50%显存且效果不差成为主流,国内公司在此基础上发展出多种变体,如Qwen的GSPO引入分值加权,Minimax的CISPO采用重要性采样 [15] - Meta的ScaleRL研究证明RL性能增长符合Sigmoid曲线,存在天花板,无法无限提升智力上限,但当前离天花板尚远,最佳工程实践包括使用长思维链和如2048 prompts的大Batch Size [16][17] 记忆能力与架构突破 - 记忆能力是AGI得分中的短板,2025年后半年最重要的模型变革是记忆能力提升,研究围绕三种方式展开:上下文作为记忆、RAG处理过的上下文作为记忆、将上下文融合到参数内化记忆 [18][19] - Google Research发布的Titans架构及Nested Learning是2025年记忆领域的最大突破,从根本上挑战了Transformer的无状态假设,Titans是一个能在推理时实时更新参数的深度神经长期记忆模块,通过“惊奇度”决定信息存储 [19][21][22] - Nested Learning将模型架构分成低、中、高三种更新频率的神经网络层,使整个模型参数可随时调整,低频层更新慢保证知识延续性,高频层处理快速反馈,其成本比SFT和RL达成同等效果更低 [25][27] - RAG在2025年发生质变,从静态资料库演变为具备反思与进化能力的系统,代表如DeepMind的ReMem引入了Action-Think-Memory Refine全链路,对记忆进行修剪、重组和定期清理,实现了经验复用 [28][30] - 针对灾难性遗忘问题,2025年提出了多种参数更新解决方案,Meta的稀疏记忆微调通过在Transformer中加入空白内存层进行稀疏更新,在TriviaQA任务中仅导致11%的旧知识遗忘,远优于全量微调的89% [31] - Thinking Machines提出的在策略蒸馏结合了RL的采样方式和SFT的监督信号,让学生模型在自己实时生成的轨迹中学习,提供密集即时反馈,创造了低成本且不会导致灾难性遗忘的更新方式 [33] 空间智能与世界模型发展 - 视觉处理能力在2025年得到有效提升,主要围绕三个主流派系发展:自监督生成模型、基于3D CV生成的符号主义World Labs派、以及Meta的预测式V-JEPA派 [35] - 自监督生成模型方面,Google DeepMind发布的Genie 3能以24fps帧率和720p分辨率实时渲染可交互的3D环境,并维持数分钟的场景一致性,展现了从海量视频数据中自发学习物理规律的能力 [36] - 研究发现扩散Transformer也遵循Scaling Law,但对批量大小和学习率极为敏感,Google通过打通视频生成的Scaling Law成功训练了Veo 3 [37][38] - Apple研究发现,原生多模态的晚期融合架构相比早期融合架构可能存在上限劣势,但参数利用率更高,同等规模下上限更高 [40] - 快手提出的SVG模型通过直接用图像理解模型代替VAE,统一了语义空间,极大地提升了训练效率和生成速度,在多项核心指标上击败了DiT和SDXL [42] - 李飞飞领导的World Labs派推出了商业产品Marble平台,这是一个“大型世界模型”,能从多模态输入生成可探索的3D空间表示,依赖3D高斯泼溅和神经辐射场技术,更稳定可控 [44][46][47] - Meta的V-JEPA 2通过预测被遮挡视频内容的训练机制,迫使模型学习物理规律,在使用了100万+小时视频训练集后,涌现出了“推演”和反事实预测的能力,但处理跨度仅64帧(约10秒),分辨率384x384 [48][50] 元学习与学习方法演进 - 2025年对学习的核心探讨围绕元学习展开,即模型应具备“学习如何学习”的能力,以应对未知任务和实现低成本快速适应 [51][52] - 关于Transformer是否具备隐式元学习能力存在争论,有研究证明其注意力机制在数学形式上与梯度下降更新步骤类似,但也有研究认为上下文学习只是激活了预训练知识而非真正学习 [53] - Test-Time Compute为隐式元学习提供了新可能,研究尝试引导模型在推理过程中更有效地探索思维路径和分配算力,例如通过累积遗憾最小化策略来优化 [56][58] - DeepMind的DiscoRL通过内外双循环让AI自主发现学习算法,其自主发现的算法Disco57在雅达利基准上击败了人类设计的顶级算法,并展现了强大的泛化能力 [59][61] - Meta的“中训练”方法让Agent在专家演示的每一步尝试备选动作并反思,建立起因果模型,能显著提升在复杂环境中的成功率(平均提升9.6%)并增强泛化能力 [61][63] - 神经科学研究为AI架构提供启示,研究表明大脑通过“动态路由”机制将结构化的神经子空间重新连线以执行新任务,这推动了2025年对模型进行分区(如记忆分区、快慢反应组别)的尝试 [64][66] 基础架构与训练范式演进 - 为对抗Scaling Law瓶颈,行业通过稀疏性、合成数据与强化学习结合实现突破,例如OpenAI在GPT-5.2中采用MoE、合成数据与RL加强三方结合 [68] - 合成数据方面,随着推理能力进步,模型可自主生成长思维链文本,DeepSeek R1的论文表明,利用其生成的长思维链对小模型进行微调,效果远超人类专家编写的CoT数据 [69] - 数据质量重于数量,研究证明筛选前10%推理路径最长、最复杂的样本进行训练,其效果可匹配甚至超越全量数据集 [70] - 针对大规模使用合成数据可能导致“模型崩溃”的问题,研究提出了利用自我验证机制过滤数据的方法,证明只要校准误差在一定界限内,仅凭自我验证就可在完全合成数据体制下持续训练而不崩溃 [72] - 模型蒸馏在2025年取得两大进步:针对MoE架构的特化蒸馏方案《Every Expert Matters》,让学生模型学习教师不同专家的组合输出;以及思维融合蒸馏,通过共识去噪原理将多个教师的稳健推理逻辑迁移给学生模型 [75][77] - 注意力机制方面,2025年是MLA及其变体普及的时代,同时线性注意力复归,Kimi Linear采用3:1混合架构,在1M超长上下文任务中达到94.8的高分,性能首次全面超越全注意力,且吞吐量可达全注意力的6.3倍 [80][81] - 行业出现向连续空间演进的趋势,代表如大型概念模型和腾讯的CALM,试图将多个Token压缩为连续概念向量进行预测,以增加语义带宽和提升效率 [83][85] 2026年潜在技术方向展望 - 记忆能力的工程化实践将成为重点,理论方向已明确,预计研究成果可能在一年内工程成熟并被采用,完成范式转换,更具学习性的记忆系统将被产品化 [87] - 标准架构可能发生变革,趋势是向分区、分层、增加更多功能层的混合架构演进,例如加入Titans记忆层或进行层级分区,以更符合人脑运作模式 [88][89] - 自进化AI探索将在2026年产生更多可能性,现有尝试包括让模型自问自答进行强化学习,以及像Alpha Evolve那样让LLM优化算法代码,但尚属早期阶段 [90][91][93]