DeepMind内部视角揭秘,Scaling Law没死,算力即一切
英伟达英伟达(US:NVDA) 36氪·2025-12-31 20:44

文章核心观点 - 文章核心观点认为,Scaling Law(规模定律)不仅没有失效,而且正在从单纯的参数堆叠向更全面的维度演化,是驱动人工智能(AI)向通用人工智能(AGI)发展的核心动力,当前AGI的发展才刚刚开始[7][9][12][46] 行业领袖观点与分歧 - OpenAI的Sam Altman预言,公司已经知道如何构建AGI,预计2026年将出现能够产生原创见解的系统,并认为智能成本将随着电力自动化生产趋近于零[1] - NVIDIA的黄仁勋指出,AI发展的瓶颈已从想象力转向电力,未来规模定律的焦点将是实现推理效率10万倍的飞跃[3] - Meta前首席科学家Yann LeCun则认为,大型语言模型(LLM)是通往AGI的死胡同,因其缺乏世界模型[5] Scaling Law的持续有效性与演化 - 历史数据显示,过去十五年用于训练AI模型的算力以每年四到五倍的速度增长,这种指数级增长在技术史上罕见[12] - 实证研究表明,AI性能与算力投入之间存在明确的幂律关系,性能提升与算力的0.35次方成正比,即算力投入增加10倍可带来约3倍的性能增益,增加1000倍可带来10倍的性能提升[13][15] - 规模定律在2025年已从单一的“预训练Scaling”演化为四个维度的全面扩展,包括预训练、后训练(强化学习对齐)、推理时(延长思考)和上下文(超长记忆)Scaling[17][18][19][20] - 算力的增长不仅带来定量性能提升,更能诱发不可预测的定性跃迁和“涌现能力”,如逻辑推理和复杂指令遵循[16] 算力的核心地位与“苦涩的教训” - 在DeepMind的具身智能实验中发现,将算力投入增加一千倍后,原本需要复杂算法优化的问题被直接解决,这验证了Richard Sutton“苦涩的教训”:通用算力方法终将胜过人类的特定技巧[9][23][24] - 这种认知转变使行业焦点从“问题能否解决”转向“解决问题需要多少算力”,并驱动了对数据中心远超阿波罗计划规模的重金投资[24] 硬件基础设施的发展与挑战 - AI发展已进入“重工业”阶段,其核心是“AI工厂”,即土地、能源和定制芯片的终极整合[27] - NVIDIA的GB200 NVL72系统将72颗GPU互联,使万亿参数模型的推理速度比H100提升30倍[28] - Blackwell Ultra芯片将单芯片显存推至288GB,使3000亿参数以上的模型无需显存卸载即可完整驻留,对长上下文和高并发推理至关重要[30] - 硬件发展面临物理极限挑战,单芯片功耗逼近1000W,迫使行业全面转向液冷散热方案[31] - 为维持规模定律,谷歌基础设施高管指出,必须每六个月将算力翻倍,并在未来4-5年内实现1000倍的增长[33] - 2025年上半年,AI数据中心投资占据了美国GDP增长的90%以上[34] 具身智能与Agent的进展 - DeepMind的SIMA 2项目在2025年实现了从“理解”到“行动”的跨越,它是一个通过观察像素和操作键盘鼠标在3D虚拟世界中行动的通用具身智能体[35][37] - SIMA 2具备强泛化能力,其技能可迁移到不同数字环境,并能通过与基础模型结合实现自主生成任务、自我设定奖励的“自我进化”[37] 智能能力的量化加速与AGI前景 - 根据METR时间跨度图评估,AI稳定完成人类任务的时间从两年前的9分钟跃升至2025年底的4小时以上[41] - 按当前扩展趋势预测,到2028年,AI有望独立完成人类专家需要数周才能完成的复杂任务[41] - 尽管已出现能在国际数学奥林匹克竞赛夺金的模型和自主3D世界Agent,但行业认为AGI发展仍处早期,受困于电力瓶颈、数据采集效率和推理成本等问题[42] - DeepMind已成立“后AGI”团队,旨在前瞻性地管理自主进化、具有“不可解释性”的智能体,并思考智能成本趋近于零后的人类价值重构[43]