Workflow
极限协同设计
icon
搜索文档
黄仁勋深度访谈:“Token经济”爆发,AI计算占GDP比重将翻百倍,英伟达10万亿是必然
华尔街见闻· 2026-03-24 11:22
AI计算范式的根本性转变 - 计算的本质从“检索系统”转变为“生成系统”,计算机的角色从“仓库”变为直接创造收入的“工厂” [3] - AI代工厂正在制造名为“Token”的商品,这种商品已被细分和定价,例如有人愿意为每一百万个Token支付1000美元 [3] - 基于“Token工厂”模式,计算设备完成了从成本中心向利润中心的跨越 [3] 英伟达的增长前景与市场展望 - 公司CEO认为英伟达的增长极大概率会发生,是必然的,未来实现3万亿美元营收的体量并非不可能 [4] - 如果生产力大幅提升,全球GDP将加速增长,未来用于计算的GDP占比将是过去的100倍 [4] - 公司能否迈向10万亿美元市值是一个被讨论的数字,但增长是核心焦点 [4] AI扩展的瓶颈与电力解决方案 - 电力是AI扩张的一个担忧,但不是唯一担忧,解决方案包括提升能效和获取更多电力 [6] - 能效的关键指标是“每瓦每秒token数”,通过“极致协同设计”提升能效,使得token成本每年下降一个数量级 [6] - 电网99%的时间没有达到峰值负荷,大多数时候可能只在峰值的60%左右运行,存在闲置电力 [6] - 建议构建能够“优雅降级”的数据中心,当电网要求降低电力供应时,数据中心可以转移关键负载或降低计算速率 [6] 供应链管理与内存战略 - 面对ASML光刻机、台积电CoWoS先进封装等环节的产能担忧,公司并不焦虑,与供应商保持紧密沟通 [7] - 系统工程深刻改变了基础设施制造模式,例如一个Vera Rubin机架包含130万到150万个组件,背后汇聚了200家供应商 [7] - 公司将数据中心的“超算组装”前置到了供应链的“超算制造”环节,机架以整机(重两三吨)形式发货 [7] - 大约三年前,公司成功说服了多家内存大厂的CEO,让他们相信HBM(高带宽内存)将成为未来数据中心的主流,并推动产业链投资扩产 [7] - 公司还推动供应商将原本专属于手机的低功耗内存(LPDDR)改造并引入超算领域 [8] AI缩放定律与算力需求演进 - AI扩展被拆分为四条规律:预训练、后训练、测试时扩展、代理式扩展 [9] - 训练不再受数据限制,数据将受限于算力,很多训练数据会是合成数据 [9] - 推理就是思考,是算力密集型的,测试时扩展包含推理、规划、搜索等,会推动推理算力需求上升 [10] 公司的核心护城河与生态 - 公司最深的护城河是CUDA庞大的装机量与信任生态,这是由43000名员工共同推动建立的 [11] - 护城河建立在数百万开发者对公司持续优化底层的信任之上,并辅以横向整合进入全球各类云厂商、OEM和边缘设备的广泛生态 [11] 对工程领导力与行业创新的评价 - 高度评价马斯克旗下xAI仅用4个月建成拥有10万块GPU的Colossus超算中心,将其成功归结为第一性原理思维与极简主义 [11] - 马斯克被评价为能够质疑一切,直到把一切缩减到不能再减的最低必要限度,并且亲自出现在行动第一线 [11] - 公司的管理哲学强调“极限协同设计”,管理团队庞大,CEO有约60名直接下属,且几乎所有都是工程专家 [21][23] - 公司采用集体讨论而非一对一会议的模式来解决复杂的系统设计问题,确保所有相关专家都能参与并贡献 [25] - 领导力被描述为持续塑造员工和合作伙伴的信念系统,为重大决策铺平道路,使得宣布时大家已基本接受 [46][47][48] AI对就业与编程的影响 - 在招聘中,会优先雇佣“AI专家”,这一准则涵盖会计师、律师、销售人员、供应链经理、药剂师、电工和木匠等所有职业 [12] - 如果一个人的工作本质是一系列“任务”,则可能被AI颠覆;若工作有更深层的“目标”,则可以利用AI自动化常规琐事,成为“创新者” [12] - 公司软件工程师的数量将会增长而不是减少,如果编程的定义是“描述规范让计算机去构建”,那么能做到这一点的人数可能从3000万变成10亿 [13] - 对于AGI(通用人工智能),如果将其定义为一个能够自主开发应用并实现盈利的系统,那么AGI已经实现 [13] 公司发展历程与战略决策 - 公司从一家加速器公司起步,通过发明可编程像素着色器、引入单精度浮点数(FP32)、开发Cg和CUDA,逐步转型为计算公司 [29][30] - 将CUDA引入GeForce是一个关乎生死存亡的战略决策,当时极大地增加了GPU成本,完全吞噬了公司所有的毛利润,市值一度跌至约15亿美元 [31][37] - 该决策的核心理由是计算平台的核心是开发者,而开发者被装机量吸引,GeForce每年卖出数百万GPU,是培养装机量的起点 [33][35][36] - 公司坚持在GeForce上搭载CUDA,并认为英伟达是GeForce建立起来的殿堂,因为GeForce把CUDA带给了所有研究人员和科学家 [38][39] 极限协同设计与系统架构 - 极限协同设计是对从架构、芯片、系统、系统软件到算法和应用程序的整个软件栈进行优化 [22] - 协同设计之所以必要,是因为问题规模已无法装入单台计算机,需要分布式处理,而所有环节(计算、网络、CPU、GPU、交换机)都可能成为瓶颈 [18][20] - 公司架构设计反映其存在的环境,目标是成为产出成果的机器,直接决定了组织架构的设置 [22] - 系统架构快速演进以跟上算法发展,例如为混合专家模型(MoE)推出NVLink 72, Grace Blackwell机架专注于处理大语言模型,而新一代Vera Rubin机架则为了运行智能体 [63][64] 对全球创新生态的观察 - 全球大约50%的AI研究人员是华人,且大多仍在中国,中国的科技产业在移动云时代以软件贡献崛起,内部存在极其激烈的竞争 [116][117] - 中国的社会文化(家庭第一、朋友第二、公司第三)和开源交流习惯,加上激烈的竞争,使其成为当今世界上创新最快的国家之一 [117][118] - 公司开源AI模型(如Nemotron 3)的愿景包括:理解AI模型演变以进行协同设计、让AI渗透到每一个行业和国家、认识到AI不仅仅是语言而涵盖多种模态 [121][122]
黄仁勋:1000 亿美元、10GW,从卖卡到“卖 AI 产能”
36氪· 2025-09-28 09:48
英伟达与OpenAI的合作及商业模式转型 - 英伟达宣布与OpenAI达成合作,支持其建设10GW AI工厂(Stargate项目),这预计将为英伟达带来最高4000亿美元收入,是其历史上规模最大的AI基础设施项目[1] - 合作投资额预计高达1000亿美元,如果全线使用英伟达设备,回报将接近4000亿美元[5] - 英伟达的角色正从芯片供应商转变为全球AI电力的调度平台,直接参与芯片层、软件层、数据中心层,帮助客户从0到1建立完整的AI发电厂[3][7] AI工厂新范式 - AI不再只是模型,而是需要持续供能的"智能工厂",每个国家、每家企业都需要建设自己的AI发电厂[2] - 竞争的焦点从训练模型的竞赛转变为拥有自己的AI发电厂,OpenAI正在从租用算力(如使用Azure)转向自建算力[6][9] - 英伟达已同时在推进多个AI电厂项目,包括微软Azure、OCI(Oracle、Softbank联合建设)、CoreWeave自建云计算平台,以及与OpenAI的第四个全面合作[6] AI推理的范式转变 - AI推理从一次性计算转向链式推理,过程越来越复杂,涉及几十步的数据调取和算法调用[11][13] - 推理增长不是100倍或1000倍,而是100亿倍,AI需要持续在线而非临时调用,从预训练、后训练到推理,越往后算得越久、过程越复杂[14][15] - 用户数增长是指数级的,每个用户的使用频率和推理时间也在指数增长,三重增长叠加使需求规模跃升至全新量级[19] 英伟达的产能供给模式 - 全球计算短缺源于客户预测全部低估实际需求,英伟达从追着需求跑转变为提前布局整个供应链[20][21] - 英伟达重新定义业务,从卖芯片转变为供产能,需提前一年甚至两年下晶圆单、存储单,准备所有部件以启动数千亿美元规模的AI工厂建设[22][23] - 这种模式类似能源行业,客户要的不是芯片而是稳定供电,英伟达成为AI时代的"电力公司",卖的是让AI能动起来的算力产能[25] AI工厂的竞争核心指标 - 竞争焦点从硬件跑分转向组合效率,即把芯片、内存、网络、电力、软件全部组合好,让每一瓦电、每一块卡发挥最大价值[26][27] - 英伟达Blackwell芯片比上一代快30倍,靠的是协同设计(Extreme Co-Design),而非单纯晶体管性能提升[27][28] - 关键指标是单位功耗下的AI计算产出(智能密度),客户在功率上限(如2GW)下需选择每瓦智能产出最高的方案,而非单纯比较芯片参数[30][31][33] 全球AI主权竞赛 - 每个国家最终都会建设自己的AI工厂,AI产能成为新的主权指标,欧洲、中东、以色列、沙特、阿联酋等都在加速建设国家级AI基础设施[35][36][37] - 没有自己的AI工厂意味着无法支撑本国AI模型训练和部署,企业将依赖外部算力服务,智能生成能力受制于人[38][41] - 中国是全球最大市场之一,拥有华为等工程能力强、执行速度快、具备自给自足产业链的企业,全球竞赛的关键是谁先完成AI工厂建设并通电投产[40][42][43] 行业未来发展方向 - 下一场AI战争不比模型参数,而比智能密度,即AI工厂能产出多少智能,核心是让每度电产生更多有效智能[44][45] - 软件范式从写一次、运行一次转变为实时生成、持续运行,模型需要更多时间思考并保持在线以应对新任务[16][17][18] - 大模型竞赛从发布会走向工业建设主战场,英伟达的角色彻底变为卖AI产能的"智能电厂"合作伙伴[45]