加速计算
搜索文档
黄仁勋最新对话直面争议,并称中国科技仅慢“纳秒”而已
聪明投资者· 2025-09-29 15:04
AI推理革命与市场前景 - AI推理业务已占公司收入超过40%,其增长潜力被量化为"十亿倍"级别,标志着全新工业革命的开始[8] - 当前AI演进由预训练、后训练和推理三条规模定律共同驱动,其中推理过程强调模型需通过"思考"提升答案质量,而非一次性输出[9][10][11] - AI代理系统已发展为多模型、多模态的复杂系统,能够同时调用工具并处理多样化任务,增强了推理增长的确定性[12] 与OpenAI的合作逻辑 - 公司对OpenAI的股权投资被视为押注未来万亿美元市值巨头的机会,与采购行为无直接关联[5][53] - 合作涵盖芯片、软件、系统及"AI工厂"建设,支持OpenAI向自营超大规模公司转型[16][17] - OpenAI面临用户数增长与单次计算量需求的双重指数级增长,推动其基础设施投入[18][19] 加速计算与AI基础设施市场 - 全球数万亿美元的计算基础设施正从通用计算转向加速计算,这一迁移过程将创造数千亿美元的市场机会[23][24][26] - AI增强人类智能可能影响全球约50万亿美元的经济活动,未来AI基础设施年资本支出有望达到5万亿美元[29][32] - 超大规模公司如阿里巴巴计划将数据中心电力容量提升10倍,公司收入与电力消耗呈正相关关系[34] 产能与供应链管理 - 在通用计算全面转向加速计算完成前,出现供过于求的可能性极低,此过程仍需数年[5][43] - 供应链已覆盖晶圆厂、封装及HBM内存等环节,具备需求翻倍即产能翻倍的响应能力[44] - 客户需求预测持续被低估,公司长期处于追赶状态,且预测值逐年显著上升[45][46] 公司竞争壁垒与战略 - 公司通过极致协同设计同时优化模型、算法、系统与芯片,实现Hopper到Blackwell芯片30倍的性能提升[64][68] - 竞争壁垒建立在协同设计的极致性与规模的极致性基础上,客户需部署数十万块GPU以形成规模效应[71][72] - 公司定位为AI基础设施合作伙伴,而非单纯芯片供应商,支持灵活采购模式[76][77] 技术路线与行业生态 - 年度产品发布节奏为应对token生成速度的指数级增长,确保性能提升与成本控制[59][62] - 公司开源大量软件并推动开放生态,如NVLink Fusion技术整合英特尔等合作伙伴,扩大AI工厂影响力[93] - 针对ASIC竞争,认为其适用于有限市场,而AI核心计算需适应快速变化的工作负载,依赖可重构系统[90][92] 全球市场与地缘视角 - 中国科技产业被评价为充满活力且现代化程度高,技术差距仅以"纳秒"衡量,强调直面竞争的必要性[98] - 公司主张开放市场竞争符合中美双方利益,支持技术产业全球化布局[101][103] - AI与机器人技术融合可能在五年内实现,推动个性化AI助手普及,并延伸至生命科学数字孪生应用[105][108] 行业发展建议 - 面对指数级加速的AI技术变革,企业应尽早融入生态而非预测终点,以动态适应变化[109][110]
黄仁勋最新访谈:英伟达投资OpenAI不是签署大额订单的前提
创业邦· 2025-09-29 12:13
文章核心观点 - 英伟达CEO黄仁勋认为,AI正引发一场工业革命,公司定位为AI基础设施提供商,其护城河因极致的软硬件协同设计和规模优势而比三年前更宽 [8][9][44] - 公司投资OpenAI是基于对其成为下一家数万亿美元级别超大规模公司的判断,是一项独立的财务投资,而非合作前提 [12][13][32] - 公司通过年度发布节奏和全栈技术能力,持续提升单位能耗性能,以应对AI算力需求的指数级增长,并认为在通用计算全面转向加速计算之前,出现供给过剩的概率极低 [35][37][27] 黄仁勋对AI行业趋势的解读 - AI目前存在三条扩展定律:预训练、后训练和推理,其中推理因“先思考再作答”的模式,算力需求将提升十亿倍 [10][11] - AI行业正经历两个指数曲线叠加:客户数量指数级增长,以及每个使用场景的算力需求指数级增长 [13] - 全球GDP的50-65%(约50万亿美元)与人类智能相关,未来将被AI增强,预计需要10万亿美元的AI基础设施投入,对应年资本开支约5万亿美元 [21][22] - 从通用计算转向加速计算是必然趋势,仅将现有超大规模计算负载从CPU迁移到GPU,就是一个数千亿美元的市场 [20][25] 英伟达的投资逻辑与合作伙伴关系 - 对OpenAI的投资是看好其成为数万亿美元级超大规模公司的潜力,是一项机会性的股权投资,并非绑定任何合作条件 [12][13][32] - 公司与OpenAI的合作是多层次的,包括支持微软Azure、Oracle Cloud Infrastructure(OCI)以及CoreWeave的建设,新合作是帮助OpenAI首次自建AI基础设施 [13] - 公司与英特尔等竞争对手的合作是开放策略的一部分,旨在融合不同生态,为客户提供更灵活的选择,从而扩大市场机会 [50][51] 英伟达的技术优势与护城河 - 公司的护城河在于极致的协同设计,同时优化模型、算法、系统与芯片,从而实现系统级性能的跨越式提升,例如Blackwell相比Hopper有30倍系统级提升 [38][39][44] - 公司已将芯片发布节奏改为年度更新,并提前规划数千亿美元的供应链产能,这种规模与节奏是竞争对手难以企及的 [35][42][27] - 即使竞争对手的ASIC芯片免费,由于电力、土地等设施成本是主要约束,客户仍会选择英伟达单位能耗性能更优的系统,因为其能带来更高的营收产出 [52][53][56] - 公司提供的不仅是硬件,而是包含CPU、GPU、网络、交换及丰富软件的全栈AI基础设施解决方案 [41][46][58] 对市场质疑的回应 - 针对“循环营收”的质疑,黄仁勋强调投资与营收是两回事,投资决策基于对公司前景的判断,而营收由OpenAI自身下游需求支撑 [31][32][33] - 针对“供给过剩”的担忧,黄仁勋认为在通用计算完全转向加速计算之前,出现过剩的概率极低,且公司供应链能按需响应,目前处于“紧急追赶”模式 [16][18][27] - 公司认为华尔街分析师的增长预测(如2027-2030年8%的年化增速)过于保守,实际机会远大于市场共识 [16][25][58] 未来展望与战略布局 - 公司正在推进“加速数据处理”等新计划,旨在将目前由CPU主导的庞大结构化数据处理市场迁移到AI计算 [28][29] - “主权AI”成为重要趋势,每个国家都将AI视为经济与国家安全的基础设施,需要建设自身的主权AI能力,这为公司开辟了新的市场 [61][62][63] - 公司创始人Brad Gerstner认为,英伟达有望成为史上第一家达到十万亿美元市值的公司 [6][58]
黄仁勋最新访谈:AI泡沫?不存在的
虎嗅APP· 2025-09-28 08:34
文章核心观点 - 英伟达对OpenAI的投资是独立于商业合作的财务机会,基于对其成为下一家数万亿美元级别超大规模公司的信念 [13][14] - 公司认为其护城河比三年前更宽,核心优势在于极致的软硬件协同设计能力、规模效应和全栈AI基础设施提供能力 [5][44][48] - AI推理需求正经历双重指数增长,推动计算基础设施从通用计算向加速计算全面迁移,市场规模将扩大数倍 [10][20][23] - 公司通过年度发布节奏持续提升性能,以应对算力需求指数增长,并认为在完成全面迁移前出现供给过剩的概率极低 [40][30][31] - 主权AI成为全球趋势,每个国家都需要建设AI基础设施,这为公司开辟了新市场 [66][67][68] 投资OpenAI的战略逻辑 - 投资OpenAI是基于其成为下一家数万亿美元级别hyperscale公司的潜力,而非合作前提 [13][14] - 公司与OpenAI的合作涵盖多个项目:Microsoft Azure建设、OCI(Oracle Cloud Infrastructure)5-7吉瓦容量建设、CoreWeave合作,新合作是帮助OpenAI首次自建AI基础设施 [14] - OpenAI面临两个指数曲线:客户数量指数增长和每个场景算力需求指数增长,新合作是对现有合作的增量支撑 [14] AI需求规模与市场预期 - 当前AI推理收入占比超过40%,且因链式推理技术面临爆发 [7] - 公司提出三条Scaling Law:预训练、后训练(强化学习)和思考型推理,替代单一Scaling Law [10][11] - 华尔街共识预测2027-2030年公司年化增速8%,但建设者(如公司CEO、Sam Altman等)认为AI收入将从2026年1000亿美元增长至2030年1万亿美元 [17][19][28] - 全球GDP约50万亿美元(占比55%-65%)将被AI增强,假设10万亿美元增强价值需AI基础设施支持,对应年资本开支约5万亿美元 [21][22] - 阿里巴巴计划到2030年代将数据中心能耗提升10倍,公司收入与电力消耗正相关 [23] 技术优势与竞争壁垒 - 公司护城河比三年前更宽,优势包括极致协同设计(同时优化模型、算法、系统、芯片)、规模效应(供应链锁定、客户大额订单信心)、全栈能力 [5][44][48] - 从Kepler到Hopper十年性能提升10万倍,Hopper到Blackwell一年系统级提升30倍,未来Rubin、Feynman架构将继续倍数级提升 [41][43] - 公司业务本质是AI基础设施系统(AI工厂),而非单一芯片;竞争对手ASIC即使免费提供,因土地、电力等设施成本占主导(1吉瓦数据中心设施成本约153亿美元),且公司单位能耗性能领先,总拥有成本仍更低 [48][57][58] - CUDA高度可编程性适配快速演进的AI工作负载(如Transformer变体),而ASIC面临市场变大后向COT(客户自有工具)模式转变的挑战 [50][52] 供应链与产能管理 - 公司按需响应产能,供应链已准备好翻倍能力;客户预测持续偏低,导致公司处于紧急追赶模式 [31][32] - 年度发布节奏需要提前规划数千亿美元级别晶圆启动、DRAM采购规模,供应链深度协同 [45] 行业生态与合作策略 - 公司推出NVLink Fusion、Dynamo等开放技术,支持Intel、Arm等生态接入,实现双赢 [55][56] - 与Intel合作融合其企业生态与公司AI生态,与Arm合作类似,扩大市场机会 [56] 主权AI趋势 - AI成为国家基础设施必需品,每个国家需具备主权AI能力以融入文化、价值观,并培养自身智能体系 [66][67][68] - 公司定位为AI基础设施合作伙伴,参与全球国家级别AI建设 [68]
关于投资OpenAI、AI泡沫、ASIC的竞争...刚刚,黄仁勋回答了这一切
水皮More· 2025-09-27 15:41
AI行业市场前景与增长动力 - AI行业竞争比以往任何时候都更激烈,市场已从简单的GPU演变为复杂的、持续进化的AI工厂,需要处理多样化的工作负载和指数级增长的推理任务 [5] - 如果未来AI为全球GDP带来10万亿美元的增值,那么背后的AI工厂每年的资本支出需要达到5万亿美元级别 [5] - 未来5年内,AI驱动收入从1000亿美元增至1万亿美元的概率几乎是确定的,而且现在几乎已经达到了 [6] - 全球的算力短缺不是因为GPU短缺,而是因为云服务提供厂商的订单往往低估了未来需求,导致英伟达长期处于紧急生产模式 [6] - 每个国家都必须建设主权AI,没有人需要原子弹,但每个人都需要AI [7] - 人工智能不是零和游戏,智能越多,能解决的问题就越多,创造的工作和就业机会也越多 [7] 英伟达技术优势与竞争格局 - 英伟达芯片的竞争优势在于总拥有成本(TCO),其性能或每瓦token数是其他芯片的两倍,客户可以从他们的数据中心产生两倍的收入 [6] - 现在的AI竞争比以往任何时候都困难,因为晶圆成本越来越高,这意味着除非进行极限规模的协同设计,否则就无法实现X倍增长因子 [6] - 英伟达在10年内实现了10万倍的AI性能增长,从Kepler到Hopper,而Hopper和Blackwell之间在一年内实现了30倍增长 [30] - 英伟达的竞争护城河比三年前更大,因为协同设计是极限的,规模也是极限的,客户在一个架构上的采购订单可达500亿美元 [34] - 即使竞争对手将芯片价格定为零,英伟达系统仍然是更好的选择,因为客户可以从数据中心产生两倍的收入,机会成本极高 [41] - 英伟达转向年度发布周期,每年构建六七款芯片,每一款都是系统的一部分,需要在整个系统中进行优化 [42] AI技术演进与未来趋势 - 推理即将增长十亿倍,因为推理链的出现,AI从一次性推理转变为思考型AI,计算量要大10亿倍 [9] - 现在有三个缩放定律:预训练缩放定律、后训练缩放定律和推理缩放定律,而不是一个 [10] - 在接下来的5年里,真正酷且将被解决的事情之一是人工智能与机器人技术的融合,每个人都将在云端拥有自己关联的GPU,80亿人口对应80亿个GPU [51] - AI将改变任务,许多任务将被消除,但也有许多任务将被创造出来,对许多人来说,他们的工作是受到有效保护的 [48] - 通用计算时代已经结束,未来是加速计算和AI计算,全世界有多少万亿美元的计算基础设施需要更新换代,将转向加速计算 [17] - 即使不考虑AI创造的新机会,仅仅是AI改变了做事方式就有巨大价值,就像不再使用煤油灯而改用电力,不再使用螺旋桨飞机而改用喷气式飞机一样 [18] 英伟达与OpenAI等公司的合作 - 英伟达与OpenAI建立了直接关系,包括直接的工作关系和直接的采购关系,类似于马斯克和X那样的关系 [5] - OpenAI很可能会成为下一个万亿美元级别的超大规模公司,英伟达唯一的遗憾是没有早点多投资一些,应该把所有钱都给他们 [5] - 英伟达正在与OpenAI在几个项目上合作,包括Microsoft Azure的建设、OCI的建设和Core Weave的建设,这些项目都已签约,有很多工作要做 [13] - 新的合作关系是关于帮助OpenAI建设自己的AI基础设施,这是直接与OpenAI在芯片层面、软件层面、系统层面、AI工厂层面的合作 [14] - 英伟达还投资了XAI和Corewave,这些投资都很棒,非常明智 [27] - 英伟达与OpenAI的合作是完美的证明,英伟达实际上是一家AI基础设施公司,是AI基础设施合作伙伴 [43] AI对全球经济和社会的影响 - 人类智能大约占全球GDP的55-65%,也就是约50万亿美元,这50万亿美元将得到增强,很可能被10万亿美元增强 [18] - 如果雇佣一个10万美元薪资的员工,然后为他配备1万美元的AI,这1万美元的AI能让员工提高2倍、3倍的生产力,公司会毫不犹豫地这样做 [18] - AI是最大的均衡器,消除了技术鸿沟,现在每个人只需要学习人类语言,而不需要学习C++或C或Python [48] - AI将改变美国,美国的再工业化从根本上将是变革性的,鼓励公司来美国建设,投资工厂,以及对技术工人队伍进行再培训和提升技能 [47] - 科技就像过去的玉米和钢铁一样,现在是如此基本的贸易机会,为什么你不希望美国技术被每个人渴望,这样它就可以用于贸易 [47] - 在21世纪,我们不会有一百年的进步,我们可能会有两万年的进步,思考指数级增长,以及加速变化的速度、加速增长的速度 [52]
关于投资OpenAI、AI泡沫、ASIC的竞争……刚刚,黄仁勋回答了这一切
搜狐财经· 2025-09-27 14:55
AI行业格局与竞争态势 - AI竞争比以往任何时候都激烈,市场已从简单的GPU演变为复杂的、持续进化的AI工厂,需要处理多样化的工作负载和呈指数级增长的推理任务 [1] - 竞争对手在构建更便宜的ASIC,但即使竞争对手将芯片价格定为零,客户仍然会选择英伟达系统,因为运营该系统的总成本更低 [4][69] - 谷歌拥有的优势是前瞻性,在一切开始之前就启动了TPU1,但当TPU成为一门大生意后,客户自有工具将成为主流趋势 [4][56] - 现在的AI竞争比以往任何时候都激烈,但也比以往任何时候都困难,因为晶圆成本越来越高,这意味着除非进行极限规模的协同设计,否则就无法实现X倍增长因子 [4][54] AI市场前景与增长预测 - 未来5年内,AI驱动的收入将从1000亿美元增至万亿美元级别,这一概率几乎是确定的,而且现在几乎已经达到了 [1][2][35] - 如果未来AI为全球GDP带来10万亿美元的增值,那么背后的AI工厂每年的资本支出需要达到5万亿美元级别 [1][4][30] - 人工智能大约占全球GDP的55-65%,也就是约50万亿美元,这50万亿美元将得到增强,很可能发生的是,那50万亿美元被10万亿美元增强 [13][29][30] - 每个国家都必须建设主权AI,没有人需要原子弹,但每个人都需要AI,每个国家都需要拥有一些主权能力并发展AI基础设施 [13][79][80] 英伟达与OpenAI的合作关系 - OpenAI很可能会成为下一个万亿美元级别的超大规模公司,英伟达唯一的遗憾是没有早点多投资一些,应该把所有钱都给他们 [1][4][47] - OpenAI想和英伟达建立起类似于马斯克和X那样的直接关系,包括直接的工作关系和直接的采购关系 [4][22][24] - 合作涉及帮助OpenAI首次为他们建设自己的AI基础设施,这是直接与OpenAI在芯片层面、软件层面、系统层面、AI工厂层面的合作 [19][20] - 10吉瓦大约需要4000亿美元的投资,这4000亿美元很大程度上需要通过OpenAI的承购协议来资助,也就是他们指数级增长的收入 [4][46] 英伟达的技术优势与战略 - 英伟达芯片的竞争优势在于总拥有成本,性能或每瓦token数是其他芯片的两倍,客户可以从他们的数据中心产生两倍的收入 [13][70] - 公司转向年度发布周期,从Hopper到Grace Blackwell,再到Vera Rubin、Ultra、Fineman,以实现指数的指数增长,使客户能够降低代币成本 [48][49][50] - 英伟达通过极限协同设计进行创新,必须同时优化模型、算法、系统和芯片,在数据中心级别的交换机、网络、软件等所有方面进行优化 [51][54][71] - 公司实际上是一家AI基础设施公司,是客户的AI基础设施合作伙伴,不要求客户购买所有产品,可以按照客户喜欢的任何方式销售 [75] 推理任务的演变与增长 - 如今超过40%的收入来自推理,但推理即将发生变化,因为推理链的出现,它即将增长十亿倍 [10][11] - 现在有三个缩放定律:预训练缩放定律、后训练缩放定律(AI练习)和推理缩放定律(思考型AI),而不是一个 [12][14][41] - 推理能力正经历第二个指数增长,从一次性的、记忆答案转变为思考型AI,计算量要大10亿倍 [41] - 旧的推理方式是一次性的,但新的推理方式是思考,在回答之前先思考,思考得越久,得到的答案质量就越好 [14] AI对经济和社会的影响 - AI技术带来的变化包括创造一个新的AI代理产业,OpenAI是历史上收入增长最快的公司,呈指数级增长 [33] - AI是最大的均衡器,消除了技术鸿沟,现在人们只需要学习人类语言就可以编程,每个人都必须参与 [81] - 智能不是零和游戏,周围的人越聪明,想法就越多,可以解决的问题就越多,创造的工作和就业机会就越多 [6][83] - 在接下来的5年里,真正酷且将被解决的事情之一是人工智能与机器人技术的融合,每个人都将在云端拥有自己关联的GPU [13][85] 供应链与产能挑战 - 全球的算力短缺不是因为GPU短缺,而是因为云服务厂商的订单往往低估了未来需求,导致英伟达长期处于紧急生产模式 [4][39] - 供应链已经准备好,从晶圆开始到封装、HBM内存等所有技术都已就绪,如果需要翻倍就可以翻倍,现在只是在等待需求信号 [39] - 云服务提供商、超大规模厂商提供的每一个预测都是错误的,因为他们预测不足,所以公司总是处于紧急模式 [39] - 为了每年进行数千亿美元的AI基础设施建设,需要提前一年开始准备大量产能,涉及数千亿美元的晶圆启动和DRAM采购 [53]
关于投资OpenAI、AI泡沫、ASIC的竞争...刚刚,黄仁勋回答了这一切
华尔街见闻· 2025-09-27 11:56
AI行业前景与市场规模 - AI预计将为全球GDP带来10万亿美元的增值 背后AI工厂年资本支出需达5万亿美元级别 [2] - 未来5年内 AI驱动收入将从1000亿美元增至万亿美元级别 且该增长概率几乎确定 [4][6] - AI占全球GDP比例预计达55-65% 约50万亿美元 其中10万亿美元需通过AI基础设施增强 [13][35][36] 英伟达与OpenAI合作 - 英伟达与OpenAI建立价值1000亿美元的合作关系 涉及芯片、软件、系统及AI工厂层面直接合作 [6][19][24] - OpenAI很可能成为下一个万亿美元级别超大规模公司 英伟达对其早期投资不足表示遗憾 [3][6][51] - 合作包括Microsoft Azure建设(数千亿美元规模)、OCI建设(5-7吉瓦)及Core Weave项目 [23] 英伟达技术优势与竞争格局 - 英伟达系统总拥有成本(TCO)优势显著 即使竞争对手芯片价格为零 客户仍会选择英伟达系统 [4][7][75] - 英伟达芯片每瓦token数为其他芯片两倍 客户数据中心可产生两倍收入 [13][76] - 竞争格局从单一GPU芯片演变为复杂AI工厂系统 需处理多样化工作负载和指数级增长的推理任务 [2][64] 算力需求与供应链挑战 - 全球算力短缺主因是云服务厂商订单低估需求 英伟达长期处于紧急生产模式 [6][43] - 推理任务量预计增长十亿倍 因推理链、思考型AI及多模态应用出现 [12][17][46] - 供应链已准备就绪 可响应需求翻倍 但客户预测持续不足导致产能紧张 [43][44] 产品战略与技术路线 - 英伟达转向年度芯片发布周期 2024年推出Hopper 2025-2026年推Vera Rubin 2027年推Ultra 2028年推Fineman [53] - 通过极限协同设计(同时优化模型、算法、系统及芯片)实现性能指数级提升 如Blackwell比Hopper性能提升30倍 [55][57] - 推出CPX芯片处理上下文及视频生成 Dynamo系统实现分解式AI工作负载编排 [63][72] 主权AI与全球布局 - 每个国家需建设主权AI能力 因AI涉及国家安全、经济安全及文化价值观编码 [13][84][85] - 英伟达定位为AI基础设施合作伙伴 提供芯片、组件或完整系统解决方案 [81] - 美国再工业化及AI技术民主化将消除技术鸿沟 推动全球参与 [86][87] 行业影响与未来趋势 - AI与机器人技术融合将成为未来5年重点 实现个性化AI代理及数字孪生应用 [14][91][92] - AI代理产业快速增长 OpenAI成为历史上收入增长最快公司 [38] - AI非零和游戏 将创造更多工作机会及经济增量 而非单纯替代现有岗位 [8][88][89]
黄仁勋最新专访:关于投资OpenAI、AI泡沫、ASIC的竞争.........(三万字全文)
美股IPO· 2025-09-27 10:01
AI行业增长前景 - OpenAI很可能成为下一个万亿美元市值公司 是英伟达的重要合作伙伴 [1][3][4] - AI驱动收入将在5年内从1000亿美元增长至万亿美元级别 目前可能已达到该水平 [1][26][28] - AI将增强全球50万亿美元规模的人类智能经济活动 可能创造10万亿美元增量价值 [20][21][24] 计算范式转型 - 通用计算时代结束 全球数万亿美元计算基础设施将全面转向加速计算和AI计算 [3][17][18] - 传统超大规模计算模式(搜索 推荐 购物)正从CPU转向GPU驱动 形成数千亿美元市场 [18][28][34] - 数据处理市场(Databricks Snowflake Oracle SQL)目前主要使用CPU 未来将全面转向AI处理 [34] 英伟达竞争战略 - 通过"极致协同设计"实现系统级优化 年度发布周期使性能呈指数级提升(Hopper到Blackwell提升30倍) [3][41][47] - 即使竞争对手芯片免费 英伟达系统在总拥有成本(TCO)上仍具优势 因电力 数据中心等运营成本更低 [1][75][77] - 从GPU供应商转型为AI基础设施建设者 能整合各类ASIC满足多样化工作负载需求 [3][62][64] 技术发展路径 - AI规模定律从预训练 后训练扩展到"思考"推理定律 推理能力将实现百万倍至十亿倍增长 [3][7][8] - Token生成速度每几个月翻一番 驱动每瓦性能需持续指数级提升 电力消耗与收入直接相关 [22][24][43] - 年度发布周期包括2024年Hopper 2025年Grace Blackwell 2026年Vera Rubin 2027年Ultra 2028年Feynman [41][47] 生态系统建设 - 与OpenAI的Stargate合作涉及1000亿美元投资 帮助其建立自主AI基础设施 [3][10][11] - 推出NVLink Fusion等开源平台 整合英特尔 ARM等生态系统合作伙伴 [71][73][74] - 投资xAI CoreWeave等公司 但不与采购义务挂钩 属于机会性股权投资 [39][40] 市场容量分析 - 全球AI基础设施年资本支出可能达到5万亿美元 对应生成10万亿美元token价值(50%毛利率) [21][22] - 目前4000亿美元市场规模将增长4-5倍 阿里巴巴计划将数据中心电力容量增加10倍 [22][25] - 供应链已做好准备应对需求增长 实际需求持续超出客户预测 [31][32] 工作负载演进 - AI从单一语言模型发展为多模型系统 能同时运行 使用工具并进行研究 [9] - 传统"一次性"推理转向"思考型"推理 大幅增加单次使用的计算量 [11][13][33] - 视频生成 上下文处理等专业化工作负载需要特定芯片(如CPX) [62]
关于投资OpenAI、AI泡沫、ASIC的竞争...刚刚,黄仁勋回答了这一切
硬AI· 2025-09-26 21:30
AI行业前景与市场规模 - AI将为全球GDP带来10万亿美元增值 背后AI工厂年资本支出需达5万亿美元级别 [2][3] - AI驱动收入在未来5年内从1000亿美元增至1万亿美元的概率几乎确定 目前已接近实现 [3][14] - 全球算力短缺主因是云服务提供商订单低估需求 导致长期处于紧急生产模式 [3][16] 英伟达与OpenAI合作 - OpenAI邀请英伟达早期投资 可能成为下一个万亿美元级超大规模公司 [2][6] - 合作涉及直接工作关系和直接采购关系 类似马斯克与X的合作模式 [2][7] - 合作涵盖Microsoft Azure建设(数千亿美元规模) OCI建设(5-7千兆瓦)和Core Weave项目 [6] 技术竞争格局 - 当前AI竞争比以往更激烈 市场从GPU演变为复杂AI工厂 需处理多样化工作负载 [2][26] - 英伟达芯片竞争优势在于总拥有成本(TCO) 性能或每瓦token数是其他芯片两倍 [4][33] - 谷歌TPU优势在于前瞻性 但客户自有工具将成为主流趋势 [3][27] 技术发展路径 - 推理能力将增长十亿倍 从一次性推理转变为思考型AI [6][18] - 出现三个缩放定律:预训练缩放 后训练缩放和推理缩放 替代单一缩放定律 [6] - 年度发布周期实现技术指数级提升 Hopper到Blackwell性能提升30倍 [22][23] 生态系统建设 - 每个国家都需要建设主权AI能力 如同需要能源和通信基础设施 [4][38] - 英伟达定位为AI基础设施公司 提供芯片 组件或完整系统解决方案 [36] - 与英特尔 ARM等公司合作实现生态系统融合 扩大市场机会 [32] 商业模式演进 - AI工厂需要处理持续变化的多样化工作负载 非单一芯片能解决 [28][29] - 超大规模厂商从CPU向加速计算和AI转型 代表数千亿美元市场 [9][10] - 即使竞争对手芯片免费 英伟达系统仍能提供更优每瓦性能收益 [33][34] 应用场景拓展 - AI与机器人技术融合将成为未来5年重点发展方向 [4][43] - 传统数据处理市场(主要使用CPU)将转向AI数据处理 [18] - 每个人可能拥有个性化AI模型 80亿人口对应80亿GPU成为可行方案 [43] 产业影响 - AI将增强全球50万亿美元人类智能产出 带来生产力革命 [11][12] - 能源产业迎来复兴 核能 燃气轮机等基础设施公司表现突出 [13] - 消除技术鸿沟 人类只需使用自然语言与AI交互而非编程语言 [40]
黄仁勋最新访谈:英伟达投资OpenAI不是签署大额订单的前提
36氪· 2025-09-26 21:06
英伟达的战略投资与市场定位 - 公司近期进行大规模战略投资 包括50亿美元投资英特尔和至多1000亿美元投资OpenAI [1] - 投资OpenAI被视作参与下一代万亿美元级超大规模公司(Hyperscaler)的机遇 并非合作前提条件 [7][8][9] - 市场存在对"收入循环"的质疑 但公司强调投资与采购关系独立 投资决策基于对OpenAI增长潜力的判断 [30][31] AI计算范式变革与行业机遇 - AI计算存在三条扩展定律:预训练(pre-training)、后训练(post-training)和推理(inference) 其中推理环节因"链式思考"模式带来算力需求指数级增长 [5][6] - 推理收入占比超过40% 且正经历爆发式增长 [4] - 全球计算基础设施正从通用计算转向加速计算与AI计算 仅hyperscale企业替换需求就达数千亿美元市场 [15][18] 数据中心与算力需求前景 - OpenAI计划建设10个吉瓦(Gigawatt)级数据中心 若全部采用英伟达方案 潜在收入贡献达4000亿美元 [7][9] - 阿里云计划到2030年代将数据中心电力消耗提升10倍 电力消耗与公司收入呈正相关关系 [19] - 当前AI年市场规模约4000亿美元 预计未来将增长4-5倍 全球AI收入有望从2026年1000亿美元增至2030年1万亿美元 [19][22] 技术优势与竞争壁垒 - 公司通过极致协同设计(co-design)实现系统级性能提升 Blackwell相比Hopper实现30倍性能提升 [34][37] - 年度发布节奏(Hopper→Blackwell→Vera Rubin→Rubin Ultra→Feynman)确保技术持续领先 [33][34] - 竞争优势体现在全栈能力(硬件+软件+网络+系统)和规模效应 单个客户订单可达500亿美元级别 [41][49] 供应链与产能管理 - 供应链已实现全面打通 从晶圆启动到封装、HBM内存均具备快速扩产能力 [27] - 采用按需响应模式 根据客户年度预测动态调整产能 实际需求持续超出预期 [27] - 当前全球短缺的是"计算"而非GPU数量 公司处于紧急追赶状态 [27] 对ASIC竞争格局的研判 - ASIC芯片面临系统级挑战 AI工厂需要多芯片协同设计而非单一芯片 [42][43] - 即使竞争对手免费提供芯片 英伟达系统因单位能耗性能优势仍能提供更优经济性 [49] - Google的TPU属于架构型芯片 但公司仍是Google的GPU大客户 [45] 全球AI基础设施发展 - 每个国家都需要主权AI能力 既要使用主流AI模型 也要建设自主AI基础设施 [58][59] - AI基础设施成为继能源、通信后的第三类国家关键基础设施 [59] - 与Intel合作推动生态融合 将Intel的通用计算生态与英伟达AI生态结合 [48] 财务与增长预期 - 华尔街分析师预测2027-2030年增速仅8% 但公司认为实际机会远大于市场共识 [11][14][52] - 公司定位为AI基础设施合作伙伴 而非单纯芯片公司 [53] - 有望成为史上首家10万亿美元市值公司 [2][53]
英伟达携手英特尔背后
半导体行业观察· 2025-09-24 10:54
文章核心观点 - 英特尔与英伟达的合作标志着计算行业从x86时代向以CUDA为中心的系统时代过渡,巩固了英伟达在人工智能基础设施领域的主导地位[1] - 此次合作通过创建混合x86-CUDA架构,将英伟达的护城河延伸至x86生态系统,使英特尔的TAM(总可用市场规模)增加约1000亿美元,英伟达的TAM扩张规模可能达到5000亿至1万亿美元[1][12][20] - 合作对双方形成双赢局面:英特尔获得参与加速计算的可靠途径,英伟达获得进入x86企业市场的分销渠道,同时进一步推动人工智能发展[1][39] 交易要点总结 - 合作范围涵盖为AI数据中心和PC联合开发定制英特尔x86 CPU与英伟达GPU紧密耦合的系统[7] - 数据中心方面:英特尔x86 CPU集成到英伟达NVLink架构,支持机架级AI超级计算机,英伟达成为英特尔CPU主要客户[7] - 客户端方面:共同开发结合英特尔CPU和英伟达RTX GPU芯片片的SoC,瞄准每年约1.5亿台的笔记本电脑集成显卡市场[7] - 英伟达向英特尔投资50亿美元获取股权,表明双方路线图协调一致[7] - 合作涉及的技术推动因素包括NVLink互连、先进封装和多芯片片异构集成[7] 经济影响分析 - 合作将下滑的x86市场转变为可由CUDA扩展的市场,估计数据中心CPU市场年规模达250-300亿美元,PC和数据中心CPU总机会达250-500亿美元[7][10] - 英伟达数据中心收入约为英特尔的10倍,总收入约为英特尔的4倍,合作使英伟达能将数据中心领先地位转化为客户端市场份额[18] - 预计到2030年,英特尔在AI混合x86-CUDA SoC市场潜力超1000亿美元,占据20-30%份额;英伟达在AI芯片总潜力达5000-7000亿美元,占据70-95%份额[21] - 合作对英特尔未来10年累计增量收入影响约1000亿美元,对英伟达增量收入影响达5000亿至1万亿美元[21] 战略影响分析 英特尔 - 合作使英特尔获得加速计算领域的可信口碑,重新与开发者和企业IT决策者建立联系[24] - 通过x86-CUDA SoC和机架级集成,稳定客户端芯片单位产量,提升服务器芯片单位产量,为制造业务提供可重复的大规模组装系统[24] - 合作不能解决英特尔制程工艺差距,但创造了理想桥梁,为代工竞争力修复赢得时间[24] 英伟达 - 合作使CUDA从数据中心扩展为企业AI和主流PC的全栈标准,英伟达获得无与伦比的x86覆盖范围分销合作伙伴[27] - 英伟达凭借x86-CUDA笔记本电脑直接进入主流PC利润池,拓展量产客户市场,同时对不兼容CUDA的云专用芯片策略造成压力[27] - 英伟达用一定控制权换取更大市场空间,将x86平台转变为自身平台的分销渠道[28] AMD - AMD短期内将继续占据PC和x86数据中心市场份额,但中期面临风险,因重心转向CUDA兼容混合架构[30] - 若AMD无法获得一流CUDA访问权限,其潜在市场将缩小,投资案例在未来几年变得更加困难[30] - 上行路径是确保作为第二家供应商获得CUDA访问权限,否则预计2027年后将面临强劲逆风[21][22] Arm和超大规模厂商 - Arm保持结构性优势,包括更快流片速度、更低单位功能成本和低功耗,在许多工作负载上市时间领先一代[33] - 英伟达路线图呈现双轨制:Arm系统提升每瓦性能和成本效益,x86-CUDA系统最大化兼容性和企业级采用率[33] - 超大规模厂商将继续投资定制芯片,但非一流CUDA大规模部署可能更具针对性且扩展更慢[33] 未来展望 - 合作重塑竞争格局,为英特尔重返加速计算提供可靠途径,缓冲客户量下滑,提供可重复SoC产品线大规模生产[39] - 英特尔代工业务仍是结构性悬念,最合理分工是台积电主导芯片制造,英特尔负责系统集成和量产封装[39] - 对英伟达而言,合作开启跨PC和企业数据中心的分销飞轮,将CUDA触角延伸至新市场,获得比现金支出高10倍的TAM增长[39] - 风险主要在执行层面:英特尔必须按时交付并协调文化,英伟达需平衡开放性与平台完整性[40]