CUDA
搜索文档
美国的“阳谋”:让英伟达充当AI基建的“小发改委”
观察者网· 2026-03-20 08:31
GTC 2026 核心观点 - 英伟达通过GTC 2026主题演讲,系统阐述了其作为全球AI产业“总设计师”的战略定位,将AI产业比作一个从能源到应用的五层蛋糕,并致力于垂直整合所有层级 [1][3] - 公司的目标从提供单一芯片转变为提供全栈AI工厂解决方案,旨在控制从能源、芯片、基础设施、模型到应用的整个价值链 [1][9] - 英伟达的战略已超越传统商业公司范畴,其产品路线图和资源调配能力能牵动数万亿美元级别的全球资本开支,实质上承担了产业规划与协调的职能 [13][15][19] 战略框架:“五层蛋糕”模型 - **第一层:能源** - 被视为AI基础设施的“第一性原理”和“绝对约束条件”,决定了系统能产出多少智能,公司已开始介入能源规划,甚至研发太空数据中心系统以突破地球能源限制 [3][9] - **第二层:芯片** - 发布Vera Rubin系统,集成了包括Vera CPU、Rubin GPU、Groq LPU在内的七种芯片,采用“解耦推理”新架构,以同时满足高吞吐与低延迟需求 [4] - **第三层:基础设施** - 定义远超传统,涵盖土地、电力、散热、网络及系统编排,目标是建设“生产Token的工厂”,并通过NVLink等互联技术控制整个系统的扩展能力 [5][6] - **第四层:模型** - 宣布成立Nemotron联盟,联合多家AI公司,旨在优化模型在英伟达硬件上的适配并深度绑定CUDA生态,强化其产业组织能力 [7] - **第五层:应用** - 被视为经济价值的创造层,公司广泛布局于机器人、自动驾驶(与比亚迪、现代、日产、优步合作)等领域,并发布OpenClaw智能体操作系统,将触角延伸至物理世界 [8] 硬件与系统创新 - **Vera Rubin系统**:横跨五个机架,集成七种芯片,通过NVLink融合,实现高吞吐批量推理与低延迟实时响应的结合 [4] - **Vera CPU**:88核设计,专为高单核性能,采用液冷,标志着公司从加速器供应商向提供完整计算节点(整机)的转变,实现垂直整合 [5] - **性能宣称**:对比x86加Hopper架构,Vera Rubin系统的Token吞吐量达到前者的350倍,即7亿Token每秒对比200万Token每秒 [6] - **能效提升**:宣称Vera Rubin系统每瓦性能提升50倍,成本降低35倍 [9] 生态控制与产业协调 - **CUDA生态**:通过“飞轮效应”锁定开发者与客户,全球AI训练和推理几乎完全依赖CUDA生态,使公司能实质影响云服务商的AI业务天花板 [7][12] - **供应链协调**:在全球半导体代工格局中扮演“总指挥”角色,如在台积电与三星之间进行芯片生产任务的精准分配 [12] - **产能分配权**:公司手握GPU产能分配权,能影响甚至决定像OpenAI等关键客户的算力部署在哪个云平台(如宣布OpenAI将登陆AWS) [11] - **路线图即产业政策**:2028年Feynman系统路线图(含新GPU、LPU、CPU、网卡及互联模块)能牵引全球供应链(台积电、三星、ODM/OEM、云服务商)未来数年的资本开支与研发方向 [13] 市场定位与规模预测 - **市场规模预测**:公司CEO预计到2027年,AI基础设施投资需求将达到至少1万亿美元,规模堪比国家级基建计划(对比美国2021年基建法案中约5500亿美元新增投资) [11] - **产业角色**:公司不仅是芯片设计者,更是AI工厂的“总包工头”和“调度中心”,通过技术标准、供应链控制和生态建设,承担了市场化产业协调者的角色 [1][14][19] - **商业与战略融合**:其商业利益与美国国家AI战略高度吻合,通过市场机制(如垂直整合、水平开放)和配合政府出口管制等措施,共同确保美国在AI算力领域的领先地位 [14][15][19]
黄仁勋 2026 GTC 演讲全解析
深思SenseAI· 2026-03-18 14:59
文章核心观点 - NVIDIA在GTC大会上宣示其战略,正从芯片公司转型为基础设施级计算公司,通过全栈五层架构(战略能源、芯片、基础设施、模型、应用)重塑全球AI工厂 [1][2][4] - 公司将“Token”定义为AI时代的基本单位,数据中心正从文件中心转变为“Token工厂”,算力即收入,未来所有公司都将关注Token工厂的效率 [1][22] CUDA生态与护城河 - CUDA是NVIDIA的核心,公司专注其发展已20年,其单指令多线程(SIMT)架构极大简化了多线程应用开发 [5] - 围绕CUDA建立了庞大的生态系统,包括成千上万的开源工具、编译器、框架和库,公共项目多达数十万,覆盖全球数亿GPU和计算系统 [7] - CUDA庞大的装机量形成了飞轮效应:吸引开发者、催生新算法、推动深度学习突破、创造新市场,最终使飞轮加速 [7] - 公司库的下载量正以空前的速度和规模增长,软件的持续优化让用户长期成本下降,这也是6年前发布的Ampere系列在云端价格反而上涨的原因 [7] - GeForce是公司历史上最成功的营销活动,为CUDA走向世界奠定了基础,并让AI先驱(如Alex Krushevsky, Ilya Sutskever等)发现GPU能加速深度学习 [9][11] 数据处理革命:cuDF与cuVS - NVIDIA推出cuDF与cuVS两大基础库,分别用于处理结构化数据帧和向量存储/语义数据,旨在成为未来最重要的数据处理平台之一 [12][14] - cuDF加速结构化数据处理,让企业计算基石(如SQL, Spark, Pandas等处理的数据帧)能被AI高速使用 [14] - 世界上90%以上新生成的数据是非结构化的,AI能解决其多模态感知和理解问题,cuVS用于处理此类数据 [14] - 实际应用效果显著:雀巢使用GPU加速的Watson X.data处理全球订单数据,速度提升5倍,成本降低83% [16] - Snapchat与Google Cloud合作采用加速数据处理后,计算成本降低了近80%(官方精确数据为76%) [16] 算力跃迁与推理时代 - 过去两年算力需求激增,黄仁勋估算增长了百万倍,主要因生成式AI(如ChatGPT)、推理AI(赋予AI反思规划能力)及AI助手(如Codex, Cursor)三大节点推动 [18][21] - 推理时代来临,计算量提高约1万倍,结合使用量增长约100倍,导致算力需求百万倍增长 [21] - 从Hopper架构到Grace Blackwell架构,一代之间AI推理性能飙升35倍,NVIDIA的Token成本全球最低 [22] - 黄仁勋去年预测2026年前Blackwell和Rubin系统需求订单达5000亿美元,现预测到2027年需求将至少达到1万亿美元 [21] - 为应对需求,公司推出新一代Vera Rubin平台,这是一个专为代理AI设计的垂直整合完整系统 [24] - Vera Rubin NVLink 72拥有3.6 ExaFLOPS计算力和260TB/s全互联带宽,其CPU是全球唯一采用LPDDR5的高性能数据中心CPU [24] - Vera Rubin系统100%液冷,安装时间从2天缩短至2小时,采用45度热水冷却以降低数据中心冷却成本 [25] - 公司拥有全球唯一第六代规模扩展交换系统NVLink,以及世界首款CPO (Co-Packaged Optics) Spectrum X交换机 [25] Agent时代与软件生态 - AI原生企业过去两年爆发式增长,风险投资达1500亿美元,是人类历史最大规模,这些企业急需大量算力和Token [28] - OpenClaw成为人类历史上最受欢迎的开源项目,几周内超越了Linux 30年的成就,被比作“代理计算机的操作系统” [28] - 企业IT形态将彻底改变,未来每家SaaS公司都将变成Agent-as-a-Service(代理即服务)公司 [30] - NVIDIA推出企业级参考设计NeMo Claw,内置网络护栏和隐私路由,确保代理在企业内安全执行 [30] - 黄仁勋预言未来每位工程师年初都会获得一定的Token预算,拥有Token的工程师将实现10倍的产能提升,未来所有软件公司都是代理公司 [31] - NVIDIA发布了六大系列前沿模型,核心是Nemotron系列,并宣布成立Nemotron联盟以打造更强大的Nemotron 4 [34] - 在AI推理评估中,NVIDIA的Nemotron 3 Super模型表现优异,在榜单中排名前列 [31] 具身智能与自动驾驶 - 黄仁勋宣布自动驾驶的“ChatGPT时刻”已经到来,自动驾驶汽车配备的NVIDIA Alpamayo能够进行推理、智能操作并执行语音指令 [33] - 为弥合真实世界数据鸿沟,公司打造了开源的Isaac Lab用于机器人训练、评估和仿真,以及Cosmos World Models、GR00T基础模型和Newton物理求解器 [36] - 全球开发者正利用NVIDIA的算力和仿真平台加速物理AI落地,展会现场展示了110台机器人 [36] 生态系统与合作伙伴 - NVIDIA构建了庞大且深度的生态系统,业务数据显示60%的需求来自五大超级云服务商,剩余40%涵盖区域云、主权云、企业、工业、机器人等 [37] - 全球头部云厂商(AWS, Azure, Google Cloud, Oracle)及戴尔、IBM等行业巨头已100%接入NVIDIA系统 [10][45] - AWS:NVIDIA将把OpenAI带到AWS,并深度整合以加速其EMR、SageMaker、Bedrock等服务 [38] - 微软Azure:NVIDIA打造了全球首台超级计算机并首个安装在Azure上,支持AI Foundry并加速Bing搜索,是全球首批支持保密计算的厂商 [40] - Google Cloud:NVIDIA深度加速其Vertex AI和BigQuery平台 [42] - Oracle:NVIDIA是Oracle的首个AI客户,并为其带来了Cohere、Fireworks和OpenAI等合作伙伴 [43] - 与CoreWeave合作打造了全球首个AI原生云公司,专注GPU托管 [44] - 企业巨头如IBM利用cuDF加速Watson X,戴尔打造了整合cuDF和cuVS的AI数据平台 [45] - 出行与机器人领域:比亚迪、吉利、五十铃、日产加入RoboTaxi Ready平台,与Uber达成重要合作部署自动驾驶出租车,ABB、KUKA等机器人公司将物理AI模型集成进仿真系统 [45] - 全球存储行业100%加入了NVIDIA系统 [45] 向基础设施公司转型:AI工厂与数字孪生 - NVIDIA正从一家芯片公司转型为工厂级、基础设施级计算公司,全球最大规模的基础设施建设正在进行 [46] - 为确保AI工厂设计最优、实现最大Token吞吐和能效,公司推出了Omniverse DSX平台,这是一个数字孪生蓝图 [46] - DSX平台包含多个API连接:DSX Sim(物理、电、热和网络仿真)、DSX Exchange(管理运营数据)、DSX Flex(电网动态功率管理)、DSX MaxQ(动态最大化Token吞吐) [46] - 工厂上线后,数字孪生即为运营者,AI代理(如Phaedra代理监控冷却和电力,Emerald AI代理解析电网负载)协同DSX MaxQ动态管理基础设施,确保没有功率被浪费,黄仁勋坚信还有2倍的提升空间 [46] - Omniverse旨在承载全球数字孪生,从地球开始,未来覆盖各种规模,公司计算机(Thor)已部署到卫星上,未来还将建设太空数据中心 [47]
Nvidia’s GTC 2026 Arrives: Six Key Things Investors Are Watching Out For
Yahoo Finance· 2026-03-18 02:30
英伟达GTC 2026大会前瞻 - 英伟达备受关注的2026年GPU技术大会将于今日晚些时候开幕 首席执行官黄仁勋将发表主题演讲[1] 市场关注的关键领域 - 市场期待从年度开发者大会上获得多个关键领域的更新 包括与Groq合作的推理芯片发布、Vera Rubin后续产品Feynman的路线图、在CPU市场与英特尔和AMD竞争的策略 以及光子芯片的开发计划[2] - 推理被视为人工智能发展的下一个前沿市场 其重点是将AI模型部署用于执行任务 例如响应用户查询 这标志着AI从英伟达占主导地位的模型训练转向实际应用 特别是AI代理执行的自主任务[2] 具体关注点:推理芯片与Groq合作 - 分析师对于英伟达是否会揭晓与初创公司Groq合作设计的、专注于推理的语言处理单元芯片存在分歧 但预计黄仁勋将概述公司在该领域的战略[2] - 英伟达去年以170亿美元的交易收购了Groq的资产[2] 具体关注点:AI系统路线图 - 英伟达已表示计划在今年下半年开始发货下一代Vera Rubin AI系统 行业观察人士预计将获得更多更新[2] - 更重要的是 市场将聚焦于其后续系统Feynman的路线图[2] 具体关注点:CPU市场竞争策略 - 向推理的转变也意味着对CPU的重新关注 CPU正日益受到该任务的青睐[2] - 投资者将寻求更多更新 特别是在与市场领导者英特尔和AMD的市场竞争方面[2] 具体关注点:光子芯片战略 - 随着科技公司竞相超越铜线技术 开发使用光来极大加速数据中心芯片间数据传输的光子芯片 焦点将集中在英伟达的举措上[2] - 这一点尤为重要 因为英伟达最近分别向光子制造商Coherent和Lumentum各承诺投资20亿美元[2] 具体关注点:CUDA软件与物理AI - 英伟达的计算统一设备架构软件是其GPU应用于AI训练、科学模拟和物理AI任务的核心[2] - 随着物理AI的迅猛发展 投资者将关注英伟达利用这一趋势的计划[2] 具体关注点:对华出口H200芯片 - 尽管特朗普政府已批准英伟达在一定条件下向中国出口其成熟但非最强大的H200处理器 但反对意见依然存在 两位民主党议员周一发表声明警告其对美国国家安全构成风险[2] - 中国是AI芯片增长最快的市场之一 但黄仁勋去年10月指出 公司在中国本地GPU市场的份额已从95%暴跌至零[2]
NVIDIA (NasdaqGS:NVDA) Conference Transcript
2026-03-18 01:02
NVIDIA (NVDA) 2026年3月电话会议纪要分析 一、 公司及行业概述 * 本次会议为NVIDIA于2026年3月17日举行的投资者电话会议[1] * 行业聚焦于人工智能(AI)计算,特别是加速计算、AI基础设施和生成式AI[3] * 公司正经历从生成式AI、推理到智能体系统(Agentic Systems)的第三波拐点[3] 二、 核心财务与业务数据 * **未来订单能见度**:公司对Blackwell和Rubin架构产品在2026年之前的订单有**5000亿美元**的强劲能见度[7] * **更新后的订单能见度**:目前对Blackwell和Rubin的订单能见度已提升至**超过1万亿美元**,时间范围延伸至2027年底[15] * **现金流与资本回报**:公司预计将约**50%的自由现金流**用于股票回购和股息[105] * **业务构成**:公司业务可粗略分为两部分:**60%** 来自超大规模云服务商(CSPs),**40%** 来自区域云、工业、企业本地部署等[26][27] * **新增市场机会**:在1万亿美元的Blackwell+Rubin需求基础上,加入Groq可能带来**25%** 的增量(即1.25万亿美元),存储和CPU等产品可能带来额外**50%** 的潜在机会[95][96] 三、 技术发展与产品路线 * **当前产品重点**:Vera Rubin DGX AI工厂参考设计已发布,旨在为非超大规模客户提供与超大规模云服务商竞争的蓝图[50] * **产品路线图**: * **Vera Rubin**:预计在**2026年下半年**开始量产,并将在Groq之前发货[61][63] * **Groq**:预计在**2026年第三季度**开始发货[55][59] * **Rubin Ultra** 和 **Feynman**:是未来的产品路线[135] * **架构演进**: * **NVLink扩展**:从NVL72发展到Rubin Ultra的NVL144,未来规划NVL1152[130][136] * **互连技术过渡**:将从纯铜互连过渡到铜+共封装光学(CPO),最终在NVL1152时完全采用CPO[138] * **内存架构**:公司是唯一能跨HBM、LPDDR5和SRAM三种内存类型优化AI工厂架构的公司[86] * **软件生态**: * **OpenClaw/NemoClaw**:被定位为AI计算机的操作系统,已有**150万**人下载OpenClaw[40] * **CUDA**:是公司核心生态,所有开发者都基于CUDA和CUDA-X库进行编程[25] * **模型覆盖**:平台支持所有主流AI模型,包括OpenAI、开源模型(合计第二大)、Anthropic(第三)和xAI等[22][156] * **Nemotron-3**:公司推出的混合专家(MoE)与状态空间模型(SSM)结合的模型,用于处理极长上下文[147][153] 四、 市场观点与行业趋势 * **AI发展拐点**:当前处于以**智能体系统**为标志的第三波拐点,智能体能够自主操作并执行任务[3] * **计算范式转变**:计算机从工具转变为**生产设备**,用于生产“令牌”(Token),其能源效率和生产效率至关重要[4] * **令牌经济(Tokenomics)**: * 工程师将拥有“令牌预算”,用于消费AI服务[4] * 公司价值主张在于:提供最昂贵的计算机,但生产**成本最低的令牌**[20] * 令牌成本将持续下降,同时令牌的“智能度”和吞吐量将不断提升[141] * 市场将出现分层,从免费层到高端层,满足不同客户需求(如搜索、代码生成、企业员工)[143][144] * 预计**25%** 的推理工作负载属于高端层,适合用Groq等低延迟架构处理[69][82] * **IT行业转型**: * 全球**2万亿美元**的IT软件产业将被改造,可能增长至**8万亿美元**,并转售大量令牌[40][41] * 未来的IT公司将从授权软件转变为**租赁和生成令牌**,商业模式和毛利率将发生变化[45] * **物理AI**:涉及**70万亿美元**的全球产业,需要边缘和本地部署的AI,这将推动公司业务中**40%** 的部分(非CSP)未来可能增长至**70%**[51][52] * **训练与推理演变**: * 后训练(Post-training)的计算强度可能是预训练(Pre-training)的**100万倍**[175] * 训练数据将从互联网数据为主,转向以**合成数据**为主[176] * 训练和推理的界限将变得模糊,公司希望未来**99%** 的计算资源用于产生经济价值的推理[177][178] 五、 竞争格局与公司战略 * **竞争优势**: * **全栈能力**:提供从芯片、系统、网络到软件的全栈解决方案,这是服务40%非CSP市场的必要条件[26][28] * **年度创新节奏**:通过内部掌控所有芯片、软件栈和系统,实现每年推出新产品的快速迭代能力[165][166] * **价值交付**:通过持续提升“每瓦每秒令牌数”的价值,使客户愿意为新一代更高价格的产品付费,从而维持毛利率[20][107] * **与超大规模云服务商(CSP)关系**:既是供应商(竞争部分),也是其**最佳销售力量之一**,通过CUDA生态为CSP带来大量客户[23][24][27] * **对竞争的看法**:认为单纯比较芯片价格是“不理解AI”的表现,真正的比较应基于“每瓦每秒令牌数”的工厂产出效率[110][111][142] 六、 运营与供应链 * **产能与供应**: * 为满足未来需求,公司正在建设基础设施和工厂,并与供应链伙伴进行长期合作,甚至预付款项以支持其产能增长[15][99] * 公司保持库存和供应管道,以应对客户突增的紧急计算需求[17] * 整体供应系统处于“和谐”状态,没有单一瓶颈,能够满足1万亿美元以上的需求[115][117] * **公司架构**:管理团队架构与产品架构对齐,由**60人**的核心直接团队领导,确保跨技术领域的快速协同决策[164][165] 七、 其他要点 * **现金使用优先级**:1)为增长提供资金,支持供应链;2)投资生态系统(CUDA开发者、AI原生公司);3)通过股票回购和股息回报股东[99][100][101] * **市场集中度**:下游市场存在一定集中度,但公司通过支持多种模型(OpenAI、开源模型、Anthropic等)和多种部署模式(云、本地、边缘)来分散风险[155][156][158] * **智能体采用案例**:已有用户报告其Claw智能体一天消耗了**5000万令牌**,成本约**50美元**,展示了生产力提升的潜力[53]
NVIDIA (NasdaqGS:NVDA) Conference Transcript
2026-03-18 01:02
纪要涉及的行业或公司 * 公司为英伟达 (NVIDIA),行业涉及人工智能 (AI)、加速计算、半导体、云计算[4][5][6] * 讨论围绕英伟达的AI技术路线图、产品组合、市场战略和财务前景展开[6][14][15] 核心观点和论据 **1 技术拐点与产品路线图** * 当前AI发展处于第三个拐点,即“代理系统 (Agentic Systems)”阶段,其特点是能够自主执行任务,而不仅仅是回答问题[6] * 公司拥有对Blackwell和Rubin产品超过1万亿美元 (over $1 trillion plus) 的强劲需求和可见性,预计在2027年底前将持续获得、预订和交付更多业务[14][15] * 下一代Vera Rubin系统预计将在Groq之前开始发货[60][62] * 公司通过每年一次的产品发布节奏和全栈技术所有权(芯片、平台、软件、网络、存储),维持其竞争优势和快速交付能力[111][112][113] **2 商业模式与价值主张** * 客户购买计算机是为了生产“代币 (tokens)”,因此计算机的价值在于其生产代币的效率和成本,而非计算机本身的售价[17][18] * 公司通过每一代产品提供远超上一代的代币生产价值(每秒代币数、每瓦特代币数),使得客户宁愿以更高价格购买新一代产品,而非低价购买旧一代产品[18] * 公司与超大规模云服务提供商 (CSPs) 的关系是共生共赢:公司为CSPs带来客户(CUDA开发者、AI原生公司),是CSPs最好的销售力量之一[21][22][23] * 公司的业务构成可大致分为60%的超大规模云服务商和40%的区域云、工业、企业本地部署等,而后者完全离不开公司的全栈解决方案[23][24] **3 市场动态与增长驱动** * 2024年是“推理之年 (year of inference)”,公司展示了在推理领域的领导地位[19] * 公司覆盖的AI模型范围大幅扩大,包括OpenAI、开源模型、Anthropic、xAI等,这解释了公司在巨大体量下增速仍在加快[20][21] * 预计整个IT软件行业(约2万亿美元)将被AI改造和转型,未来的IT公司将通过集成AI模型并转售代币来改变商业模式,市场规模可能变得更大[39][40][41][45] * 随着市场成熟和细分,代币生产将出现不同层级和价格点,类似于iPhone或汽车行业的发展路径[68][75] * 物理AI(与实体世界交互)的拐点将在几年后到来,届时工业侧(目前占40%)的需求可能会增长,并最终超过数字AI相关的部分[51][52] **4 产品组合与架构演进** * Groq是一种专注于极低延迟、确定性响应的架构,其芯片上SRAM几乎占据整个芯片面积,但编程不易且不灵活[64][65] * 公司将Groq与Vera Rubin及GPU融合,用于处理自回归模型(如语言模型)的最后阶段,该阶段对带宽要求极高[66] * 增加Groq来处理25%的工作负载,将使客户在GPU计算上的支出增加约25%,这部分未包含在上述1万亿美元可见性中[89][90] * 与Grace Blackwell平台相比,Vera Rubin平台通过增加存储、CPU工具使用等,可能带来额外约50%的市场机会[91] * 公司是当今唯一能跨三种内存(HBM、LPDDR5、SRAM)优化AI工厂架构的公司[84] **5 财务与资本配置** * 公司目前每几天产生10亿美元现金 ($1 billion every couple of days)[93] * 现金使用的优先顺序是:1) 为增长提供资金,包括与供应链的长期合作和预付款;2) 投资生态系统(CUDA开发者、AI原生公司);3) 在完成前期投资承诺后,通过股票回购等方式回报股东[93][94][96][97] 其他重要内容 **关于训练与推理的展望** * 训练已从预训练 (pre-training) 发展到后训练 (post-training),后训练涉及的技能学习所需的计算强度可能是预训练的约100万倍[121] * 未来的预训练数据将主要来自合成数据,并且会加入多模态和物理交互[122] * 推理和训练之间的界限将变得越来越模糊,学习与应用将是连续的过程[123] * 公司的希望是未来99%甚至100%的计算资源用于产生经济价值的推理,而非训练[124] * 推理极其复杂且难度在不断上升,公司去年全力投入推理领域正是基于对此趋势的判断[125] **关于竞争与行业格局** * 公司的全栈能力(而不仅仅是芯片)是服务那40%非超大规模云客户的关键,这些客户购买的是平台而非芯片[24] * 公司根据客户意图将其分为三类:想自研芯片的(公司需与之竞争)、想在其云中托管英伟达客户的(公司为其带来客户)、需要购买完整系统的基础设施客户[105][106] * 公司认为其组织架构、使命和能力完全对齐于每年交付复杂AI工厂系统的承诺,这是其能够持续保持领先的原因[110][114] **具体数据与预测** * 工程师的“代币预算 (token budget)”已成为现实,公司认为雇佣年薪30万美元 ($300,000) 的工程师却不消耗代币是不合理的[7] * 有Reddit帖子提到某人的“Claw”一天消耗了5000万代币,成本约为50美元[53] * 公司希望日薪2000美元 ($2,000 a day) 的员工能每天消耗1000美元 ($1,000 a day) 的代币,因为这能极大提升生产力[54] * 当前代币的市场价格点大约在每百万代币6美元 ($6 per million tokens) 左右,但公司认为对于超大型、超快模型,客户愿意支付高得多的价格(如每百万代币50美元)[74] * AI公司(如Anthropic, OpenAI)正以史无前例的速度增长,营收每周增加10亿或20亿美元 ($1 billion or $2 billion a week)[39]
MindVLA-o1发布会提了一个指引理想未来十年做什么的问题
理想TOP2· 2026-03-17 22:51
公司战略愿景与核心问题 - 公司未来十年的核心目标是构建一个可在真实世界中运行的“数字大脑”,即用于控制物理实体的硅基数字大脑,这被视为在创造“硅基生命” [1][3] - 公司认为未来AI将分为纯数字比特世界和具身智能,而公司同时致力于应用于物理实体的硅基数字大脑和物理实体本身 [3] 自动驾驶战略的演变 - 公司第一个十年的主线曾认为自动驾驶是智能车的终局,2025年前的所有工作都是为了获取自动驾驶的“门票”,而做出有市场竞争力的车是获取门票的前提 [4] - 公司创始人早期虽坚信自动驾驶能实现,但不知具体路径,因此初期策略是坚决只做增程式电动车,等待产业链成熟到可实现10分钟补充400公里CLTC续航后再发布纯电车型 [5] - 尽管早期认定自动驾驶是终局,但直到2023年公司才开始投入大资源研发,这源于对发展节奏的把握,认为不同阶段应做不同的事 [6] - 到2026年3月,公司已明确自动驾驶并非终局或胜负手,而是一件未来必须完成的基础事项,之后还有更多发展空间 [8] 自动驾驶技术路径的四个阶段 - **第一阶段**:专注于如何更好地感知和设定人类先验规则,让车辆实现自动驾驶,此时自动驾驶本身就是全部目的 [9] - **第二阶段**:与如何更好地结合模仿学习和语言处理复杂问题做斗争,自动驾驶仍占据大部分目的,但已是构建有智能的硅基大脑的萌芽 [9] - **第三阶段**:与如何基于强化学习让语言更好地融入决策做斗争,核心是让模型更聪明(理解物理世界)并降低时延,这实质上已是在构建有智能的硅基大脑 [9] - **第四阶段**:组织层面已形成共识,目标是构建一个可迁移到其他物理实体的硅基大脑,实现自动驾驶只是必须完成的第一步,随后可快速拓展至如做家务的人形机器人等领域,公司以三年实现的心态推进,但预计实际需时更久 [9] 公司竞争力与未来方向 - 公司前两代车的成功核心在于汽车产品定义,在偏硬件的汽车部分,约有10家友商可深入学习其精华,但在车机系统方面,友商仍未学到核心 [10] - 公司接下来计划通过具身智能的软硬一体综合体验硬实力(类比苹果靠芯片+操作系统拉开差距)结合产品定义来建立竞争优势 [11] - 2026款L9的市场反应存在高度不确定性,但公司确定将坚决进行升维竞争,其成功与否高度依赖于创始人本人的智力水平、决策质量和进化速度,经营数据不佳时会引发更多质疑 [11] 创始人认知与公司转型 - 从2022年9月开始,创始人对AI的理解深度和重视程度逐年大幅提升,在此之前的公司主要聚焦于做好车本身 [7] 行业类比与启示(英伟达案例) - 2007年英伟达发布CUDA时,被华尔街分析师批评为浪费数十亿美元在一个不存在的市场,2008年其股价年内下跌76%,市值跌至约45亿美元 [12] - 2008年众多投资人要求英伟达削减研发投入,特别是看不到收益的CUDA,但创始人坚持每颗芯片都必须支持CUDA [12] - 2009年,因支持CUDA导致芯片核心面积和功耗增加,英伟达GeForce显卡在游戏性能竞争中处于劣势,该财年公司净亏损3000万美元,研发支出达8.55亿美元,财务部门和部分高管建议削减CUDA等非核心项目 [12] - 销售团队反馈除极少数大学实验室外,几乎没有商业客户愿为CUDA付费,认为创始人在追求一个“幻觉市场” [13] - 面对分析师质疑,创始人回应CUDA是计算的未来,不做CUDA公司将沦为普通的商品芯片供应商 [13] - 深度学习转折点AlexNet于2012年9月提交,2013年英伟达数据中心业务营收为3.3亿美元,公司市值90亿美元;到2018年,其数据中心营收首次突破100亿美元,达到19.32亿美元,公司市值达到810亿美元 [13]
2 Reasons NVIDIA's Secret Weapon Has Staying Power
247Wallst· 2026-03-17 22:33
文章核心观点 - 英伟达通过其生态系统(特别是CUDA软件层和与Groq的合作)构建了强大的竞争护城河 这使其能够维持高利润率并锁定客户 即使在人工智能推理时代面临更激烈的竞争和定制化芯片解决方案的挑战 [1][4][5][7][10] 生态系统与客户锁定 - 公司的秘密武器并非其GPU芯片 而是围绕芯片构建的完整生态系统 包括软件和工具 这使得客户难以脱离其生态 即使竞争对手的产品更便宜或能提供更好的效率 [4][5] - 随着公司在整个技术栈持续创新 客户可能会被长期锁定 持续进行升级 [5] - 公司通过CUDA-X Agentic Libraries和NemoClaw等新工具 进一步增加了用户转换的难度 这些工具被认为领先行业数年 [11] 软件与CUDA护城河 - CUDA软件层是英伟达在人工智能硬件竞争中的关键经济护城河 帮助其保持领先地位 [10] - 公司持续增加其软件栈的内容 这可能使CUDA进一步拉开与竞争对手的距离 [10] - 对于希望尝试量子计算(如CUDA-Q模型和工具链)或Omniverse平台的公司而言 英伟达是首选平台 [11] 战略合作与市场定位 - 公司在2025年底与Groq达成重大合作 这有助于其在人工智能推理时代取得优势 [7] - Groq的语言处理单元可能帮助英伟达为以智能体驱动的拐点做好准备 并增强其生态系统内的体验 [9] - 公司正大力推进“人工智能工厂”游戏计划 并通过与主要硅芯片玩家的合作击败竞争对手 [9] 财务与竞争前景 - 公司毛利率接近**75%** 堪比软件公司 [4] - 尽管半导体领域竞争加剧 会出现非英伟达的赢家 但基于价值考量 持有其股票仍有意义 [9] - 公司面临的主要风险是超大规模云服务商可能愿意付出代价 从头到尾控制自己的人工智能技术栈(从芯片到软件) [12] - 对于不愿意重复造轮子的公司而言 英伟达作为智能体人工智能和量子人工智能的推动者 值得坚持选择 [12]
黄仁勋的Token经济学
经济观察报· 2026-03-17 22:23
文章核心观点 - 英伟达CEO黄仁勋在GTC大会的演讲核心并非仅是提出万亿美元的AI基础设施需求预期,而是阐述了一套新的商业逻辑:数据中心正从训练模型的场所转变为生产Token的工厂,这背后是AI推理需求爆发、Token分层定价以及硬件架构革新共同驱动的商业模式变革 [1][4] GTC大会与市场反应 - 2025年3月16日至19日,英伟达在美国圣何塞举行GTC大会,黄仁勋发表超过两小时主题演讲 [2] - 黄仁勋预测,到2027年全球AI基础设施相关需求将达到1万亿美元,并认为实际需求可能更高,产品将供不应求 [2] - 此预测发布后,英伟达美股股价瞬时跳涨超过4% [2] - 然而A股算力产业链股票在次日开盘后集体下跌,天孚通信收盘跌幅超10%,长光华芯收盘跌幅达9.72%,多数龙头股回吐了近5日涨幅 [2] - 市场落差源于时间尺度差异,黄仁勋讲的是未来需求,且下一代Feynman芯片架构要到2028年才上市,同时A股电子板块当时平均市盈率约82倍,市场存在估值担忧 [3] Token工厂:新的商业逻辑 - Token是大语言模型处理信息的基本单位,一个汉字大约对应一到两个Token [6] - AI消耗Token的量级自2022年底ChatGPT上线后经历了数次跳跃:ChatGPT使AI学会生成内容;o1模型使AI学会推理和反思;Claude Code使AI能执行复杂任务,单任务消耗Token量比简单对话多出好几个数量级 [7] - AI工作分为训练和推理两个阶段,过去全球购买GPU主要用于训练,现在重心已向推理转移 [8] - 推理服务商的业务规模过去一年增长了100倍,国内推理服务器在出货金额上占比已接近60% [8] - Token尚未形成统一市场定价体系,黄仁勋提出了未来可能出现的五档分层定价:免费层、中等层(每百万Token约3美元)、高级层(每百万Token约6美元)、高速层(每百万Token约45美元)、顶级层(每百万Token约150美元) [9] - Token价格取决于模型大小、上下文长度和响应速度,顶级层定价对应的是AI能处理此前无法完成的任务,例如一次性读完一整份合同或整个代码库 [9] 数据中心经济模型的变革 - 数据中心受电力限制,在固定功率下,单位电力产出Token最多的运营者生产成本最低 [11] - 黄仁勋展示了一组数据:同一个1吉瓦(GW)的数据中心,使用当前Blackwell架构年营收约300亿美元,换用新一代Vera Rubin架构约1500亿美元,再加上Groq LPU推理加速器后可达约3000亿美元,同一数据中心换设备后营收可相差10倍 [11] - 英伟达2026财年全年营收2159亿美元,其中数据中心业务贡献1937亿美元 [12] - 万亿美元需求预期的逻辑在于:客户现有数据中心未被充分利用,换上新一代设备后,在同等电力条件下可通过生产更多、更贵的Token使收入翻数倍 [12] - 未来企业CEO将密切关注其“Token工厂”的效能,因为这直接关系到收入 [13] - 随着工程师日常广泛使用AI工具,企业为员工使用AI的开销将大到需要单独列预算,黄仁勋预测未来每位工程师入职时获得的年度Token预算金额大约相当于其基础薪资的一半 [13][14][15] 硬件架构:Vera Rubin平台与Groq LPU - GTC大会上正式发布了Vera Rubin平台,这是一个完整的系统而非单一芯片,采用百分之百液冷设计,安装时间从两天压缩到两小时 [17] - Vera Rubin核心机架NVL72集成72颗Rubin GPU和36颗Vera CPU,通过NVLink 6相连,与上一代Blackwell相比,每瓦推理吞吐量最高提升10倍,单Token成本降至十分之一 [17] - 同时发布了全新88核Vera CPU,为AI智能体场景优化,微软CEO确认首批Vera Rubin机架已在Azure上运行 [18] - Vera Rubin在处理高并发Token生成(如每秒超过400个Token)时存在带宽短板,此缺口由Groq公司的LPU技术补足 [19] - Groq LPU与GPU是两种不同的芯片:GPU内存大(如Rubin GPU有288GB)、算力强,适合复杂计算;LPU内存小(仅500MB)但读写速度极快,在生成Token的速度和延迟上远优于GPU [19] - 英伟达通过Dynamo推理调度软件实现“解耦推理”:将需要大量算力和内存的上下文理解交给Vera Rubin处理,将对延迟敏感的Token生成交给Groq LPU,两者通过以太网协同工作,延迟减少约一半 [19] - 这套组合在高速层(45美元/百万Token)和顶级层(150美元/百万Token)实现了相比上一代35倍的性能提升 [20] - 从更长维度看,同一个1GW数据中心,Token生成速率可在两年内从每秒2200万提升到7亿 [20] - 黄仁勋建议客户:若以高吞吐批量推理为主,可完全使用Vera Rubin;若有大量编程、实时交互需求,可将25%的数据中心算力配置Groq LPU [20] - Groq 3 LPU由三星代工,已在量产,预计2025年第三季度出货 [21] 软件生态与未来路线 - 软件方面,英伟达发布了企业级智能体平台NemoClaw,为近期火爆的开源项目OpenClaw增加企业安全层 [21] - OpenClaw在几周内成为GitHub上增长最快的开源项目,黄仁勋将其地位抬升至与Linux同级,称其为智能体计算机的操作系统 [21] - Adobe、Salesforce、SAP等17家企业软件公司已宣布采用英伟达的Agent Toolkit [21] - 路线图方面,英伟达预告了2028年上市的下一代Feynman架构,首次同时支持铜缆和CPO(共封装光学)两种互连方式 [21] - 2025年是CUDA诞生20周年,英伟达目前60%的业务来自全球前五大云服务商,另外40%分布在主权AI、企业、工业、机器人等领域 [21] 其他领域合作 - GTC大会上,英伟达宣布了与Uber、比亚迪、吉利、现代、日产、五十铃在自动驾驶领域的合作 [22] - 受此消息推动,港股汽车板块在3月17日集体走强,吉利汽车盘中一度涨超5%,最终收涨4.55% [22]
黄仁勋GTC完整演讲:生成Token的成本与效率,决定科技企业的营收与生死
虎嗅APP· 2026-03-17 22:03
英伟达的战略定位与产业愿景 - 公司正从芯片制造商转型为AI时代的“发电商”,通过全面掌控能源、芯片、基础设施、模型、应用这五层蛋糕,构建统治下一个时代的AI工厂 [2] - AI时代正从单纯的数字生成时代,深化为物理AI大爆炸以及代理式AI全面普及的时代,AI将拥有在三维物理世界中行动与交互的实体能力 [2] - 公司致力于打造全球每Token成本最低的计算方案,因为Token是AI时代新的基础货币,其生成成本与效率直接决定了科技企业的营收 [3] 市场规模与算力需求 - 到2027年,全球计算需求将突破1万亿美元大关 [3] - 过去两年计算需求增长了10000倍,使用量可能增长了100倍,公司相信计算需求在过去两年里增长了一百万倍 [32] - 到2026年,Blackwell和Rubin架构的采购订单总额将达到5000亿美元,而到2027年这一数字将至少达到1万亿美元 [32] 下一代计算架构与平台 - 下一代Vera CPU + Rubin GPU架构专为AI代理系统打造,能在一个系统中连接多达144个GPU,并实现硬件与软件的彻底垂直整合 [5] - 新架构结合液冷技术和封装光学器件,预期能为企业带来高达5倍的营收产出比 [5] - Vera Rubin平台提供3.6 Exaflops算力和每秒260 Terabytes的全对全带宽,算力在10年内提升了4000万倍 [43] - Vera Rubin系统已实现100%液冷,安装时间从两天缩短至两小时,并使用45度温冷却以降低散热成本 [44] 软件生态与CUDA护城河 - CUDA生态诞生20周年,已在全球累积数亿GPU的装机量,渗透进每一个技术生态 [6][12] - 庞大的CUDA装机量是推动飞轮效应的核心动力,吸引了开发者并催生了新市场 [12] - 公司发布了用于结构化数据处理的cuDF和用于非结构化AI数据的cuVS两个基础库 [16] - 公司正在研发下一代图形技术DLSS 5.0,这是3D图形与人工智能(神经渲染)的融合 [15] 代理式AI与操作系统 - 公司推出了NemoClaw参考堆栈,相当于为代理式计算机打造了一个专用的操作系统底座,让开发者能快速构建、部署和加速个性化AI Agent [7] - OpenClaw成为人类历史上最受欢迎的开源项目,它是一个超级连接器和全局化的智能体系统,本质上是一个操作系统 [69][71] - 公司宣布全力支持OpenClaw生态,并推出了具备企业级安全和隐私保护能力的NemoClaw参考实现 [69][74] 物理AI与机器人技术 - 公司强调物理AI的概念,AI必须学会理解重力、摩擦力以及复杂的三维物理空间 [8] - 在自动驾驶领域,比亚迪、现代、日产等头部车企已加入公司的Robotaxi就绪平台 [8] - 公司发布了专为人形机器人打造的通用基础模型Project GR00T,并大幅更新了Isaac机器人平台 [8] - 自动驾驶汽车的ChatGPT时刻已经到来,公司自动驾驶出租车平台新增四位合作伙伴,其年产量达1800万辆 [80] 垂直整合与横向开放 - 公司是一家垂直整合但同时横向开放的公司,深入理解各垂直行业和领域,并开发相应的库 [26][27] - 通过将软件、库和技术与合作伙伴的技术结合,集成到任何目标平台,将加速计算带给世界上的每一个人 [27] - 公司拥有触达各大垂直领域的领域特定库,例如金融服务、医疗保健、工业、量子计算等 [27][28] 推理之年与Token经济学 - 2025年是公司的推理之年,致力于在AI的每一个阶段都表现出色 [35] - 公司60%的业务来自前五大超大规模云服务商,另外40%的业务遍布区域云、主权云、企业、工业等领域 [35][36] - Token正在成为一种新的大宗商品,市场将出现细分,从免费层级到每百万Token收费150美元的高级模型服务 [45][46] - 在给定的功率下,AI工厂的吞吐量和Token生成速度将直接决定明年的收入 [44] 收购与架构整合 - 公司收购了Groq芯片研发团队并获得技术授权,以打破同时兼顾高吞吐量与极低延迟的物理瓶颈 [52] - 通过名为Dynamo的软件实现解耦推理,将高吞吐量计算任务交给Vera Rubin,将解码生成等负载卸载给Groq [54] - 整合Groq技术的新一代Vera Rubin系统实现了高达35倍的性能飞跃 [55] 产品路线图与未来架构 - 公司正以每年一次的极速节奏推进架构迭代,从芯片公司蜕变为提供AI工厂和基础设施的系统级公司 [64] - 下一代Rubin Ultra芯片正在流片中,将首发搭载革命性的NVFP4计算架构 [61] - 之后将迎来代号为Feynman的全新一代架构,拥有全面革新的GPU和由公司与Grok团队打造的全新LPU——LP40芯片 [62] AI工厂设计与运营 - 公司打造了Omniverse及其延伸的DSX平台,这是一个用于联合设计吉瓦级超级AI工厂的数字孪生平台 [64] - DSX平台能直接与现实世界的电网连接,动态统筹调度数据中心功耗以节约能源,并引入Max-Q技术进行动态负载均衡 [64] - 公司计划在太空中建设数据中心,正研发名为Vera Rubin Space One的新型计算机 [66] 开放模型与主权AI - 公司处于每一个AI模型领域的最前沿,拥有涵盖语言、视觉、生物学、物理学等领域的近三百万个开放模型 [74][75] - 公司宣布成立Nemotron联盟,致力于开发更出色的基础模型,以帮助每个国家建立其主权AI [76] - 公司的开放模型为研究人员和开发人员提供了构建其专业领域AI的基础,模型在多个领域位列排行榜第一 [75][76]
T. Rowe Price bullish on Nvidia's robotics and physical AI frontiers
247Wallst· 2026-03-17 19:05
文章核心观点 - T Rowe Price分析师看好英伟达在机器人技术和实体人工智能领域的发展前景 认为这将是继数据中心AI之后的下一个主要拐点 并论证了英伟达凭借其强大的财务实力、专有软件栈和不断扩大的生态系统 有望成为实体AI的基础平台 其当前估值相对于平台的长期盈利潜力可能显得保守[1][3][8][11] 财务实力与竞争护城河 - 英伟达在2026财年产生了965.8亿美元的自由现金流 仅第四季度就达349亿美元 显示出强大的财务实力和定义下一代平台的能力[1][6] - 公司的竞争护城河不仅在于GPU硬件 更在于其完整的垂直领域专用软件栈 包括CUDA、Isaac、Cosmos、Omniverse、BioNeMo和DRIVE 竞争对手需要约十年时间才能从头复制其开发工具和生态系统深度[1][7] 机器人技术与实体AI发展 - 实体AI是连接软件智能与现实世界的桥梁 被视为数据中心AI之后的下一个主要拐点[1][2][8] - 英伟达通过Isaac GR00T人形机器人基础模型和Cosmos世界模型为机器人开发者提供了领先优势 其IGX Thor边缘计算平台则将实时实体AI能力扩展至工厂和工业环境[9] 生态系统合作伙伴与市场验证 - 优步与英伟达合作 计划从2027年开始部署10万辆自动驾驶汽车 构建一个支持L4级别的出行网络 优步CEO认为这使其明确成为全球最大的自动驾驶出行服务商 这证明了英伟达自动驾驶技术栈的生态系统影响力和实际部署势头[1][2][10] - 分析师认为 优步的案例证明了英伟达平台生态系统的覆盖范围[1] 市场预期与估值 - 分析师对英伟达的共识目标价为267.54美元 而当前股价为183.22美元[11] - 长期核心问题在于英伟达是否能成为实体AI的基础平台 就像它在数据中心AI领域一样 如果机器人和自动驾驶汽车生态系统的规模能接近云AI的发展轨迹 那么当前的估值倍数相对于该平台的长期盈利能力可能显得保守[11] 对比分析 - 与英伟达相比 甲骨文面临资产负债表和投资回报率的限制 这制约了其资助下一代平台的能力[1]