Workflow
cuVS
icon
搜索文档
英伟达龙虾登场!黄仁勋暴论频出,「人车家天地芯」冲击万亿收入
36氪· 2026-03-17 17:47
文章核心观点 - 英伟达在GTC 2026上宣布其战略重心全面转向智能体(Agentic AI)时代,并发布了专为此设计的Vera Rubin架构及一系列芯片、系统和软件,旨在构建一个从底层硬件到上层应用、从地面到太空的完整智能体生态系统,巩固并扩大其在AI时代的统治地位 [6][8][39][96] 英伟达Vera Rubin架构发布 - 发布专为智能体AI和强化学习时代打造的全新Vera CPU,其效率是传统机架式CPU的两倍,速度提升50% [16] - Vera Rubin架构包含七款芯片:Vera CPU、Rubin GPU、NVLink™ 6交换机、ConnectX-9超级网卡、BlueField-4 DPU、Spectrum™-6以太网交换机及新集成的Groq 3 LPU [17] - 包含五套机架系统:Vera Rubin NVL72机架、Vera CPU机架、Groq 3 LPU机架、BlueField-4 STX存储机架及Spectrum-6 SPX以太网机架 [17] - Rubin GPU单片芯片拥有高达288GB的海量内存,用于装载超大语言模型和处理海量上下文KV缓存 [19] - 新一代NVLink带宽翻倍至260TB/s,并推出全新Kyber机架,在一个NVLink域内直接互联144张GPU [20] 智能体操作系统与开源生态 - 黄仁勋判断开源项目OpenClaw将堪比这个时代的Linux或HTML,是一套能调用大模型、管理任务、协调子智能体并进行多模态沟通的智能体操作系统 [28] - 每一家SaaS公司最终都将转变为“智能体即服务”(AgaaS)公司,CEO必须思考自己的OpenClaw战略 [31] - 为解决企业安全顾虑,英伟达联合推出NeMoClaw参考架构,内置OpenShell等技术,让企业能在私有环境中安全运行智能体系统 [33][35] - 英伟达提供一整条开源模型产品线,包括Nemotron(语言推理)、Cosmos(世界建模)、Groot(通用机器人)、Alpha Mayo(自动驾驶)、BioNeMo(数字生物学)、Earth-2(AI物理仿真),并将持续迭代更新 [37] - 宣布与Black Forest Labs、Cursor、LangChain、Mistral、Perplexity、Sarvam及Thinking Machines等合作伙伴共同推进Nemotron 4研发 [37] 算力架构创新与性能突破 - 为应对智能体对极致低延迟的需求,英伟达通过Dynamo软件首创“解耦推理”,将推理任务的前段Prefill和Attention交给Vera Rubin处理,后半段Decode卸载给Groq LPU以降低延迟 [24][30] - 在高阶推理层级,这种组合使性能提升35倍,每兆瓦吞吐量也提升35倍 [26] - Grace Blackwell NVLink 72的实际每瓦性能提升达到50倍,远超摩尔定律预期的约1.5倍 [74] - 通过更新算法与软件,Fireworks等服务商的token生成速度从每秒700个跃升至接近5000个,提升7倍 [80] 重塑数据处理与数据中心 - 英伟达发布底层杀器cuDF,用GPU并行算力直接处理结构化数据,绕过传统CPU [59] - 发布针对向量数据库和非结构化数据的cuVS,旨在用AI方式重新定义企业数据处理方式 [61] - 雀巢公司采用英伟达加速的IBM Watsonx.data后,处理全球供应链数据的速度提升5倍,成本降低83% [61] - 英伟达通过深度嵌入云端的算法库,使云服务巨头(Google Cloud、AWS、微软Azure、Oracle)成为其算力和框架的分销渠道 [62] - 发布NVIDIA DSX平台,基于Omniverse数字孪生技术,在虚拟空间中仿真整座AI工厂以优化设计,配合Max-Q技术动态调节功耗与算力 [76][77] 市场前景与收入预测 - 根据黄仁勋判断,到2027年底,其Blackwell和Rubin芯片将至少创造1万亿美元收入,且实际需求可能远超此保守估计 [69] - 高难度推理被视为AI领域最重要且最难的事,因为它直接带来收入增长,英伟达为此彻底改变架构并优化整个技术栈 [71][72] - 未来每一家公司都会认真思考其“token工厂”的效率问题,因为算力即收入本身 [80] 垂直整合与生态构建 - 英伟达自称为世界上第一家“垂直整合,却又水平开放”的公司,向下自造芯片和系统,向上深入理解各行业应用场景 [63][64] - 其业务覆盖金融量化交易、医疗研发、电信边缘计算等多个行业,并通过机密计算技术打消企业数据安全顾虑 [65] - 公司通过将自身封装成底层算法库,像水电一样接入全球基础设施,看似分享利润,实则掌握AI时代命脉 [67] 物理AI与自动驾驶布局 - 黄仁勋宣告自动驾驶的“ChatGPT时刻”已经到来 [85] - RoboTaxi Ready平台新增比亚迪、吉利、五十铃、日产四位伙伴,这四家车企年产量合计约1800万辆,加上已有的梅赛德斯、丰田和通用,覆盖全球重要整车制造商 [86] - 与Uber签署协议,计划将无人出租车部署至多个城市并接入其全球出行网络 [88] - 在工业机器人领域与ABB、Universal Robots、库卡等合作,卡特彼勒的加入意味着重型工程机械走向智能化 [88] 前沿探索与未来愿景 - 英伟达Thor芯片已通过抗辐射认证并应用于卫星,正与合作伙伴研发名为NVIDIA Space-1 Vera Rubin的新型计算机,目标是在太空中建设数据中心 [81] - 与迪士尼、Google DeepMind联合研发的Newton物理引擎,用于在Omniverse中训练机器人(如雪宝),使其适应现实物理规律,未来迪士尼乐园角色将拥有真正智能并与游客互动 [91] - 从游戏显卡到AI算力,英伟达用20年时间“造了一台造风机”,如今已化身为永不停歇的Token生产厂,算力即权力,生态即壁垒 [47][96]
英伟达GTC大会聚焦AI技术发展,黄仁勋称Token为AI时代基础单元
环球网资讯· 2026-03-17 11:45
公司战略与定位 - 公司定位为算法平台公司,其打造的cuDF、cuVS等数据加速库已被谷歌云、Azure、AWS等全球领先云平台采用[3] - 公司凭借技术、成本与生态的综合优势,自称为全球AI领域的“Token King”,未来将持续以技术创新推动AI产业发展[4] - 公司业务布局全面,目前60%的业务聚焦于超大规模企业,几乎覆盖所有建设AI GPU数据中心的企业;其余40%的业务广泛辐射云计算、企业服务、机器人、游戏、超级计算等多个领域[4] 核心技术里程碑与观点 - 公司首席执行官在GPU技术大会上提出,Token(词元)是新一代AI时代的基础构建单元[1] - 公司庆祝CUDA架构诞生20周年,强调CUDA架构作为驱动加速计算的“核心飞轮”,正推动加速计算逐步超越摩尔定律[1] - 经过20年发展,公司已在全球构建起数亿台运行CUDA的GPU及计算系统,技术深度渗透至各大云端平台与计算机企业,服务覆盖全球几乎所有行业[3] 产品性能与商业价值 - 公司的数据加速库显著提升数据处理效率,其中cuDF在处理结构化数据时,能让数据引擎运行速度提升高达5倍;cuVS能有效加速非结构化数据的特征提取过程[3] - 社交平台Snap部署cuDF后,每日数据处理成本锐减76%,仅用三小时就能完成10 PB数据的分析工作,直接节省数百万美元成本[3] - 公司实现了全球最低的每Token处理成本,这一优势能有效降低企业的AI研发与应用成本,帮助企业拓宽利润空间[4] 生态与开源实践 - 大会重点展示了开源项目OpenClaw,并推出“Build-a-Claw”特色活动,参会者可借助DGX Spark工作站或GeForce RTX笔记本,快速部署本地专属AI助手[4] - 该开源活动在保障个人隐私不泄露的前提下进行,让AI技术应用更贴近用户需求,为开源生态发展提供了新实践[4]
刚刚,英伟达龙虾登场,黄仁勋暴论频出,「人车家天地芯」冲击万亿收入
36氪· 2026-03-17 08:50
英伟达GTC 2026核心战略与产品发布 - 本次GTC大会的核心主题是“智能体(Agentic AI)”,标志着公司战略从生成式AI(Generative AI)向能让机器自主执行任务的智能体时代全面演进[1][2][4][5] - 公司发布专为智能体时代打造的Vera Rubin平台,包含芯片、机架系统及超级计算机,旨在构建一个完整的智能体生态系统[4][10][30] Vera Rubin架构与核心硬件 - 发布世界上首款专为智能体AI和强化学习打造的Vera CPU,其效率是传统机架式CPU的两倍,速度提升50%,预计将成为一个价值数十亿美元的业务[9][11] - 推出Rubin GPU,单片集成高达288 GB的海量内存,专门用于承载超大语言模型和处理海量上下文[13] - 第六代NVLink交换机将全互联带宽提升至260 TB/s,是前代Blackwell架构(130 TB/s)的两倍,并推出全新Kyber机架,在一个NVLink域内直接连接144张GPU[13] - 正式推出Groq LPU(语言处理单元),通过“解耦推理”架构,将推理任务的前段(Prefill, Attention)交给Vera Rubin处理,后段(Decode)交给Groq LPU以降低延迟[15][17][18] - Vera Rubin与Groq LPU的组合,在高端推理层级的性能提升了35倍,每兆瓦吞吐量也提升了35倍[20] 软件、模型与开发生态 - 推出开源智能体操作系统OpenClaw,其影响力和下载量在数周内已超过Linux三十年的积累,被类比为这个时代的Linux和HTML[21] - 为解决企业安全顾虑,联合OpenClaw团队推出NeMoClaw参考架构,内置安全防护机制,支持企业在私有环境中安全运行智能体[23][24][26] - 发布并持续投入一整条开源模型产品线,包括Nemotron(语言推理)、Cosmos(世界建模)、Groot(通用机器人)、Alpha Mayo(自动驾驶)等,所有模型均以基础模型形式开放供企业微调[27] - 宣布与Black Forest Labs、Cursor、LangChain、Mistral、Perplexity等多家知名AI公司合作,共同推进Nemotron 4等模型的研发[28] - 发布DLSS 5技术,将传统的“结构化数据”3D渲染与“概率性计算”的生成式AI融合,以生成既逼真又完全受控的视觉内容,此逻辑将被应用于各个行业[38] 数据中心与加速计算战略 - 公司战略目标直指重塑全球企业数据中心,通过cuDF库让GPU直接处理传统由CPU主导的结构化数据查询,以应对AI Agent的百万倍速访问需求[43] - 针对非结构化数据推出cuVS库,用于向量数据库处理,旨在用AI方式重新定义企业数据处理范式[44] - 公司定位为“算法公司”,通过将深度优化的算法库嵌入云端基础设施,使云服务商(Google Cloud, AWS, Azure, Oracle)成为其算力与框架的分销渠道[46][48] - 推出机密计算(Confidential Computing)服务,确保敏感企业数据和模型在完全隔离的环境中运行,消除企业采用AI的安全顾虑[49] 市场前景与财务预测 - 公司创始人预测,到2027年底,其Blackwell和Rubin芯片将至少创造1万亿美元的收入,且实际需求可能远超这一保守估计[50] - 强调AI推理(尤其是高难度推理)是直接带来收入增长的关键领域,公司已为此彻底改变架构并优化全技术栈[52] 性能突破与效率优化 - Grace Blackwell NVLink 72的实际每瓦性能提升达到50倍,远超公司最初宣称的35倍预期[56] - 通过算法与软件优化,公司帮助Fireworks等服务商的token生成速度从每秒700个跃升至近5000个,提升达7倍,展示了“极致协同设计”的潜力[58] - 发布NVIDIA DSX平台,基于Omniverse数字孪生技术,用于在虚拟空间中仿真和优化整个AI数据中心的设计与运营,以解决电力浪费问题[55] 物理AI与机器人应用 - 宣布自动驾驶的“ChatGPT时刻”已经到来,RoboTaxi Ready平台新增比亚迪、吉利、五十铃、日产四位合作伙伴,这些车企年产量合计约1800万辆[61] - 与Uber签署协议,计划将RoboTaxi Ready车辆部署至多个城市并接入其全球出行网络[63] - 在工业机器人领域,与ABB、Universal Robots、库卡、卡特彼勒等企业合作,将物理AI模型集成至仿真系统,推动智能制造[63] - 展示与迪士尼、Google DeepMind联合研发的“雪宝”机器人,其通过Omniverse中的Newton物理引擎训练,实现了自然的动作与交互,预示未来娱乐机器人将拥有真正智能[65][67] 长期战略与生态构建 - 公司的成功源于长达20年的长期投入:通过GeForce游戏显卡培养用户基础,并持续研发CUDA生态,为AI时代的爆发做好了准备[31][32][34][36] - 公司定义自身为世界上第一家“垂直整合,却又水平开放”的公司,既自主研发芯片与系统,又深度理解并开放支持各行各业的应用场景[48] - 公司的算力扩张已不限于地面,其Thor芯片已通过抗辐射认证应用于卫星,并正研发名为NVIDIA Space-1 Vera Rubin的太空计算机,目标是在太空中建设数据中心[58][60]
英伟达GTC大会全文:黄仁勋宣告推理时代到来,龙虾就是新操作系统!
美股IPO· 2026-03-17 07:32
公司战略定位与愿景 - 公司将自身定位为“AI工厂”的构建者,致力于成为全球计算平台转变的核心推动者 [1][5] - 公司提出“Token工厂经济学”,强调每瓦性能是商业变现的核心,未来AI基础设施将按Token产出和成本来衡量价值 [1][31] - 公司CEO断言,到2027年将看到至少**1万亿美元**的高确信度AI基础设施需求,且实际需求可能远高于此 [1][28][29] CUDA生态系统与飞轮效应 - 2024年是CUDA诞生20周年,该架构已积累数千种工具、编译器、框架与库,在开源社区拥有数十万个公开项目,并深度集成至每一个主流生态系统 [6] - 公司通过20年构建了数亿颗运行CUDA的GPU和计算系统,覆盖每一家云服务商和计算机厂商,服务几乎每一个行业,形成了庞大的安装基础 [7] - CUDA的庞大安装基础是飞轮效应的根本原因,吸引开发者、催生新算法(如深度学习)、开辟新市场,进而形成更大的安装基础,该飞轮正在持续加速 [7] - 由于架构兼容性和持续的软件优化,公司六年前发布的Ampere架构云端定价至今仍在上涨,同时计算成本持续下降,形成了“扩大覆盖、加速增长、持续压降成本”的动态组合 [8][9] 技术平台与核心创新 - 公司围绕三大平台展开:CUDA-X平台、系统平台以及全新的AI工厂平台,其中生态系统至关重要 [5] - 公司创建了两个基础库以加速未来AI计算:**cuDF**用于数据框和结构化数据加速;**cuVS**用于向量存储、语义数据和非结构化AI数据加速 [17][18] - 公司核心战略是“垂直整合,水平开放”,深入理解各个垂直领域的算法并将其整合进计算平台,开放给全世界使用 [19][20] - 本届GTC宣布了**100个库**和约**40个模型**的更新,这些库是激活计算平台、解决实际问题的核心资产 [23] - 在图形技术领域,公司推出神经渲染技术**DLSS 5**,融合可控的3D图形与生成式AI,以实现既美观逼真又完全可控的内容生成 [12][13] 推理拐点与AI演进 - AI经历了从“感知”到“生成”,再到“推理”,最终到“执行”的演进,如今的AI能够完成真正富有成效的工作 [25][26] - 推理拐点已经到来,AI每次思考、执行、读取、推理都需要进行推断,导致Token生成需求爆炸式增长 [26] - 过去两年间,驱动AI计算需求的三件大事是:ChatGPT开启生成式AI时代、推理AI(如o1/o3模型)崛起、以及Claude Code与Agentic AI的诞生 [25] - 过去两年,单次工作的AI计算需求提升了约**10,000倍**,使用量提升了约**100倍**,计算总需求的增幅接近**100万倍** [26] 产品路线图与性能突破 - 公司公布了从Blackwell到Feynman的清晰技术路线图,包括Vera Rubin、Rubin Ultra等下一代系统 [38] - 在推理性能上取得根本性突破:从Hopper H200到Grace Blackwell,实际每瓦性能提升达到**35倍**(有分析指出可达50倍),远高于摩尔定律预期的1.5倍 [31] - **Grace Blackwell**在最具商业价值的服务层级,其吞吐量比Hopper提升**35倍**,可将整体数据中心收益提升约**5倍** [32] - 下一代架构**Vera Rubin**专为Agentic系统设计,采用全新“Kyber”机架,支持**144颗GPU**构成单一NVLink域 [36][37] - **Vera Rubin**系统采用**100%液冷**,使用**45°C热水**冷却以降低能耗,安装时间从两天缩短至两小时,并搭载第六代NVLink交换系统 [39] 异构计算与收购整合 - 公司收购了Grok的技术团队并获得技术授权,Grok处理器是确定性数据流处理器,专为推理设计,拥有海量SRAM [40][41] - 公司开发了**Dynamo**推理解耦框架,将推理流程重新架构,使Vera Rubin与Grok芯片协同工作,将延迟降低约**50%**,并在最具商业价值的服务层级实现**35倍**性能提升 [42][43] - **Grok LP30**由三星代工,已投入量产,预计**2026年第三季度**开始出货 [44] - 对于Grok的最优部署策略建议:若工作负载以高吞吐量为主,则采用100% Vera Rubin;若有大量高价值代码生成或高速Token需求,则建议将**25%**算力配置为Grok,其余**75%**保持Vera Rubin [45] AI工厂与基础设施 - 数据中心正在从存储文件的“数据中心”演变为生产Token的“AI工厂” [62] - 在一个吉瓦级AI工厂中,通过架构优化,仅用两年时间Token生成速率可从**2200万**提升至**7亿**,提升幅度达**350倍** [46] - 公司创建了**英伟达 DSX平台**,基于Omniverse进行全系统仿真,让合作伙伴在虚拟世界中共同设计吉瓦级AI工厂,该平台预计能释放约**两倍**的效率提升 [48][49] - 公司业务构成多元:**60%**来自五大超大规模云服务商,**40%**来自区域云、主权云、企业、工业、机器人、边缘和超算等多个领域 [30] Agentic AI与OpenClaw - **OpenClaw**成为一个重大新发现,是有史以来最受欢迎的开源项目之一,在短短几周内超越了Linux三十年的传播速度,它本质上是Agentic计算机的操作系统 [50][51] - 企业IT正经历范式转变,旧模式是“数据中心-软件工具-人类”,新模式是每一家SaaS公司都将成为提供专业化Agent服务的AaaS公司 [53][54] - 每家企业的关键问题已变为制定自己的OpenClaw战略和Agentic系统战略 [52] - 公司与OpenClaw开发者合作,推出企业级安全参考架构**NemoClaw**,配备策略引擎、网络护栏和隐私路由器 [54] 行业应用与生态合作 - 本届GTC涵盖了公司生态的几乎所有垂直领域,包括自动驾驶、金融服务、医疗健康、工业制造、娱乐与游戏、机器人、电信等 [21][22] - 在自动驾驶领域,宣布新增比亚迪、现代、日产、吉利四家RoboTaxi合作伙伴,加上已有的奔驰、丰田、通用,这些合作伙伴每年合计生产**1800万辆**汽车 [60] - 在电信领域(约**2万亿美元**规模),未来的无线基站将演变为AI边缘计算基础设施(英伟达 Aerial AI RAN) [22][60] - 公司宣布与IBM、戴尔、Google Cloud、AWS、Microsoft Azure、CoreWeave、Oracle、Palantir等众多企业达成重要合作 [19][21] - **110台**机器人参展GTC,几乎每家机器人公司都在与英伟达合作 [22] 开放模型与物理AI - 公司已在每个AI领域的前沿模型上确立领导地位,并宣布成立**Nemotron联盟**,与多家公司合作共同打造Nemotron 4模型 [55][56] - 公司长期致力于物理AI与机器人领域,为机器人系统打造了三台关键计算机:训练计算机、合成数据生成与仿真计算机、以及机器人本体内置计算机 [57][58][59] - 展示了与迪士尼联合开发的“奥拉夫”机器人,基于Jetson计算平台和Omniverse训练环境,实现了真实物理世界中的自适应运动 [61]
黄仁勋 GTC 2026 演讲实录:所有SaaS公司都将消失;Token成本全球最低;“龙虾”创造了历史;Feynman 架构已在路上
AI前线· 2026-03-17 07:30
公司战略定位 - 公司已从单一的图形处理器供应商转型为为“数万亿美元AI基建时代”提供完整技术栈的“总包工头” [2] - 公司的核心壁垒是CUDA软件生态及其庞大的安装基数,这形成了强大的“飞轮效应”,吸引了开发者、催生新市场并持续降低算力成本 [3][6] - 公司业务覆盖AI全领域,是全球唯一能运行语言、生物、图形、视觉、机器人、边缘及云端所有AI领域的平台 [18] CUDA生态与飞轮效应 - CUDA架构诞生20年,其单指令多线程(SIMT)架构和“tiles”功能降低了编程难度,并围绕其形成了包含数千种工具、编译器、框架和库的庞大生态 [4] - 公司在全球建立了数亿块运行CUDA的GPU和计算系统,服务每一朵云、每一家计算机公司和几乎每一个行业,构成了飞轮效应的基础 [6] - 飞轮效应表现为:安装基数吸引开发者,开发者创造新算法和技术突破,催生新市场并扩大生态,进而进一步扩大安装基数,同时使计算成本持续下降 [6][7] - 庞大的安装基数使得公司愿意持续优化软件,因为每项新优化都能让数百万用户受益,这延长了硬件(如六年前出货的Ampere架构)的生命周期,甚至在云上出现定价上涨 [6][7] 数据处理基础设施变革 - AI的快速发展正推动全球数据处理体系发生结构性变革,核心是结构化数据与非结构化数据的全面加速 [8] - 企业计算长期建立在结构化数据(数据框)之上,未来AI系统和智能体也将直接访问和使用这些数据库,要求数据处理基础设施获得数量级性能提升 [10] - 全球每年产生的数据中约90%是非结构化数据(如向量数据库、PDF、视频、语音),AI的多模态理解能力正将其转化为可计算的信息资源 [12] - 为支持这一转变,公司构建了两项关键基础技术:用于加速结构化数据处理的cuDF和用于处理非结构化数据及AI数据的cuVS [13] - 这些技术正逐步融入全球数据处理生态,例如IBM正利用cuDF加速其IBM watsonx.data平台 [13] AI原生行业爆发与市场前景 - 2025年风险投资对AI初创公司的投入高达1500亿美元,创历史之最,投资规模跃升至数十亿美元级,因为这些公司普遍需要海量算力和Token [15] - AI行业爆发源于三件大事:ChatGPT开启生成式AI时代、推理AI(如o1/o3)的出现以及Claude Code开启代理(Agentic)时代 [15] - AI已从“感知”进化到“生成”、“推理”,现在可以执行高效的实际工作,“推理拐点”已经到来,过去两年计算需求增长了约10,000倍,使用量增长约100倍 [17] - 公司预见通过2027年的营收将至少达到1万亿美元,2025年是公司的“推理之年” [17] - 公司业务中,60%来自顶级云服务商,40%来自区域云、主权云、企业级服务器及工业自动化 [18] AI推理性能与成本优势 - AI推理是最困难也是最关键的商业环节,它直接决定AI服务的收入来源 [22] - 衡量AI系统效率的关键指标是每瓦特生成多少token,公司从Hopper H200到Grace Blackwell NVLink 72架构,实现了每瓦特性能提升约35倍(分析师认为接近50倍),并带来更低的token成本 [22] - 通过极致的软硬件协同设计(如NVFP4计算架构、NVLink 72、Dynamo、TensorRT-LLM等),公司构建了完整的大模型推理技术体系 [20] - 仅通过更新软件栈,就能将部分AI推理平台的生成速度从约700 token/秒提升至接近5000 token/秒,性能提升约7倍 [25] - 公司的Token成本在全球范围内具有绝对优势,即便竞争对手的架构免费,其总成本(如1GW数据中心工厂15年摊销成本高达400亿美元)也不够便宜 [25] - 数据中心正从存储和计算中心转变为生产token的“AI工厂”,token成为新的数字商品 [27] Vera Rubin AI超级计算平台 - Vera Rubin是一个全新的计算平台,由七款芯片组成,涵盖计算、网络和存储,是目前最先进的POD规模AI平台 [28] - 该平台包含40个机架、1.2千万亿个晶体管、近2万个公司芯片、1152个NVIDIA Rubin GPU、60 exaflops运算能力以及10 PB/s总扩展带宽,目前已全面投产 [28] - 该平台得到了Anthropic、OpenAI、Meta、Mistral AI及所有主要云提供商的支持 [28] - 过去十年间AI计算能力实现了约4000万倍的提升,推动数据中心向“AI超级计算机”形态演进 [30] - Vera Rubin是一套从硬件到软件完全纵向整合的计算平台,专为智能体AI设计,重新设计了计算、存储和网络架构 [31] - 平台硬件包括全新的NVIDIA Vera CPU,该CPU针对高性能、大规模数据处理和能效优化,是全球首个在数据中心采用LPDDR5内存的CPU,并已开始单独销售,有望成为一项数十亿美元级业务 [33] - 系统采用100%液冷架构,通过45°C热水散热降低制冷成本,并将整机安装时间从两天缩短至约两小时 [33] - 网络互连采用第六代NVLink架构,并推出了全球首个CPO光电共封装的NVIDIA Spectrum-X以太网交换机 [35] - 通过Kyber机架架构的Rubin Ultra Compute System,可以在一个NVLink域中连接144个GPU,形成大规模统一计算机 [35] Feynman GPU架构与深度整合 - Feynman GPU架构将采用定制化HBM技术,可能基于HBM4E增强版或定制化HBM5方案,允许将部分GPU数据处理逻辑嵌入存储底层,实现超高带宽与低延迟 [41][42] - Feynman平台将搭载代号为Rosa的全新CPU,该CPU被设计为AI智能体的编排中枢,旨在高效调度GPU、存储与网络之间的Token流动 [43] - Feynman时代标志着公司将计算、存储和封装进行了深度耦合,正将数据中心演进为一台高度集成的“巨型超级计算机” [44] AI基础设施与数字孪生平台 - 公司推出NVIDIA DSX平台,这是一个面向“AI工厂”的基础设施平台,用于数据中心的数字仿真、虚拟调试和运行期动态优化 [46][47] - 数据中心建设阶段可通过工程仿真工具进行虚拟调试,大幅缩短建设周期;运行后其数字孪生系统可作为“操作系统”,由AI智能体动态调度冷却、电力和网络系统以优化效率 [46] - NVIDIA Omniverse平台被设计用于承载全球规模的数字孪生模型 [49] - 公司的AI计算基础设施正在向太空延伸,计划开发Vera Rubin Space One轨道数据中心 [49] 智能体操作系统与软件生态 - 公司高度评价并正式支持开源项目OpenClaw,其增长速度甚至超过了Linux,被视为智能体计算机的操作系统 [52][54] - OpenClaw能够连接大语言模型,管理计算资源,调用工具和服务,具备任务调度与多模态交互能力 [54] - 公司认为未来所有科技和软件公司都需要制定“OpenClaw战略”,因为企业软件正在从传统SaaS转向以智能体为核心的AaaS(Agentic as a Service) [55] - 公司与OpenClaw作者合作推出NVIDIA NemoClaw参考架构,增加了OpenShell安全组件,提供企业级安全扩展,使企业能安全部署智能体系统 [56][58] 开放模型生态与行业应用 - 公司推进开放模型生态,目前生态已包含接近300万个开放模型,覆盖语言、视觉、生物、物理和自动驾驶等多个领域 [59] - 公司已发布多条开放模型产品线(如Nemotron、Cosmos World Foundation Model、Project GR00T等),并开放训练数据和方法,策略是“纵向整合、横向开放” [59][60] - 公司宣布成立Nemotron Coalition联盟,与多家技术公司合作共同推进模型发展 [61] - 在物理AI领域,全球几乎所有机器人公司与公司合作,公司提供从训练平台、仿真到部署的完整技术体系 [62] - 自动驾驶的“ChatGPT时刻已经到来”,车辆具备推理和语音指令执行能力,公司宣布与比亚迪、现代、日产、吉利(合计年产量约1800万辆)以及Uber成为新的Robotaxi合作伙伴 [64] - AI产业正同时经历三大变革:AI推理与AI工厂、智能体系统革命,以及物理AI与机器人时代 [65]
英伟达GTC大会全文:黄仁勋宣告推理时代到来,龙虾就是新操作系统
华尔街见闻· 2026-03-17 06:57
公司核心战略与平台优势 - 公司战略围绕三大平台展开:CUDA-X平台、系统平台和全新的AI工厂平台,并强调生态系统的重要性 [1] - 公司是首家垂直整合、同时水平开放的计算公司,通过深入理解应用和算法,为每个垂直领域带来显著加速和成本降低 [9] - 公司拥有庞大的CUDA安装基础,全球有数亿颗运行CUDA的GPU和计算系统,覆盖所有云服务商和计算机厂商,服务于几乎每个行业,这构成了其飞轮效应的基础 [3] - CUDA平台已积累数千种工具、编译器、框架与库,在开源社区有数十万个公开项目,并深度集成至每个主流生态系统 [2] - 庞大的安装基础和持续软件优化使公司架构的计算成本不断下降,同时基础设施拥有极长使用寿命,例如六年前发布的Ampere架构云端定价至今仍在上涨 [3][4] - 公司宣布了与IBM、戴尔、Google Cloud、AWS、Microsoft Azure、CoreWeave、Oracle、Palantir等企业在结构化与非结构化数据平台上的多项重要合作 [11] 技术演进与架构发布 - 今年是CUDA诞生20周年,其基础是革命性的SIMT(单指令多线程)架构,近年来新增了Tiles支持以优化对Tensor Core和AI数学结构的编程 [2] - 公司展示了图形技术的未来——神经渲染(DLSS 5),将可控的3D图形与生成式AI融合,以生成既美观逼真又完全可控的内容 [7] - 公司宣布了下一代架构Vera Rubin,该系统专为Agentic系统设计,采用100%液冷,安装时间从两天缩短至两小时,并使用45°C热水冷却以降低能耗 [19][21] - Vera Rubin系统的核心是全新的Vera CPU,这是全球唯一使用LPDDR5的数据中心CPU,兼具高单线程性能、出色数据处理能力和无与伦比的能效比 [19] - Rubin Ultra采用全新"Kyber"机架,支持144颗GPU构成单一NVLink域,计算节点从正面插入,NVLink交换机从背面连接,构成一台巨型计算机 [22] - 公司发布了技术路线图,包括当前Blackwell(Oberon系统,支持NVLink 72)、Vera Rubin(Kyber机架)、Vera Rubin Ultra以及下一代Feynman架构 [25] - 公司收购了Grok的技术团队并获技术授权,通过开发的Dynamo推理解耦框架,将Grok处理器与Vera Rubin架构耦合,在最具商业价值的服务层级实现性能提升35倍 [22][27] - 全球首款CPO Spectrum-X交换机(共封装光学)已量产,光子直接集成至芯片,该工艺与台积电联合研发 [24] 市场拐点与需求展望 - AI发展经历了从“感知”到“生成”,再到“推理”和“执行”的演进,推理拐点已经到来,AI每次思考、执行、读取、推理都需要进行推断,导致Token生成需求爆炸式增长 [13][14] - 过去两年间,单次工作的计算需求提升了约10,000倍,使用量提升了约100倍,计算总需求的增幅接近100万倍 [14] - 公司对未来的需求展望从去年预测的至2026年约5000亿美元,更新为至少到2027年需求将达到1万亿美元,且确信实际计算需求将远高于此 [15] - 公司业务构成多元化,60%来自五大超大规模云服务商,40%来自区域云、主权云、企业、工业、机器人、边缘和超算等多个领域,这种覆盖本身就是韧性所在 [16] 推理性能与成本优势 - 公司在推理优化上取得根本性突破,从Hopper H200到Grace Blackwell,实际每瓦性能提升达到35倍(有分析指出实际为50倍),远高于摩尔定律预期的约1.5倍 [18] - 极致的性能提升使得公司的每Token成本是全球最低,在吉瓦级数据中心建设成本固定的前提下,安装性能最优的计算系统是实现最低Token成本的关键 [18] - 以Fireworks AI为例,更新软件后,同一套系统的Token速率从约700 tokens/秒提升至近5,000 tokens/秒,提升7倍 [18] - 从Token工厂的商业逻辑看,与Hopper相比,Grace Blackwell在最具商业价值的服务层级,其吞吐量提升了35倍,可将整体数据中心收益提升约5倍 [18] - 在一个吉瓦级AI工厂中,通过架构优化,仅用两年时间Token生成速率将从2200万提升至7亿,提升幅度达350倍 [29] AI工厂与效率提升 - 数据中心正在从存储文件的“数据中心”演变为生产Token的“AI工厂” [40] - 公司创建了英伟达 DSX平台,基于Omniverse,让合作伙伴在虚拟世界中共同设计吉瓦级AI工厂,进行全系统仿真,公司相信该平台能释放约两倍的效率提升 [29] - 公司还将进军太空,Thor芯片已通过辐射认证部署于卫星,并正与合作伙伴开发Vera Rubin Space-1,以在太空中建设数据中心 [29] Agentic AI 与 OpenClaw - OpenClaw成为一个重大新发现,它是一个Agentic系统,能连接大型语言模型、访问工具和文件系统、执行调度、分解任务、生成子Agent并支持多模态交互,本质上是Agentic计算机的操作系统 [30][33] - 企业IT正经历范式转变,旧模式是数据中心存储文件供人类使用软件工具,新模式是每一家SaaS公司都将成为提供专业化Agent服务的AaaS(Agentic as a Service)公司 [30] - 针对企业级Agentic系统的安全挑战,公司与OpenClaw开发者合作,推出了企业级安全的参考架构NemoClaw [31] - 公司宣布成立Nemotron联盟,与BlackForest Labs、Cursor、LangChain、Mistral、Perplexity、Reflection、Sarvam、Thinking Machines等公司合作,共同打造Nemotron 4模型,并将NemoClaw等工具深度集成到各自产品中 [34][37] 物理AI、机器人及行业应用 - 公司长期致力于物理AI与机器人领域,为机器人系统打造了三台关键计算机:训练计算机、合成数据生成与仿真计算机、机器人本体内置计算机 [35][38] - 自动驾驶的“ChatGPT时刻”已经到来,公司宣布新增比亚迪、现代、日产、吉利四家RoboTaxi合作伙伴,加上之前的奔驰、丰田、通用,每年合计生产1800万辆汽车将接入其RoboTaxi Ready平台,并与Uber达成重大合作 [35] - 在工业机器人领域,公司与ABB、Universal Robots、KUKA及卡特彼勒等合作,将物理AI模型与仿真系统整合部署至全球制造产线 [35] - 在电信领域,未来的无线基站将演变为英伟达 Aerial AI RAN,能够动态推理流量、自适应调整波束赋形,在提升信号质量的同时显著节省能耗 [35] - 公司展示了与迪士尼联合开发的“奥拉夫”机器人,基于Jetson计算平台和Omniverse训练环境,实现了真实物理世界中的自适应运动 [36] - 公司的生态系统覆盖多个垂直领域,包括自动驾驶、金融服务、医疗健康、工业制造、娱乐与游戏、机器人(110台机器人参展)以及电信(约2万亿美元规模)等 [12] 软件、模型与生态系统更新 - 本届GTC大会上,公司宣布了100个库和约40个模型的更新,这些库是公司的核心资产 [10] - 其中最重要的库之一是cuDNN(CUDA深度神经网络库),它被指出彻底革命性地改变了人工智能,点燃了现代AI的大爆炸 [10] - 公司创建了用于加速结构化数据的数据框(Data Frame)的基础库cuDF,以及用于加速非结构化AI数据的向量存储(Vector Store)的基础库cuVS [9][11] - 公司已在每个AI领域的前沿模型上确立领导地位,包括Nemotron(大型语言模型)、Cosmos(世界基础模型)、GROOT(通用机器人模型)、Alpamayo(自动驾驶)、BioNeMo(数字生物学/药物发现)、PhysicsNeMo(AI物理仿真)等 [34]