Workflow
Vera Rubin芯片架构
icon
搜索文档
黄仁勋塑造“Token经济学” 英伟达拥抱智能体时代
21世纪经济报道· 2026-03-18 06:29
英伟达GTC大会核心发布 - 公司宣布其最新芯片架构Vera Rubin平台已全面投入生产,该平台包含七款新芯片和五种机架,旨在开启Agentic AI新时代并构建全球最大的AI工厂 [1] - 公司创始人预测,基于Blackwell与Rubin架构的AI芯片,到2027年底的收入将达到1万亿美元,较去年10月的5000亿美元预测翻倍 [2] - 发布会标志着行业竞争从单一芯片性能比拼进入全方位的系统级竞赛阶段 [2] Vera Rubin平台技术革新 - Rubin架构计划于2026年下半年量产,采用台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成,是“去PCIe化”的紧耦合设计 [2] - 单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,规模化推理能效较Blackwell提升5倍 [3] - 平台引入Transformer Engine 3.0与Inference Context Memory存储平台,并配备支持硅光子技术的Spectrum-X网络,单机柜NVL72内部互联总带宽达260 TB/s [3] 新芯片产品组合 - 七款新芯片包括:NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6以及新集成的NVIDIA Groq 3 LPU [1] - Vera CPU机架集成256个Vera CPU,其效率是传统CPU的两倍,速度提升50% [4] - 与公司合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure等,该产品已全面投产并将于今年下半年供货 [4] Groq LPU推理芯片战略 - 公司通过200亿美元战略授权并深度集成Groq LPU架构,新推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s扩展带宽 [5] - LPU采用确定性流水线架构,旨在实现极低延迟和确定性算力,专为实时交互场景设计,如自动驾驶和高频交易 [6] - LPU与GPU通过NVFusion技术协同,构建混合算力帝国:GPU负责训练,LPU负责高效实时推理,能效比号称可达对手的10倍 [7] AI代理与软件生态进展 - 公司推出面向OpenClaw社区的NemoClaw软件栈,提供基础软件能力,支持通过一条命令安装模型和OpenShell运行时环境,并增强安全与隐私控制 [8] - NemoClaw支持本地模型与云端模型的混合调用,可运行在多种计算平台上,为全天候运行的AI代理提供算力 [9][10] - 公司宣布成立Nemotron联盟,联合全球AI实验室共同推进开放前沿模型发展,并扩展了Nemotron 3系列多模态模型 [10] 物理智能与行业应用扩展 - 公司发布用于机器人和自动驾驶的新模型,包括面向类人机器人的NVIDIA Isaac GR00T N1.7模型和面向自动驾驶的NVIDIA Alpamayo 1.5模型 [11] - 即将推出的NVIDIA Cosmos 3被称为首个统一“世界生成、物理推理和行动仿真”的世界基础模型 [11] - 公司正搭建一个覆盖数字世界与物理世界的AI技术体系,推动人工智能在机器人、自动驾驶等领域的创新与落地 [11]
王炸!英伟达连发7款芯片,黄仁勋演讲刷屏
21世纪经济报道· 2026-03-17 09:53
公司核心动态与市场反应 - 英伟达在年度GTC大会上宣布多项重磅技术突破,公司创始人兼CEO黄仁勋预测新一代AI加速芯片架构等将至少创收1万亿美元 [1] - 黄仁勋演讲后,英伟达股价应声上涨,盘中最高涨4.31%,收盘涨1.65% [2] - 东方财富概念板块显示,A股市场涉及英伟达概念的个股有近60只,合计总市值超2.7万亿元 [3] - 今年以来,英伟达概念股走势分化,近六成个股录得上涨,其中利通电子大涨1.3倍居首 [4] 新一代AI芯片架构与平台:Vera Rubin - 英伟达宣布Vera Rubin(最新芯片架构)目前已有七款新芯片全面投入生产,该平台正在开启Agentic AI新时代,旨在构建全球最大的AI工厂 [6] - Vera Rubin平台是一次代际跃迁,包含七个突破性芯片、五种机架、一台巨型超级计算机,为AI的每一个阶段提供动力 [6] - 黄仁勋预测,Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元销售预测已经翻倍 [6] - Vera Rubin架构全面转场台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现物理意义上的同封装集成 [11] - 单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,其规模化推理能效较Blackwell提升了5倍 [11] - 在训练大型混合专家模型时,与Blackwell平台相比,Rubin仅需四分之一数量的GPU,并实现每瓦推理吞吐量最高10倍,同时每token成本为十分之一 [12] - 英伟达推出了Vera Rubin DSX AI工厂参考设计,教大家如何设计、建设和运营整个AI工厂基础设施堆栈 [15] - 公司预告了下一代Feynman系统,预计将于2028年发布 [15] 系统级创新与战略转型 - 英伟达的技术路径预览明确,从Hopper、Blackwell、到Rubin、再到Feyman,锁定了至少未来5年的算力交付能力 [7] - 算力的较量已经从单芯片过渡到AI基础设施系统化建设,2026年正式开启了系统级进化的新纪元 [7] - 英伟达正转型为AI基建企业,通过构建从算力到应用的完整体系,试图成为AI时代的基础平台 [8] - 巨头们正在不断聚集能力,补齐短板,延伸上下游,形成更强大的壁垒,单一比拼芯片的阶段已经过去 [9] - 公司越来越关注能耗问题,与能源提供商及超200家数据中心基础设施合作伙伴合作,发布DSX平台 [14] - 新的DSX平台包括DSX Max-Q和DSX Flex软件,旨在在固定电力的数据中心内部署30%更多的AI基础设施,并释放100 gigawatts的闲置电网电力 [14] 推理芯片与混合算力:Groq LPU - 英伟达通过200亿美元战略授权并深度集成了Groq LPU架构,标志着公司将AI竞争从“训练效率”扩展到“推理效率” [18] - 推出的Groq 3 LPX机架包含256个 LPU处理器,具有128GB片上SRAM和640 TB/s的扩展带宽 [18] - 当与Vera Rubin NVL72一起部署时,Rubin GPU和LPU通过共同计算AI模型每一层来提升解码速度 [18] - LPX与Vera Rubin结合,将实现每兆瓦推理吞吐量最高35倍,并为万亿参数模型带来最高10倍的收入机会 [19] - LPU舍弃了HBM,密布高达230MB的片上SRAM,内存带宽升至80 TB/s,达到顶级 Blackwell GPU的十倍 [20] - LPU能够在单批次推理中实现极低的首字延迟,Token生成速度稳定维持在1600 tokens/s以上 [20] - 英伟达将训练和推理分离,构建了一个混合算力帝国,正式宣告了“推理即时化”时代的到来 [21] AI代理、开放模型与生态建设 - 英伟达围绕AI代理、开放模型以及跨行业应用发布了一系列重要进展 [23] - 公司推出面向OpenClaw生态的NemoClaw软件栈,被黄仁勋评价为“个人AI的操作系统” [24] - NemoClaw支持本地模型与云端模型的混合调用,可以运行在多种专用计算平台上 [25] - 英伟达宣布成立Nemotron Coalition,联合全球多家领先AI实验室与模型开发机构,共同推进开放前沿模型的发展 [25] - 联盟的首个项目将由Mistral AI与英伟达联合开发基础模型,该模型将成为NVIDIA Nemotron 4开放模型家族的重要基础 [26] - 英伟达扩展了多条开放模型产品线,包括强化多模态理解能力的NVIDIA Nemotron 3系列模型 [26] - 公司发布用于机器人和自动驾驶系统的多种基础模型,如NVIDIA Isaac GR00T N1.7、NVIDIA Alpamayo 1.5以及即将推出的NVIDIA Cosmos 3 [26]
王炸!英伟达连发7款芯片,黄仁勋演讲刷屏
21世纪经济报道· 2026-03-17 09:44
文章核心观点 - 英伟达在GTC 2026大会上发布了新一代Vera Rubin AI加速芯片架构及平台,标志着AI基础设施从单芯片竞争进入系统级建设的新纪元,公司预测其Blackwell与Rubin芯片到2027年底的收入将达到1万亿美元[1][5] - 公司通过整合CPU、GPU、LPU、DPU及交换机芯片等全系产品,构建从芯片、机架到完整AI工厂的集成系统,旨在成为AI时代的基础平台,并开启“代理型AI”的新时代[4][5][7] - 英伟达的股价在GTC大会主题演讲后应声上涨,盘中最高涨4.31%,收盘涨1.65%[1] 英伟达GTC 2026技术发布总结 新一代Vera Rubin平台与芯片 - 宣布Vera Rubin平台开启“代理型AI”新时代,目前已有七款新芯片全面投入生产,包括NVIDIA Vera CPU、Rubin GPU、NVLink 6、ConnectX-9 SuperNIC以及新集成的NVIDIA Groq 3 LPU[4][5] - Vera Rubin是一次代际跃迁,集成了七个突破性芯片、五种机架,可形成一台强大的AI超级计算机,为AI的每一个阶段提供动力[5] - Rubin架构全面采用台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成,单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops[9] - 与Blackwell平台相比,Rubin在训练大型混合专家模型时仅需四分之一数量的GPU,实现每瓦推理吞吐量最高10倍,同时每token成本为十分之一[10] - 公司推出了Vera Rubin NVL72机架,通过NVLink 6连接72个Rubin GPU和36个Vera CPU,内部互联总带宽达到260 TB/s[9][10] - 推出了基于MGX构建的Vera CPU机架,集成256个Vera CPU,其效率是传统CPU的两倍,速度提升50%[11] - 与英伟达合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius和Nscale,芯片已全面投产并将于2026年下半年供货[11] - 公司预告了下一代Feynman系统,预计将于2028年发布,配备全新的GPU、LPU、名为Rosa的全新CPU、Bluefield 5以及Kyber架构[14] Groq LPU推理芯片与混合算力 - 英伟达通过200亿美元战略授权并深度集成了Groq LPU架构,推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s的扩展带宽[17] - 当LPX与Vera Rubin NVL72一起部署时,通过共同计算AI模型每一层来提升解码速度,实现每兆瓦推理吞吐量最高35倍,并为万亿参数模型带来最高10倍的收入机会[17] - LPU采用确定性流水线架构,密布高达230MB的片上SRAM,内存带宽升至80 TB/s,是顶级Blackwell GPU的十倍,能在单批次推理中实现极低延迟,Token生成速度稳定在1600 tokens/s以上[19] - LPU与GPU构建混合算力帝国:GPU负责后方模型训练,LPU阵列在前方以高能效比与极速响应统治实时推理市场[20] 系统级创新与AI工厂 - AI基础设施的较量已从单芯片过渡到系统级建设,英伟达带来了系统级创新[6] - 公司推出了DSX平台,包括DSX Max-Q和DSX Flex软件,旨在优化能源使用,可在固定电力的数据中心内部署30%更多的AI基础设施,并释放100 gigawatts的闲置电网电力[13] - 推出了Vera Rubin DSX AI工厂参考设计,教客户如何设计、建设和运营整个AI工厂基础设施堆栈[14] - 黄仁勋表示,在AI时代,智能token是新的货币,而AI工厂是生成这些token的基础设施[14] 软件、模型与生态布局 - 推出面向OpenClaw生态的NemoClaw软件栈,提供基础软件能力,支持本地与云端模型混合调用,可运行在多种专用计算平台上[22][23][24] - 成立Nemotron Coalition联盟,联合全球多家领先AI实验室与模型开发机构,共同推进开放前沿模型的发展,创始成员包括Mistral AI、Perplexity等[24] - 联盟的首个项目将由Mistral AI与英伟达联合开发基础模型,该模型将成为NVIDIA Nemotron 4开放模型家族的重要基础[25] - 扩展了多条开放模型产品线,包括强化多模态理解能力的Nemotron 3系列模型,以及用于机器人、自动驾驶系统的多种基础模型,如Isaac GR00T N1.7和Alpamayo 1.5[25] 市场与行业影响 英伟达自身市场表现 - GTC大会主题演讲后,英伟达股价盘中最高涨4.31%,截至收盘涨1.65%,报183.220美元[1][2] - 公司预测Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元预测已翻倍[5] A股英伟达概念股表现 - 东方财富概念板块显示,当前A股市场涉及英伟达概念的个股有近60只,合计总市值超2.7万亿元[2] - 工业富联总市值遥遥领先,胜宏科技、英维克总市值也超千亿元[2] - 2026年以来,近六成英伟达概念股录得上涨,利通电子大涨1.3倍居首,和林微纳、罗博特科分别上涨86.82%和62.42%[3]
黄仁勋:中企那么强,我们不拿出“真家伙”不行
观察者网· 2026-01-07 08:31
公司产品与技术进展 - 英伟达在CES 2026上发布新一代Rubin平台,该平台已全面投产,拟于下半年发货 [1] - 新一代Rubin平台的训练性能是前代Blackwell的3.5倍,运行AI软件的性能则提升5倍 [4] - 公司首席执行官黄仁勋表示,Blackwell和新一代Rubin芯片将“及时”在中国市场推出 [1] - 公司已启动H200芯片的供应链,芯片正在生产线上流动,正在处理美国出口许可证的最终细节 [4] 中国市场战略与竞争态势 - 公司首席执行官黄仁勋称,英伟达H200 AI芯片期待来自中国的采购者,并预计在美国政府批准出口许可证后,订单将“很快”到来 [1][2] - 黄仁勋表示,为在中国保持竞争力,英伟达需要“及时”推出包括Blackwell和Rubin在内的更先进产品 [1] - 在中国市场,英伟达正面临来自华为等中国竞争对手的日益激烈竞争 [1] - 黄仁勋指出中国涌现出大量表现出色的科技初创公司,体现了中国科技产业的活力和能力,并相信中国科技市场将继续繁荣 [2] - 公司首席财务官表示,已申请向中国运送H200芯片的许可证,正在等待美国和其他政府的批准 [4] 美国政策与监管环境 - 特朗普政府已批准H200芯片对华出口,但附带条件包括美国政府将获得25%的分成 [1][4] - 黄仁勋表示,如果美国希望保持全球竞争力,监管制度也需要演变 [1] - 美媒指出,特朗普允许对华出口H200芯片的决定是一次政策上的转变,白宫最初承诺限制向中国出售AI芯片 [4] 市场反应与行业动态 - 美国《纽约时报》称,越来越多中国买家不愿为专为中国市场设计的“特供”芯片买单 [5] - 白宫人工智能负责人坦言,中方拒绝了美国H200芯片,原因在于中国想要实现半导体独立 [5] - 中国企业正努力推出可以替代英伟达的国产AI芯片,抢占其曾经占据主导地位的市场份额 [5]