Workflow
NVIDIA Groq 3 LPU
icon
搜索文档
英伟达连发7款“王炸”芯片,目标从芯片商转向AI工厂!黄仁勋的思路变了?业内:一句话总结就是“卖标准”
每日经济新闻· 2026-03-18 17:26
公司战略定位与核心竞争力 - 公司正从一家芯片公司转向AI工厂和AI基础设施公司[2] - 公司的核心战略是“卖铲子”,即提供AI基础设施和工具,而非直接参与AI应用开发[2][16] - 公司的核心竞争力在于构建并销售算力生态,而非单纯卖算力,这包括将生成式大模型与3D图形引擎融合来兜售算力需求概念[2][16] 产品与技术发布 - 在GTC 2026大会上,公司发布了由7款芯片、5种机架组成的Vera Rubin巨型超级计算机平台[8] - 发布的7款芯片包括:NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6交换机、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6以太网交换机以及NVIDIA Groq 3 LPU[8] - 公司推出了NVIDIA NemoClaw™软件栈,适用于OpenClaw智能体平台,提供开放模型和沙盒环境以增强数据隐私和安全性[7] 关键产品性能与部署 - Vera CPU是全球首款专为代理式AI与强化学习时代打造的处理器,效率是传统机架级CPU的2倍,速度提升50%,目前已进入全面量产,将于2025年下半年向合作伙伴提供[9] - Groq 3 LPU是一款专门用于大语言模型推理的处理器,将与GPU在Vera Rubin平台中协同工作[9] - 阿里巴巴、联想等中国企业出现在合作部署Vera CPU的头部企业名单中,字节跳动则出现在计划部署Vera CPU的云服务提供商名单中[9] 市场趋势与公司策略 - 公司认为Agentic AI的拐点已经到来,并将引发史上规模最大的基础设施建设浪潮[8] - 随着AI应用大规模落地,推理算力需求将呈指数级爆发,定制化推理芯片的春天或将来临[9] - 公司的整体思路是跟随“烧更多Token”的模式,通过构建系统生态、提供“烧Token”的工具、优化系统降低Token成本来吸引用户[1][12] 财务目标与成本优化 - 公司CEO黄仁勋提出,公司算力芯片到2027年将实现1万亿美元营收,这相比其对2026年5000亿美元市场需求的预测翻了一倍[12] - 为实现营收目标,公司强调算力需要更具“性价比”,并提出了“每瓦Token数”作为核心评价指标,公司自称在该指标上处于世界领先位置[12] 对行业生态的布局 - 公司高度评价OpenClaw,称其开启了AI的下一个前沿领域,是“人类历史上最受欢迎的开源项目”,并认为其实质上开源了智能体计算机的操作系统,是软件新复兴的开始[3] - 公司认为OpenClaw将推动传统的SaaS(软件即服务)全面进化为“智能体即服务(AaaS)”,未来企业为每位工程师配备“年度token预算”将成为推动生产力十倍增长的新标配[3] - 公司通过吸纳Groq部分核心成员并达成技术授权协议,以推进AI推理技术的规模化[9]
英伟达塑造“Token经济学”
21世纪经济报道· 2026-03-18 07:10
Vera Rubin平台与芯片发布 - 公司宣布Vera Rubin平台开启Agentic AI新时代,旨在构建全球最大的AI工厂,该平台包含七款已全面投入生产的新芯片[1][14] - 七款芯片包括:NVIDIA Vera CPU(服务器CPU)、NVIDIA Rubin GPU、NVIDIA NVLink 6(第六代交换机芯片)、NVIDIA ConnectX-9 SuperNIC(超级网卡)、NVIDIA BlueField-4 DPU(存储芯片)、NVIDIA Spectrum-6(支持CPO技术的以太网交换机芯片)以及新集成的NVIDIA Groq 3 LPU[1][15] - 这些芯片能够组成五种机架在数据中心运行,标志着公司从单一芯片竞争进入全方位的系统级竞赛阶段[1][16] 技术规格与性能突破 - Rubin架构计划于2026年下半年量产,采用台积电3nm工艺,Vera CPU(88核自研架构)与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成[4][18] - 采用“去PCIe化”紧耦合设计,单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,规模化推理能效较Blackwell提升5倍[4][18] - 平台为Agentic AI与长上下文推理设计,引入Transformer Engine 3.0等技术,使AI能处理数万个Token的上下文,单机柜NVL72内部互联总带宽达260 TB/s[5][19] - Vera CPU机架集成256个Vera CPU,基于MGX液冷基础设施,其效率是传统CPU的两倍,速度提升50%[5][19] 市场预测与客户进展 - 公司CEO预测,Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,较去年10月的5000亿美元预测翻倍[2][15] - 已确认合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius和Nscale,芯片已全面投产并将于今年下半年供货[6][20] Groq LPU与混合算力战略 - 公司通过200亿美元战略授权并集成Groq LPU架构,新推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s扩展带宽[6][21] - LPU采用确定性流水线架构,消除计算抖动,专为Agentic AI与实时交互设计,能保证毫秒级任务的执行时间恒定,将复杂Agent链条的思考时间从数分钟缩短至数秒[9][22] - 公司构建混合算力帝国:GPU负责万亿参数模型训练与长文本预处理,LPU阵列以10倍于对手的能效比统治实时推理市场,实现训练与推理分离[10][23] 软件、模型与生态系统建设 - 面向OpenClaw社区推出NemoClaw软件栈,提供基础软件能力,支持通过一条命令安装Nemotron模型和OpenShell运行时环境,为AI代理增加安全与隐私控制[11][23] - NemoClaw支持本地与云端模型混合调用,可运行于GeForce RTX设备、RTX PRO工作站及DGX系统,为全天候AI代理提供算力[12][24] - 宣布成立Nemotron联盟,联合全球AI实验室推进开放前沿模型发展,并扩展Nemotron 3系列多模态模型,包括Ultra、Omni和VoiceChat等版本[12][24] - 发布应用于物理世界的新模型,包括面向类人机器人的Isaac GR00T N1.7模型、面向自动驾驶的Alpamayo 1.5模型,以及即将推出的统一世界基础模型Cosmos 3[13][25] 行业趋势与战略定位 - 公司CEO强调“Token”是AI时代的新货币,AI工厂是生成Token的基础设施,公司通过Vera Rubin DSX AI Factory参考设计和Omniverse数字孪生蓝图提供构建最高生产力AI工厂的基础[6][20] - 行业趋势显示,巨头正通过聚集能力、补齐短板、延伸上下游来构建强大壁垒,单一比拼芯片性能的阶段已过去,系统级竞赛正在上演[2][16]
黄仁勋塑造“Token经济学” 英伟达拥抱智能体时代
21世纪经济报道· 2026-03-18 06:29
英伟达GTC大会核心发布 - 公司宣布其最新芯片架构Vera Rubin平台已全面投入生产,该平台包含七款新芯片和五种机架,旨在开启Agentic AI新时代并构建全球最大的AI工厂 [1] - 公司创始人预测,基于Blackwell与Rubin架构的AI芯片,到2027年底的收入将达到1万亿美元,较去年10月的5000亿美元预测翻倍 [2] - 发布会标志着行业竞争从单一芯片性能比拼进入全方位的系统级竞赛阶段 [2] Vera Rubin平台技术革新 - Rubin架构计划于2026年下半年量产,采用台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成,是“去PCIe化”的紧耦合设计 [2] - 单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,规模化推理能效较Blackwell提升5倍 [3] - 平台引入Transformer Engine 3.0与Inference Context Memory存储平台,并配备支持硅光子技术的Spectrum-X网络,单机柜NVL72内部互联总带宽达260 TB/s [3] 新芯片产品组合 - 七款新芯片包括:NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6以及新集成的NVIDIA Groq 3 LPU [1] - Vera CPU机架集成256个Vera CPU,其效率是传统CPU的两倍,速度提升50% [4] - 与公司合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure等,该产品已全面投产并将于今年下半年供货 [4] Groq LPU推理芯片战略 - 公司通过200亿美元战略授权并深度集成Groq LPU架构,新推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s扩展带宽 [5] - LPU采用确定性流水线架构,旨在实现极低延迟和确定性算力,专为实时交互场景设计,如自动驾驶和高频交易 [6] - LPU与GPU通过NVFusion技术协同,构建混合算力帝国:GPU负责训练,LPU负责高效实时推理,能效比号称可达对手的10倍 [7] AI代理与软件生态进展 - 公司推出面向OpenClaw社区的NemoClaw软件栈,提供基础软件能力,支持通过一条命令安装模型和OpenShell运行时环境,并增强安全与隐私控制 [8] - NemoClaw支持本地模型与云端模型的混合调用,可运行在多种计算平台上,为全天候运行的AI代理提供算力 [9][10] - 公司宣布成立Nemotron联盟,联合全球AI实验室共同推进开放前沿模型发展,并扩展了Nemotron 3系列多模态模型 [10] 物理智能与行业应用扩展 - 公司发布用于机器人和自动驾驶的新模型,包括面向类人机器人的NVIDIA Isaac GR00T N1.7模型和面向自动驾驶的NVIDIA Alpamayo 1.5模型 [11] - 即将推出的NVIDIA Cosmos 3被称为首个统一“世界生成、物理推理和行动仿真”的世界基础模型 [11] - 公司正搭建一个覆盖数字世界与物理世界的AI技术体系,推动人工智能在机器人、自动驾驶等领域的创新与落地 [11]
到明年底,至少赚1万亿”!英伟达连发7款芯片,还推出自己的“龙虾
国际金融报· 2026-03-17 19:24
英伟达GTC 2026大会核心发布 - 公司创始人兼CEO黄仁勋发表主题演讲,预测到2027年AI芯片营收至少达到1万亿美元,并发布七款新芯片及“Token工厂经济学”新概念 [1] - 公司推出NemoClaw平台以支持OpenClaw生态 [1] - 资本市场反应积极,公司股价盘中一度上涨超过4% [1] 财务预测与市场影响 - 公司预测新一代Blackwell架构与下一代Rubin产品到2027年底将创造至少1万亿美元收入,较2025年10月给出的5000亿美元预测直接翻倍 [4] - 高盛研报指出,此长期收入可见度“大幅超出了华尔街的普遍预期”,缓解了市场对人工智能资本支出可能在2026年触及顶峰的担忧 [4] - 然而,A股算力板块在消息后早盘遭遇大跌,光模块、光通信等赛道领跌,部分龙头股跌幅超过10%,显示“利好兑现”后的短期回调压力 [3] 新产品与技术平台 - 公司全面亮相Vera Rubin AI计算系统,强调其并非单一芯片,而是由7种芯片与5种机架系统组成的完整AI超级计算机平台 [5] - 七款芯片包括:NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6交换机、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6以太网交换机及NVIDIA Groq 3 LPU [5] - Vera CPU作为全球首款专为智能体AI和强化学习打造的处理器,效率是传统机架级CPU的两倍,速度提升50%,已确定将部署于阿里巴巴、字节跳动、Meta等云服务提供商 [5] - 黄仁勋将Vera Rubin描述为“一次划时代的飞跃”,宣告“代理式AI的拐点已经到来” [5] “Token工厂经济学”新框架 - 公司提出“Token工厂经济学”新概念,用以解释万亿美元级AI芯片需求的商业逻辑 [6] - 未来的数据中心将被视为不间断生产Token(人工智能大模型理解和生成语言的最小语义单元)的巨型工厂,其产能受物理定律限制于固定的电力 [7] - 在固定功率下,每瓦Token吞吐量最高的工厂生产成本最低,吞吐量和Token生成速度将直接转化为企业收入 [7] - 此理论为投资者提供了从销售芯片转向衡量AI工厂生产效率的新估值坐标系 [7] - 该框架亦可能重塑职场形态,未来公司或为工程师配置年度Token预算以提升效率 [7] 软件生态与“龙虾”战略 - 公司将开源项目OpenClaw(“龙虾”)提升至战略高度,形容其为“人类历史上最受欢迎的开源项目”,并称其几周内取得的成就超越了Linux过去30年 [8] - OpenClaw被认为像Windows普及个人电脑一样,有潜力将AI智能体普及到每一个普通人手中 [8] - 为此,公司推出专为OpenClaw深度优化的部署工具链NemoClaw,仅需两行命令即可完成安装,旨在让每一台GPU服务器都能无缝接入OpenClaw生态 [9]
黄仁勋发表重磅演讲!称2027营收至少万亿美元,“龙虾”就是新操作系统!英伟达宣布:七款新芯片全面投产
每日经济新闻· 2026-03-17 10:53
公司核心产品与战略 - 英伟达在GTC 2026大会上宣布,基于Vera Rubin架构的七款新芯片已全面投入生产,产品线包括NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6以及新集成的NVIDIA Groq 3 LPU [2][12][13] - 这些芯片可组成5款机架,Vera Rubin平台将其整合为一台强大的AI超级计算机,能够支持大规模预训练、后训练、测试时扩展以及实时智能推理 [2][3][12] - 公司CEO黄仁勋将Vera Rubin平台定义为一次“代际跃迁”,并称其将开启Agentic AI新时代,构建全球最大的AI工厂,推动历史上最大规模的基础设施建设 [2][3][12] 财务预测与市场前景 - 公司CEO黄仁勋预测,其新一代AI加速芯片架构Blackwell与下一代Rubin产品,到2027年底将创造至少1万亿美元收入,这一预测较其2025年10月给出的5000亿美元销售预测翻倍 [1][3][4] - 黄仁勋表示,目前对Blackwell和Rubin产品到2027年已看到至少1万亿美元的高确信度需求 [4][16] - 此预测发布后,英伟达股价盘中最多上涨超4%,最终收盘上涨1.6% [16] 行业范式与商业模式革新 - 公司CEO黄仁勋提出了“代币工厂(Token Factory)”概念,指出未来的数据中心将不再是存储中心,而是生产智能代币(Token)的工厂 [1][5][11] - 黄仁勋阐述了“Token工厂经济学”,认为在受电力限制(如1吉瓦)的数据中心里,每瓦Token吞吐量最高的厂商将拥有最低的生产成本 [7][17][20] - 黄仁勋将未来的AI服务划分为五个商业层级:免费层(高吞吐、低速度)、中级层(约每百万token 3美元)、高级层(约每百万token 6美元)、高速层(约每百万token 45美元)和超高速层(约每百万token 150美元) [7][20] 技术优势与性能表现 - 黄仁勋强调,英伟达的架构能够让客户在免费层实现极高的吞吐量,同时在最高价值的推理层级上,将性能提升惊人的35倍 [7][21] 软件生态与行业影响 - 黄仁勋高度评价开源项目OpenClaw,称其为“人类历史上最受欢迎的开源项目”,仅用几周时间就超越了Linux过去30年的成就,并指出OpenClaw本质上是Agent计算机的“操作系统” [9][23] - 黄仁勋断言,每一个SaaS公司都将变成AaaS(智能体即服务)公司,为此英伟达推出了企业级的NeMo Claw参考设计,增加了策略引擎和隐私路由器以确保智能体安全 [9][23] - 黄仁勋描绘了未来的职场形态,指出工程师将获得年度Token预算,其额度可能约为基础年薪(几十万美元)的一半,以实现10倍的效率提升,这已成为硅谷新的招聘筹码 [9][23] 未来技术路线图 - 黄仁勋在演讲最后“剧透”了下一代计算架构Feynman,它将首次实现铜线与CPO的共同水平扩展 [9][23] - 英伟达正在研发可部署在太空的数据中心计算机“Vera Rubin Space-1”,探索AI算力向地球之外延伸 [9][23]
王炸!英伟达连发7款芯片,黄仁勋演讲刷屏
21世纪经济报道· 2026-03-17 09:53
公司核心动态与市场反应 - 英伟达在年度GTC大会上宣布多项重磅技术突破,公司创始人兼CEO黄仁勋预测新一代AI加速芯片架构等将至少创收1万亿美元 [1] - 黄仁勋演讲后,英伟达股价应声上涨,盘中最高涨4.31%,收盘涨1.65% [2] - 东方财富概念板块显示,A股市场涉及英伟达概念的个股有近60只,合计总市值超2.7万亿元 [3] - 今年以来,英伟达概念股走势分化,近六成个股录得上涨,其中利通电子大涨1.3倍居首 [4] 新一代AI芯片架构与平台:Vera Rubin - 英伟达宣布Vera Rubin(最新芯片架构)目前已有七款新芯片全面投入生产,该平台正在开启Agentic AI新时代,旨在构建全球最大的AI工厂 [6] - Vera Rubin平台是一次代际跃迁,包含七个突破性芯片、五种机架、一台巨型超级计算机,为AI的每一个阶段提供动力 [6] - 黄仁勋预测,Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元销售预测已经翻倍 [6] - Vera Rubin架构全面转场台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现物理意义上的同封装集成 [11] - 单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,其规模化推理能效较Blackwell提升了5倍 [11] - 在训练大型混合专家模型时,与Blackwell平台相比,Rubin仅需四分之一数量的GPU,并实现每瓦推理吞吐量最高10倍,同时每token成本为十分之一 [12] - 英伟达推出了Vera Rubin DSX AI工厂参考设计,教大家如何设计、建设和运营整个AI工厂基础设施堆栈 [15] - 公司预告了下一代Feynman系统,预计将于2028年发布 [15] 系统级创新与战略转型 - 英伟达的技术路径预览明确,从Hopper、Blackwell、到Rubin、再到Feyman,锁定了至少未来5年的算力交付能力 [7] - 算力的较量已经从单芯片过渡到AI基础设施系统化建设,2026年正式开启了系统级进化的新纪元 [7] - 英伟达正转型为AI基建企业,通过构建从算力到应用的完整体系,试图成为AI时代的基础平台 [8] - 巨头们正在不断聚集能力,补齐短板,延伸上下游,形成更强大的壁垒,单一比拼芯片的阶段已经过去 [9] - 公司越来越关注能耗问题,与能源提供商及超200家数据中心基础设施合作伙伴合作,发布DSX平台 [14] - 新的DSX平台包括DSX Max-Q和DSX Flex软件,旨在在固定电力的数据中心内部署30%更多的AI基础设施,并释放100 gigawatts的闲置电网电力 [14] 推理芯片与混合算力:Groq LPU - 英伟达通过200亿美元战略授权并深度集成了Groq LPU架构,标志着公司将AI竞争从“训练效率”扩展到“推理效率” [18] - 推出的Groq 3 LPX机架包含256个 LPU处理器,具有128GB片上SRAM和640 TB/s的扩展带宽 [18] - 当与Vera Rubin NVL72一起部署时,Rubin GPU和LPU通过共同计算AI模型每一层来提升解码速度 [18] - LPX与Vera Rubin结合,将实现每兆瓦推理吞吐量最高35倍,并为万亿参数模型带来最高10倍的收入机会 [19] - LPU舍弃了HBM,密布高达230MB的片上SRAM,内存带宽升至80 TB/s,达到顶级 Blackwell GPU的十倍 [20] - LPU能够在单批次推理中实现极低的首字延迟,Token生成速度稳定维持在1600 tokens/s以上 [20] - 英伟达将训练和推理分离,构建了一个混合算力帝国,正式宣告了“推理即时化”时代的到来 [21] AI代理、开放模型与生态建设 - 英伟达围绕AI代理、开放模型以及跨行业应用发布了一系列重要进展 [23] - 公司推出面向OpenClaw生态的NemoClaw软件栈,被黄仁勋评价为“个人AI的操作系统” [24] - NemoClaw支持本地模型与云端模型的混合调用,可以运行在多种专用计算平台上 [25] - 英伟达宣布成立Nemotron Coalition,联合全球多家领先AI实验室与模型开发机构,共同推进开放前沿模型的发展 [25] - 联盟的首个项目将由Mistral AI与英伟达联合开发基础模型,该模型将成为NVIDIA Nemotron 4开放模型家族的重要基础 [26] - 英伟达扩展了多条开放模型产品线,包括强化多模态理解能力的NVIDIA Nemotron 3系列模型 [26] - 公司发布用于机器人和自动驾驶系统的多种基础模型,如NVIDIA Isaac GR00T N1.7、NVIDIA Alpamayo 1.5以及即将推出的NVIDIA Cosmos 3 [26]
王炸!英伟达连发7款芯片,黄仁勋演讲刷屏
21世纪经济报道· 2026-03-17 09:44
文章核心观点 - 英伟达在GTC 2026大会上发布了新一代Vera Rubin AI加速芯片架构及平台,标志着AI基础设施从单芯片竞争进入系统级建设的新纪元,公司预测其Blackwell与Rubin芯片到2027年底的收入将达到1万亿美元[1][5] - 公司通过整合CPU、GPU、LPU、DPU及交换机芯片等全系产品,构建从芯片、机架到完整AI工厂的集成系统,旨在成为AI时代的基础平台,并开启“代理型AI”的新时代[4][5][7] - 英伟达的股价在GTC大会主题演讲后应声上涨,盘中最高涨4.31%,收盘涨1.65%[1] 英伟达GTC 2026技术发布总结 新一代Vera Rubin平台与芯片 - 宣布Vera Rubin平台开启“代理型AI”新时代,目前已有七款新芯片全面投入生产,包括NVIDIA Vera CPU、Rubin GPU、NVLink 6、ConnectX-9 SuperNIC以及新集成的NVIDIA Groq 3 LPU[4][5] - Vera Rubin是一次代际跃迁,集成了七个突破性芯片、五种机架,可形成一台强大的AI超级计算机,为AI的每一个阶段提供动力[5] - Rubin架构全面采用台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成,单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops[9] - 与Blackwell平台相比,Rubin在训练大型混合专家模型时仅需四分之一数量的GPU,实现每瓦推理吞吐量最高10倍,同时每token成本为十分之一[10] - 公司推出了Vera Rubin NVL72机架,通过NVLink 6连接72个Rubin GPU和36个Vera CPU,内部互联总带宽达到260 TB/s[9][10] - 推出了基于MGX构建的Vera CPU机架,集成256个Vera CPU,其效率是传统CPU的两倍,速度提升50%[11] - 与英伟达合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius和Nscale,芯片已全面投产并将于2026年下半年供货[11] - 公司预告了下一代Feynman系统,预计将于2028年发布,配备全新的GPU、LPU、名为Rosa的全新CPU、Bluefield 5以及Kyber架构[14] Groq LPU推理芯片与混合算力 - 英伟达通过200亿美元战略授权并深度集成了Groq LPU架构,推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s的扩展带宽[17] - 当LPX与Vera Rubin NVL72一起部署时,通过共同计算AI模型每一层来提升解码速度,实现每兆瓦推理吞吐量最高35倍,并为万亿参数模型带来最高10倍的收入机会[17] - LPU采用确定性流水线架构,密布高达230MB的片上SRAM,内存带宽升至80 TB/s,是顶级Blackwell GPU的十倍,能在单批次推理中实现极低延迟,Token生成速度稳定在1600 tokens/s以上[19] - LPU与GPU构建混合算力帝国:GPU负责后方模型训练,LPU阵列在前方以高能效比与极速响应统治实时推理市场[20] 系统级创新与AI工厂 - AI基础设施的较量已从单芯片过渡到系统级建设,英伟达带来了系统级创新[6] - 公司推出了DSX平台,包括DSX Max-Q和DSX Flex软件,旨在优化能源使用,可在固定电力的数据中心内部署30%更多的AI基础设施,并释放100 gigawatts的闲置电网电力[13] - 推出了Vera Rubin DSX AI工厂参考设计,教客户如何设计、建设和运营整个AI工厂基础设施堆栈[14] - 黄仁勋表示,在AI时代,智能token是新的货币,而AI工厂是生成这些token的基础设施[14] 软件、模型与生态布局 - 推出面向OpenClaw生态的NemoClaw软件栈,提供基础软件能力,支持本地与云端模型混合调用,可运行在多种专用计算平台上[22][23][24] - 成立Nemotron Coalition联盟,联合全球多家领先AI实验室与模型开发机构,共同推进开放前沿模型的发展,创始成员包括Mistral AI、Perplexity等[24] - 联盟的首个项目将由Mistral AI与英伟达联合开发基础模型,该模型将成为NVIDIA Nemotron 4开放模型家族的重要基础[25] - 扩展了多条开放模型产品线,包括强化多模态理解能力的Nemotron 3系列模型,以及用于机器人、自动驾驶系统的多种基础模型,如Isaac GR00T N1.7和Alpamayo 1.5[25] 市场与行业影响 英伟达自身市场表现 - GTC大会主题演讲后,英伟达股价盘中最高涨4.31%,截至收盘涨1.65%,报183.220美元[1][2] - 公司预测Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元预测已翻倍[5] A股英伟达概念股表现 - 东方财富概念板块显示,当前A股市场涉及英伟达概念的个股有近60只,合计总市值超2.7万亿元[2] - 工业富联总市值遥遥领先,胜宏科技、英维克总市值也超千亿元[2] - 2026年以来,近六成英伟达概念股录得上涨,利通电子大涨1.3倍居首,和林微纳、罗博特科分别上涨86.82%和62.42%[3]
燃爆!英伟达连发7款芯片,黄仁勋剑指万亿AI芯片收入
21世纪经济报道· 2026-03-17 09:17
公司产品发布:Vera Rubin平台与芯片家族 - 英伟达在GTC大会上宣布,Vera Rubin芯片架构已有七款新芯片全面投入生产,该平台旨在开启Agentic AI新时代并构建全球最大的AI工厂 [1] - 七款新芯片包括:NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6以及新集成的NVIDIA Groq 3 LPU,这些芯片可组成5款机架在数据中心运行 [2] - Vera Rubin平台将这些芯片汇聚成一台强大的AI超级计算机,可支持大规模预训练、后训练、测试时扩展以及实时智能推理 [2] 技术架构与性能突破 - Rubin架构全面采用台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成,这种"去PCIe化"设计使单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops [6] - 与Blackwell平台相比,Rubin在训练大型混合专家模型时仅需四分之一数量的GPU,实现每瓦推理吞吐量最高10倍,同时每token成本为十分之一 [7] - 核心机架产品Vera Rubin NVL72通过NVLink 6连接72个Rubin GPU和36个Vera CPU,内部互联总带宽达到260 TB/s,相当于全球互联网跨境带宽总和的数倍 [6][7] 系统级创新与AI工厂 - 英伟达的竞争已从单芯片过渡到AI基础设施系统化建设,2026年开启了系统级进化的新纪元 [4] - 公司推出Vera Rubin DSX AI工厂参考设计,教客户如何设计、建设和运营整个AI工厂基础设施堆栈,以实现可重复、可扩展且最优的集群性能 [10] - 新的DSX平台包括DSX Max-Q和DSX Flex软件,前者可在固定电力的数据中心内部署30%更多的AI基础设施,后者可使AI工厂成为电网灵活资产,从而释放100 gigawatts的闲置电网电力 [8][9] 市场预测与战略定位 - 公司创始人预测,Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元销售预测已经翻倍 [3] - 公司正从AI时代的"铲子商"转型为构建从算力到应用完整体系的基础平台,试图成为AI时代中水和电的角色 [5] - 公司锁定了至少未来5年的算力交付能力,其技术路径预览明确,从Hopper、Blackwell到Rubin,再到已预告的下一代Feynman系统 [3][10] Groq LPU整合与推理革命 - 公司通过200亿美元战略授权并深度集成Groq LPU架构,将AI竞争从"训练效率"扩展到"推理效率" [11] - 推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s的扩展带宽,与Vera Rubin NVL72协同可提升解码速度 [11] - LPU采用确定性流水线架构,密布高达230MB的片上SRAM,内存带宽达80 TB/s,是顶级Blackwell GPU的十倍,能在单批次推理中实现极低延迟,Token生成速度稳定在1600 tokens/s以上 [12][13] - LPX与Vera Rubin结合,可实现每兆瓦推理吞吐量最高35倍,并为万亿参数模型带来最高10倍的收入机会 [11] 软件与开发生态布局 - 公司推出面向OpenClaw生态的NemoClaw软件栈,提供基础软件能力,使开发者可以通过命令安装模型和OpenShell运行时环境,并为AI代理增加安全与隐私控制能力 [16][17] - NemoClaw支持本地模型与云端模型的混合调用,可运行在多种计算平台上,包括搭载GeForce RTX的PC、笔记本电脑、工作站及DGX系统 [18] - 公司宣布成立Nemotron Coalition,联合全球多家领先AI实验室与模型开发机构共同推进开放前沿模型的发展,创始成员包括Mistral AI、Perplexity等 [18] 模型与应用扩展 - NVIDIA Nemotron 3系列模型推出Ultra、Omni和VoiceChat等多个版本,强化多模态理解能力,可同时处理语言、视觉与语音信息 [20] - 公司推出用于现实世界的AI模型,包括面向类人机器人的NVIDIA Isaac GR00T N1.7、面向自动驾驶的NVIDIA Alpamayo 1.5以及即将推出的统一世界基础模型NVIDIA Cosmos 3 [20] - 公司还发布了面向物理AI的开放式Physical AI数据工厂蓝图,以及将AI引入轨道的太空计算服务 [5]