英伟达GTC大会核心发布 - 公司宣布其最新芯片架构Vera Rubin平台已全面投入生产,该平台包含七款新芯片和五种机架,旨在开启Agentic AI新时代并构建全球最大的AI工厂 [1] - 公司创始人预测,基于Blackwell与Rubin架构的AI芯片,到2027年底的收入将达到1万亿美元,较去年10月的5000亿美元预测翻倍 [2] - 发布会标志着行业竞争从单一芯片性能比拼进入全方位的系统级竞赛阶段 [2] Vera Rubin平台技术革新 - Rubin架构计划于2026年下半年量产,采用台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成,是“去PCIe化”的紧耦合设计 [2] - 单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,规模化推理能效较Blackwell提升5倍 [3] - 平台引入Transformer Engine 3.0与Inference Context Memory存储平台,并配备支持硅光子技术的Spectrum-X网络,单机柜NVL72内部互联总带宽达260 TB/s [3] 新芯片产品组合 - 七款新芯片包括:NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6以及新集成的NVIDIA Groq 3 LPU [1] - Vera CPU机架集成256个Vera CPU,其效率是传统CPU的两倍,速度提升50% [4] - 与公司合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure等,该产品已全面投产并将于今年下半年供货 [4] Groq LPU推理芯片战略 - 公司通过200亿美元战略授权并深度集成Groq LPU架构,新推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s扩展带宽 [5] - LPU采用确定性流水线架构,旨在实现极低延迟和确定性算力,专为实时交互场景设计,如自动驾驶和高频交易 [6] - LPU与GPU通过NVFusion技术协同,构建混合算力帝国:GPU负责训练,LPU负责高效实时推理,能效比号称可达对手的10倍 [7] AI代理与软件生态进展 - 公司推出面向OpenClaw社区的NemoClaw软件栈,提供基础软件能力,支持通过一条命令安装模型和OpenShell运行时环境,并增强安全与隐私控制 [8] - NemoClaw支持本地模型与云端模型的混合调用,可运行在多种计算平台上,为全天候运行的AI代理提供算力 [9][10] - 公司宣布成立Nemotron联盟,联合全球AI实验室共同推进开放前沿模型发展,并扩展了Nemotron 3系列多模态模型 [10] 物理智能与行业应用扩展 - 公司发布用于机器人和自动驾驶的新模型,包括面向类人机器人的NVIDIA Isaac GR00T N1.7模型和面向自动驾驶的NVIDIA Alpamayo 1.5模型 [11] - 即将推出的NVIDIA Cosmos 3被称为首个统一“世界生成、物理推理和行动仿真”的世界基础模型 [11] - 公司正搭建一个覆盖数字世界与物理世界的AI技术体系,推动人工智能在机器人、自动驾驶等领域的创新与落地 [11]
黄仁勋塑造“Token经济学” 英伟达拥抱智能体时代