Workflow
物理AI
icon
搜索文档
排队两小时入场,数千人现场听讲!英伟达新一代GPU发布,黄仁勋称“开源模型彻底改变了人工智能”,还提到了3个中国大模型
新浪财经· 2026-01-06 13:04
公司动态与战略 - 英伟达首席执行官黄仁勋在CES 2026主题演讲中重点围绕人工智能展开 强调公司正继续推动AI变革[3] - 公司发布了新一代GPU 其推理算力是上一代“Blackwell”系列的5倍[7] - 公司介绍了其物理AI世界模型“Cosmos AI” 旨在加速智能汽车、机器人和视频分析AI智能体的开发[5] - 公司于8年前开始研究自动驾驶汽车 愿景是实现所有车辆(每辆车、每辆卡车)的自主驾驶[5] 行业趋势与观点 - 人工智能正在改变世界并以惊人的速度普及[3] - 2025年最重要的发展之一是开放模型取得进步 开源模型(如Kimi K2, DeepSeek V3.2, Qwen)正在起飞[3] - 相比最前沿的AI模型 开源模型落后约6个月 但这个差距正逐步缩短 开源模型彻底改变了AI并吸引了广泛参与[3] - 开放创新激活了全球每个公司和行业的创新 将使AI无处不在[3] - AI模型现在的推理能力强大得不可思议[3] - AI Agent(人工智能体)是未来趋势 人们将拥有可教授公司独有技能的定制化个人AI[3] - 物理AI的“ChatGPT时刻”近在咫尺 但面临物理世界多样不可预测、真实训练数据收集缓慢昂贵且不足的挑战 合成数据是解决方案[5] - AI竞赛正在进行 每次达到新的前沿 上一代AI Token的成本就开始以大约每年10倍的速度下降[7] 技术发展与挑战 - 摩尔定律已基本放缓 晶体管数量的增长无法追上每年增长的Token需求 也无法跟上Token成本下降的速度[7] - 产业要继续进步 需要进行激进、极端的协同设计 跨所有芯片和整个技术栈同时创新 这是公司决定重新设计每块芯片的原因[7] - 公司赞赏AI搜索引擎工具Perplexity同时使用多个模型的做法 认为这是天才之举[3]
NVIDIA推出Alpamayo系列开源AI模型与工具,加速安全可靠的推理型辅助驾驶汽车开发
新浪财经· 2026-01-06 12:37
文章核心观点 - NVIDIA发布名为Alpamayo的开源AI模型、仿真工具及数据集系列,旨在通过赋予辅助驾驶系统类人的安全推理能力,以解决罕见、复杂的“长尾”驾驶场景难题,从而推动安全、可规模化自动驾驶技术的发展 [1][3] 产品发布与核心特性 - Alpamayo系列引入基于思维链的视觉语言动作模型,旨在为辅助驾驶决策注入类人的逐步推理能力,以提升系统在罕见或全新场景下的驾驶能力、可解释性及安全信任 [1] - Alpamayo并非直接部署的车端模型,而是作为大规模教师模型,供开发者调优和蒸馏,以构建其完整的辅助驾驶技术栈 [3] - 公司发布了Alpamayo 1模型,这是业界首款面向辅助驾驶研究社区设计的思维链VLA推理模型,基于100亿参数架构,可通过视频输入生成行驶轨迹及推理思路 [3] - 公司发布了AlpaSim,一款完全开源、面向高保真辅助驾驶开发的端到端仿真框架,提供逼真传感器建模和可扩展的闭环测试环境 [3] - 公司发布了物理AI开放数据集,包含超过1700小时的驾驶数据,覆盖广泛地理区域和环境条件,并特别涵盖推动推理架构发展所必需的罕见且复杂的真实世界极端场景 [4] - 上述开源模型、仿真框架与数据集共同构建了一个统一的开放生态系统,旨在形成自我强化的开发闭环,用于推理型辅助驾驶堆栈的开发 [3][4] 行业意义与战略定位 - 公司创始人兼首席执行官黄仁勋表示,物理AI的“ChatGPT时刻”已经到来,机器开始具备理解真实世界、推理并行动的能力,无人驾驶出租车将是最早受益的应用之一 [3] - 该系列的开源特性旨在加速全行业创新,使合作伙伴能够根据自身独特需求进行调整和优化 [5] - 开发者可利用NVIDIA的其他工具和模型库,基于专有车队数据对模型进行调优,并将其集成至由NVIDIA DRIVE AGX Thor加速计算构建的NVIDIA DRIVE Hyperion架构中 [5] 行业合作伙伴与专家评价 - 智能汽车行业的领先企业和专家,包括Lucid、捷豹路虎、Uber和伯克利DeepDrive,对Alpamayo展现出极高关注,希望利用其开发基于推理的自动驾驶堆栈以实现L4级自动驾驶 [5] - Lucid Motors高管认为,向物理AI的转变凸显了业界对具备真实世界行为推理能力的AI系统的需求,而先进的仿真环境、数据集和推理模型是核心要素 [5] - 捷豹路虎高管认为,开放透明的AI开发对负责任地推进自动驾驶出行具有重要意义,Alpamayo等开源模型为行业提供了安全应对真实世界复杂场景的新工具 [5] - Uber高管指出,处理长尾和不可预测场景是自动驾驶的核心挑战之一,Alpamayo为行业创造了突破性机遇,将加速物理AI发展并扩大L4级自动驾驶的安全部署 [5] - 标普全球分析师认为,Alpamayo 1使车辆能够解读复杂环境、预判未知情境并做出安全决策,其开源特性将加速全行业创新 [5] - 伯克利DeepDrive联合总监表示,该系列的发布为研究社区带来重大突破,其开源决策具有变革意义,将支持以前所未有的规模进行训练 [5]
老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛
创业邦· 2026-01-06 12:28
公司战略与核心主题 - 公司五年来首次在CES展会未发布游戏显卡,明确将全力投入AI领域[2] - 本次发布的核心主题直指物理AI,旨在将护城河从芯片层拓展至全栈平台层(模型+数据+工具),以拉动GPU与基础设施投入并增强用户与生态锁定[8][10] 下一代数据中心架构:Vera Rubin - 正式推出下一代AI数据中心机柜架构Vera Rubin NVL72,由六大核心组件构成:Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet switch[14][15] - 在NVFP4数据类型下,Rubin GPU推理性能达50 PFLOPS,是Blackwell GB200的5倍;训练性能为35 PFLOPS,是Blackwell的3.5倍[4][17] - 每颗Rubin GPU封装8组HBM4内存,提供288GB容量和22 TB/s带宽[17] - 引入NVLink 6用于规模内扩展网络,单GPU互连带宽提升至3.6 TB/s(双向),每个Vera Rubin NVL72机架配备9颗交换芯片,总规模内带宽达260 TB/s[17] - Vera CPU集成88个定制Olympus Arm核心,采用空间多线程设计,最多可同时运行176个线程[17] - 用于机架扩展的Spectrum-X以太网交换机基于Spectrum-6芯片构建,采用共封装光学技术,其中SN688提供409.6 Tb/s总带宽,SN6810提供102.4 Tb/s总带宽[20] - 推出BlueField-4 DPU,构建新的推理上下文内存存储平台,旨在高效共享与复用键值缓存数据,提升系统响应与吞吐[22][24] - 与Blackwell相比,Vera Rubin在训练MoE模型时所需GPU数量仅为四分之一;在MoE推理场景下,每token成本最高可降低10倍[24] - 每个Vera Rubin NVL72机架可提供3.6 exaFLOPS的NVFP4推理性能、2.5 exaFLOPS的NVFP4训练性能、54 TB的LPDDR5X内存以及20.7 TB带宽达1.6 PB/s的HBM4内存[25] - 构建机架所需的六类芯片已全部从晶圆厂交付,预计2026年下半年启动规模化量产[24] 自动驾驶开源模型与生态 - 推出全新开源模型系列Alpamayo,面向安全推理的自动驾驶[26][27] - 发布全球首款开源、大规模的自动驾驶视觉-语言-行动推理模型Alpamayo 1,参数100亿,能让车辆理解环境并解释自身决策[29] - 配套推出开源仿真框架AlpacaSim,支持在不同环境与边缘场景中进行闭环训练与评估[31] - 发布包含1700小时驾驶数据的开源数据集,数据采集自全球广泛区域,涵盖复杂真实边缘场景[32] - Alpamayo将率先搭载于2025年第二季度欧洲上市的梅赛德斯-奔驰CLA车型,后续通过OTA升级逐步推送高速脱手驾驶、城市全场景自动驾驶等功能[32] - 展示了基于自身技术构建的全球L4级自动驾驶与Robotaxi生态系统全景,连接软件开发商、整车厂/出行平台、硬件供应商,覆盖全产业链[34] AI智能体与专项模型 - NVIDIA Nemotron在AI智能体领域推出针对语音、RAG以及安全三大场景的专项模型[37] - Nemotron Speech包含新的自动语音识别模型,支持实时低延迟场景,速度比同类模型快10倍,已被博世采用[39] - Nemotron RAG搭载新的视觉语言模型,能精准处理多语言、多模态数据,提升文档搜索效率[39] - Nemotron Safety系列模型专注于增强AI应用安全性与可信度,包括内容安全模型和检测敏感数据的PII模型[39] 物理AI与机器人平台 - 为机器人推出的推理大脑Cosmos平台升级,主要用于生成符合现实世界物理规律的合成数据,已被Figure、Agility Robotics、通用汽车等公司采用[40][41] - 发布Cosmos Reason 2视觉-语言推理模型,帮助机器人与AI智能体更精准地感知、理解并与物理世界交互[45] - 发布Cosmos Transfer 2.5与Cosmos Predict 2.5模型,可在不同环境与条件下生成大规模的合成视频[45] - Salesforce、Milestone、Hitachi等企业正采用Cosmos Reason模型开发AI智能体;Franka Robotics等利用Isaac GR00T模型对机器人行为进行仿真、训练与验证[46] - 面向机器人领域推出NVIDIA Isaac GR00T[11] 医疗健康与生命科学AI - NVIDIA Clara是专门针对医疗健康与生命科学领域的AI技术工具,旨在降低行业成本、加速治疗方案落地[48] - La-Proteina模型能设计原子级精度的大型蛋白质[48] - ReaSyn v2模型在药物发现阶段即考虑生产问题[48] - KERMT模型可以预测潜在药物进入人体后的反应,提前排查安全问题[50] - RNAPro模型用来预测RNA分子复杂的3D结构,推进个性化医疗[50] - 将为研究者提供包含45.5万个合成蛋白质结构的数据集[49] 开源与社区贡献 - 公司宣布持续向社区开源训练框架以及多模态数据集[8] - 开源数据集包括10万亿语言训练token、50万条机器人轨迹数据、45.5万个蛋白质结构、100TB车辆传感器数据[8] 对中国开源模型的提及 - 公司在演讲开篇提及了DeepSeek,Kimi K2、Qwen也出现在PPT展示页上[12]
英伟达想做“物理AI”的“安卓”
华尔街见闻· 2026-01-06 12:01
公司战略与行业趋势 - 英伟达正致力于打造机器人领域的默认平台,旨在复制安卓在智能手机操作系统的主导地位 [1] - 公司布局反映了人工智能从云端向物理世界迁移的行业趋势 [1] - 随着传感器成本下降、仿真技术进步和AI模型泛化能力提升,机器人正从执行单一任务向通用化方向演进 [1] 产品与平台发布 - 公司在CES 2026上发布了多款开源基础模型,使机器人能够在多种任务和环境中进行推理、规划和适应,所有模型均在Hugging Face平台上开放 [1] - 公司推出了新一代Blackwell架构的Jetson T4000显卡,以及名为OSMO的开源指挥中心,以支撑整个机器人开发工作流程 [1] - 公司推出了Isaac Lab-Arena开源仿真框架,整合了资源、任务场景、训练工具以及Libero、RoboCasa和RoboTwin等既有基准测试,为行业建立通用框架 [3] - 配套的开源平台OSMO作为指挥中心,将从数据生成到训练的整个工作流程整合在一起,支持桌面和云端环境 [3] 模型矩阵构建 - 公司发布的基础模型构成了物理AI的核心能力层 [2] - Cosmos Transfer 2.5和Cosmos Predict 2.5两款世界模型负责合成数据生成和机器人策略评估,可在仿真环境中验证机器人行为 [3] - Cosmos Reason 2作为推理型视觉语言模型,赋予AI系统在物理世界中观察、理解和行动的能力 [3] - Isaac GR00T N1.6是专门针对人形机器人开发的视觉语言动作模型,以Cosmos Reason作为推理核心,实现全身控制功能,使人形机器人能够同时完成移动和物体操作 [3] 降低开发门槛 - 公司深化了与Hugging Face的合作,旨在降低机器人训练的硬件门槛和技术壁垒 [1] - Jetson T4000图形卡搭载Blackwell架构,作为成本效益型设备端算力升级方案,提供1200万亿次浮点AI算力和64GB内存,功耗控制在40至70瓦之间 [4] - 公司将Isaac和GR00T技术集成到Hugging Face的LeRobot框架中,连接英伟达200万机器人开发者与Hugging Face 1300万AI构建者 [5] - 开源人形机器人Reachy 2现已直接支持英伟达Jetson Thor芯片,开发者可以测试不同AI模型而无需被锁定在专有系统中 [5] 市场影响与采用情况 - 机器人类别已成为Hugging Face平台上增长最快的领域 [1] - 波士顿动力、卡特彼勒、Franka Robots和NEURA Robotics等企业已在使用英伟达技术 [1][5] - 英伟达的模型在Hugging Face平台的下载量上处于领先地位 [5]
数千人现场听讲!英伟达新一代GPU发布,还提到了3个中国大模型
每日经济新闻· 2026-01-06 11:48
公司动态与产品发布 - 英伟达首席执行官黄仁勋在CES 2026发表主题演讲 现场吸引了约3000名观众[1] - 公司发布了新一代GPU 其推理算力是上一代“Blackwell”系列的5倍[7] - 公司介绍了其Cosmos AI世界模型 旨在加速智能汽车、机器人和视频分析AI智能体的物理AI开发[5] - 公司于8年前开始研究自动驾驶汽车 愿景是实现每辆车、每辆卡车的自主驾驶[5] 行业趋势与战略观点 - 人工智能正在改变世界并以惊人速度普及 开放模型在2025年取得重要进步[3] - 相比最前沿的AI模型 开源模型落后约6个月 但差距正逐步缩短 开源模型彻底改变了人工智能并吸引了广泛参与[3] - 开放模型的兴起激活了全球各行业创新 使AI无处不在 AI模型现具备强大的推理能力[3] - 物理AI的“ChatGPT时刻”近在咫尺 但面临物理世界多样不可预测、真实世界训练数据收集缓慢昂贵且不足的挑战 合成数据被视为解决方案[5] - AI竞赛持续进行 每次达到新前沿 上一代AI Token成本就以大约每年10倍的速度下降[7] 技术发展与生态合作 - 演讲中展示了包括Kimi K2、DeepSeek V3.2、Qwen在内的开源大模型 并特别提及了DeepSeek[3] - 黄仁勋赞扬了AI搜索引擎工具Perplexity 认为其同时使用多个模型是天才之举[3] - 提及AI Agent(人工智能体)的未来 认为人们将拥有可教授公司独有技能的定制化个人AI[3] - 由于摩尔定律放缓 晶体管数量增长无法匹配Token成本下降的需求 产业进步需要跨所有芯片及整个技术栈的激进、极端协同设计与创新[7]
黄仁勋CES演讲全文来了!Rubin全面投产,算力暴涨5倍,砸掉智驾门槛All in物理世界
华尔街见闻· 2026-01-06 11:19
文章核心观点 英伟达在CES 2025上通过其CEO黄仁勋的演讲,全面展示了公司在人工智能(AI)领域从底层硬件到上层应用的全栈领导力[1] 演讲核心传递了公司正从“生成式AI”向“推理型AI”和“物理AI”进行战略范式转移,并通过名为Vera Rubin的新一代AI计算平台等一系列突破性技术,旨在解决AI大规模推理的成本、记忆(显存)和能源效率瓶颈,加速AI在云端和物理世界的商业化落地[5] 基础设施与算力:Vera Rubin平台与极端协同设计 - **新一代AI计算平台全面投产**:Vera Rubin AI平台的全部六款核心芯片已完成制造和关键测试,进入全面生产阶段,计划于2026年下半年交付首批客户[6][8] - **极端协同设计突破物理极限**:在晶体管数量仅增长1.6倍的物理瓶颈下,通过CPU、GPU、网络芯片到冷却系统的全方位协同设计,强行实现推理性能5倍提升(达50 PFLOPS)和训练性能3.5倍提升[5][10] - **大幅降低推理成本**:明确回应市场对AI成本过高的担忧,Rubin平台将推理Token生成成本压低至上一代Blackwell平台的1/10[6][8] - **革命性连接与冷却技术**:NVLink 6将机架内通信带宽推高至240 TB/s,是全球互联网总带宽的两倍以上[11] Rubin架构支持45℃温水冷却,无需高能耗冷水机组,可直接为全球数据中心节省6%的电力[6][22] - **解决AI“记忆”瓶颈**:利用BlueField-4 DPU构建推理上下文内存存储平台,为每颗GPU额外增加16TB高速共享内存,彻底解决长文本和长时对话的“显存墙”问题[6][15][17] 模型演进:从生成式AI到推理型AI - **确立范式转移**:公司正式确立了从“生成式AI”向“推理型AI”(Test-time Scaling)的范式转移,强调AI不再是单次问答,而是需要多步思考和规划的思维链过程[5][14] - **应对算力需求转移**:AI模型展现出的思维链能力意味着未来算力消耗将从训练侧大规模转移到推理侧,这创造了巨大的增量算力需求[14] - **开源模型生态扩张**:通过开源Alpamayo(自动驾驶推理)、Cosmos(物理世界模型)以及Nemotron(智能体)等系列模型,推动AI具备逻辑推理和长时记忆能力,以处理复杂长尾场景[5][29] 物理AI落地与商业化 - **自动驾驶模型商业化落地**:发布全球首款开源的、具备推理和决策解释能力的自动驾驶模型Alpamayo,并明确首款搭载英伟达全栈DRIVE系统的梅赛德斯-奔驰CLA车型将于2026年第一季度在美国上路[6][18][20] - **深入工业制造领域**:与工业巨头西门子达成深度全栈合作,将英伟达的物理AI、代理AI模型和Omniverse平台集成到西门子的工业软件与数字孪生工具链中,标志着AI技术向万亿美元规模的工业经济全面渗透[5][24][26][27] - **机器人生态系统构建**:展示了涵盖人形机器人、工业机械臂等多种机器人的广泛生态系统,并通过Omniverse中的Isaac Sim等工具提供机器人训练与模拟能力[37][69][70] 开放生态与产业合作战略 - **主动引领开源生态**:面对强大的开源模型趋势,公司选择成为开源的领导者,宣布扩展其“开放模型宇宙”,覆盖生物医学、物理世界等六大领域,并提供包括训练数据、模型架构在内的全套开源工具链[29][35][38] - **赋能企业AI应用**:与Palantir、ServiceNow、Snowflake等全球领先的企业平台公司合作,将英伟达的AI技术加速并整合到其平台中,使智能体系统成为未来企业软件的新界面[57] - **重塑芯片设计行业**:与Cadence、Synopsys等EDA(电子设计自动化)公司合作,将AI技术集成到芯片与系统设计工具中,未来将在这些工具内部设计和仿真整个制造流程[71][72][73]
英伟达,重磅发布!黄仁勋:重要时刻要来了
第一财经· 2026-01-06 11:17
行业与计算范式变革 - 计算机行业正经历由AI驱动的双重平台变革,AI既是应用又是新平台,将催生新的应用生态[6] - 软件开发范式被彻底颠覆,从编写代码转向训练模型,从预编译执行转向实时生成,整个技术栈正在重构[6] - 加速计算和人工智能正在重塑计算领域的每个层面,过去十年价值约10万亿美元的计算基础设施正在进行现代化改造[7] - 每年有数千亿美元的风投资金涌入AI领域,同时全球100万亿美元的产业正在将研发预算从传统方法转向人工智能[7] - 去年行业最重要的改变之一是开源模型真正起飞,中国的DeepSeek R1等模型激活了全球开源运动,性能逼近前沿模型[7][8] 物理AI与核心战略 - 公司认为AI发展的下一站是进入物理世界,并已为此工作8年,核心挑战是让AI获得对物理世界的“常识”[10] - 仿真技术是公司几乎所有物理AI工作的核心,通过多层次技术栈推动AI从对话者转变为现实世界的行动者[12] - 公司建立了一个由三台计算机组成的系统来训练AI学习物理常识,并利用基于物理定律的合成数据进行训练[10] - 物理AI将赋能芯片设计、生产线自动化乃至整个数字孪生系统,实现“在计算机中设计、在计算机中制造”[16] 自动驾驶汽车发展 - 公司认为从非自动驾驶汽车到自动驾驶汽车的转折点可能正在发生,未来十年很大一部分汽车将是自动驾驶或高度自动驾驶的[14] - 公司推出的开源推理VLA模型Alpamayo,可加速基于推理的、安全的自动驾驶车辆开发,是公司AV团队数千人的工作成果[16] - 公司DRIVE AV软件将在梅赛德斯奔驰车辆上使用,第一辆AV自动驾驶汽车将在2026年第一季度在美国上路,第二季度进入欧洲,第三或第四季度进入亚洲[16] - 公司将继续更新版本,合作建造L4 Robotaxi的生态系统还在扩大[16] 工业制造与机器人应用 - 公司宣布与西门子深化合作,将物理AI模型、Omniverse仿真平台集成至西门子的工业软件组合,覆盖从芯片设计到生产运营的全生命周期[16] - 公司认为正站在一场新工业革命的开端[16] - 机器人系统的下一段征程是发展不同尺寸的机器人,公司推出了包括Cosmos Transfer 2.5和Cosmos Predict 2.5世界模型在内的多个开源模型及开发框架[17] Rubin芯片平台性能 - Rubin平台包含六款新芯片:Vera CPU、Rubin GPU、NVLink 6交换机芯片、ConnectX-9 Spectrum-X超级网卡芯片、BlueField-4 DPU、Spectrum-6以太网交换机芯片[19] - Rubin GPU的NVFP4推理算力为50 PFLOPS,是Blackwell的5倍;NVFP4训练算力是35 PFLOPS,是Blackwell的3.5倍[21] - Rubin GPU的HBM4内存带宽22 TB/s,是Blackwell的2.8倍,晶体管数量3360亿个,是Blackwell的1.6倍[21] - 与Blackwell平台相比,Rubin平台通过软硬件协同设计,将推理token成本降低10倍,将训练MoE模型所需的GPU数量减少4倍[21] 其他新芯片与系统性能 - ConnectX-9 Spectrum-X超级网卡芯片有230亿个晶体管,支持800 GB/s以太网[22] - BlueField-4 DPU有1260亿个晶体管,其网络能力、计算能力和内存带宽是上一代BlueField-3的2倍、6倍、3倍[22] - Spectrum-X以太网共封装光学器件有3520亿个晶体管,可支持102.4 Tb/s横向扩展交换基础设施[22] - 公司推出了由BlueField-4 DPU支持的推理上下文内存存储平台,作为一种新型的AI存储基础设施[23] 超节点与产品规划 - Vera Rubin NVL72的NVFP4推理和训练算力分别是3.6 EFLOPS、2.5 EFLOPS,分别是Blackwell的5倍和3.5倍[24] - Vera Rubin NVL72的HBM4内存带宽1.6 PB/s,是Blackwell的2.8倍,晶体管数量220万亿个,是Blackwell的1.7倍[24] - 使用Rubin NVLink72训练模型,所需GPU数量是使用Blackwell NVL72的1/4,思考输出的token数量则是10倍[24] - DGX SuperPOD由一个超节点整合8个Rubin NVL72机架中的576颗GPU,产品将于2026年下半年上市[24] - Rubin平台产品已全面投入生产,基于该平台的产品将于2026年下半年由合作伙伴推出,首批云服务提供商包括AWS、谷歌云、微软等,Anthropic、OpenAI、xAI等AI实验室也将使用[24]
直击CES | 黄仁勋新年第一场发布:物理AI的ChatGPT时刻即将到来
第一财经· 2026-01-06 10:20
英伟达CEO黄仁勋CES前演讲核心观点 - 英伟达CEO黄仁勋在CES开幕前发表演讲,发布多款与物理AI相关的开源模型,并首次详细披露新一代芯片平台Rubin的性能数据[1] - 演讲指出AI和计算架构正同时发生双重变革,AI本身既是应用又是新平台,软件开发范式正从编写代码转向训练模型[6] - 公司认为AI发展的下一站是进入物理世界,并预测自动驾驶汽车的转折点可能正在此时发生[9][12] 行业变革与AI平台 - 计算机行业每10到15年经历一次平台变革,但当前AI和计算架构正同时发生双重变革[6] - AI本身既是应用又是新平台,开发者将在其上构建更多应用[6] - 软件开发范式被彻底颠覆:从编写代码转向训练模型,从预编译执行转向实时生成[6] - 加速计算和人工智能正在彻底重塑计算领域的每个层面[7] - 过去十年价值约10万亿美元的计算基础设施正在进行现代化改造,每年还有数千亿美元的风投资金涌入该领域[7] - 全球100万亿美元的产业正在将研发预算从传统方法转向人工智能[7] - 去年行业最重要的改变之一是开源模型真正起飞,中国的DeepSeek R1等模型激活了全球性的开源运动[7] 物理AI与自动驾驶 - 物理AI是演讲的重中之重,英伟达已为此工作8年,其ChatGPT时刻即将到来[1][9] - 核心挑战在于让AI获得对物理世界的“常识”,如物体恒存性、因果性、摩擦力等[9] - 英伟达建立了一个包含训练、模拟和运行三台计算机的系统,并使用基于物理定律的合成数据来训练AI[9] - 仿真是英伟达几乎所有物理AI工作的核心,推动AI从对话者转变为现实世界的行动者[12] - 自动驾驶被视作最被看好的落地场景,未来十年世界上很大一部分汽车将是自动驾驶或高度自动驾驶的[12] - 英伟达推出开源推理VLA模型Alpamayo,包含开源AI模型、仿真工具和数据集,以加速安全的自动驾驶车辆开发[16] - 英伟达DRIVE AV软件将用于梅赛德斯奔驰车辆,第一辆AV自动驾驶汽车将于2025年第一季度在美国上路,随后进入欧洲和亚洲[16] - 公司将继续更新版本,并扩大合作建造L4 Robotaxi的生态系统[16] 工业制造与机器人 - 工业制造是物理AI的另一核心战场,英伟达宣布与西门子深化合作,将其物理AI模型、Omniverse仿真平台集成至西门子的工业软件组合[16] - 合作覆盖从芯片设计、工厂模拟到生产运营的全生命周期,公司认为正站在一场新工业革命的开端[16] - 物理AI将赋能芯片设计、生产线自动化乃至整个数字孪生系统,实现“在计算机中设计、在计算机中制造”[16] - 机器人系统的下一段征程是不同尺寸的机器人,公司推出了多个与机器人相关的开源模型和开发框架[17] - 新推出的模型包括Cosmos Transfer 2.5和Cosmos Predict 2.5世界模型、面向智能机器人的推理视觉语言模型Isaac GR00T N1.6等[17] Rubin芯片平台性能 - Rubin平台包含六款新芯片:Vera CPU、Rubin GPU、NVLink 6交换机芯片、ConnectX-9 Spectrum-X超级网卡芯片、BlueField-4 DPU、Spectrum-6以太网交换机芯片[18] - Rubin GPU的NVFP4(4位浮点数格式)推理算力为50 PFLOPS,是Blackwell的5倍;NVFP4训练算力为35 PFLOPS,是Blackwell的3.5倍[20] - Rubin GPU的HBM4内存带宽为22 TB/s,是Blackwell的2.8倍;晶体管数量为3360亿个,是Blackwell的1.6倍[20] - 与Blackwell平台相比,Rubin平台通过软硬件协同设计,将推理token成本降低10倍,将训练MoE模型所需的GPU数量减少4倍[20] - ConnectX-9 Spectrum-X超级网卡芯片有230亿个晶体管,支持800 GB/s以太网[21] - BlueField-4 DPU有1260亿个晶体管,其网络能力、计算能力和内存带宽是上一代BlueField-3的2倍、6倍、3倍[21] - Spectrum-X以太网共封装光学器件有3520亿个晶体管,可支持102.4 Tb/s横向扩展交换基础设施[21] 系统级产品与生产计划 - 公司推出了推理上下文内存存储平台,作为一种新型的AI存储基础设施,并由BlueField-4 DPU提供支持[22] - BlueField-4 DPU可为AI基础设施提供单一、可信的控制点,以便配置、隔离和运营大规模AI环境[22] - 新一代NVLink72是一种机架级扩展系统,通过整合多个CPU、GPU等形成单一较高效率的加速单元[22] - Vera Rubin NVL72的NVFP4推理和训练算力分别是3.6 EFLOPS、2.5 EFLOPS,分别是Blackwell的5倍和3.5倍[23] - Vera Rubin NVL72的HBM4内存带宽为1.6 PB/s,是Blackwell的2.8倍;晶体管数量为220万亿个,是Blackwell的1.7倍[23] - 相比使用Blackwell NVL72,使用Rubin NVLink72训练模型所需GPU数量是前者的1/4,思考输出的token数量则是10倍[23] - DGX SuperPOD由一个超节点整合8个Rubin NVL72机架中的576颗GPU,产品将于2025年下半年上市[23] - Rubin平台产品已全面投入生产,基于该平台的产品则将于2026年下半年由合作伙伴推出[23] - 首批使用Rubin的云服务提供商包括AWS、谷歌云、微软等,Anthropic、OpenAI、xAI等AI实验室也将使用其算力[23]
黄仁勋又夸了DeepSeek,新一代“算力巨兽”正在量产,性能暴增5倍!
凤凰网· 2026-01-06 10:19
行业范式迁移 - 计算行业正同时经历两大平台迁移:应用转向以AI为核心构建,以及软件开发运行范式从“编程”转向“训练”、从CPU转向GPU、从执行预编译代码转向实时生成内容 [2] - 驱动变革的资金来自全球研发预算向AI的转移以及海量风险投资,过去十年价值约10万亿美元的计算产业正在被现代化改造 [4] - 开源模型已触及技术前沿,虽然与最前沿专有模型仍有约6个月差距,但其快速迭代正激活全球创新,成为AI迅速扩散的主引擎 [4] AI能力演进:从数字智能到物理AI - AI能力演进的下一个关键阶段是从大语言模型的“记忆与生成”迈向智能体的“推理与行动”,智能体能够进行思维链推理、主动规划步骤并调用工具,以解决新问题 [5] - 智能体架构本质上是多模型、多云、混合式的,能够根据任务动态选择最佳模型,并结合企业私有定制化模型 [7] - 真正的挑战在于让AI理解物理世界,这引出了“物理AI”的核心主题,需要构建由训练计算机、边缘推理计算机和高精度物理模拟计算机组成的完整系统 [7] 开源世界模型与自动驾驶系统 - NVIDIA Cosmos是一个开源的、“前沿级”的世界基础模型,基于对互联网规模视频、真实驾驶数据和3D模拟的学习,建立起对世界运作方式的统一表征 [8] - Cosmos能够根据单张图片生成逼真视频,或从3D场景描述中生成物理合理的运动轨迹,并能在交互式闭环模拟中响应AI动作及进行因果推理,其核心价值在于“将计算转化为数据”,以解决现实世界数据收集的成本与效率瓶颈 [8] - 基于Cosmos生成的海量合成与真实数据,公司训练并开源了首个端到端自动驾驶系统NVIDIA AlphaMio,这是世界上第一个具备思考推理能力的自动驾驶汽车AI,具备行动可解释性,首款搭载该系统的梅赛德斯-奔驰汽车将于2026年第一季度上路 [8] 新一代AI芯片架构Vera Rubin - 面对AI模型规模每年增长10倍、计算需求爆炸的挑战,公司揭示了下一代AI芯片架构NVIDIA Vera Rubin [9] - Vera Rubin架构包含Vera CPU与Rubin GPU,其中新一代CPU性能功耗比提升2倍,GPU的AI浮点性能达到Blackwell架构的5倍 [11] - 架构包含革命性的NVFP4张量核心,能动态自适应调整精度以优化Transformer模型吞吐量 [11] - 这是一次从芯片到系统的全栈革新,包括集成硅光子的Spectrum-X以太网交换机(512个200Gb/s端口)、为AI工作负载重塑的BlueField-4 DPU,以及彻底简化的DGX机箱设计 [11] Vera Rubin的系统性能与生产状态 - Vera Rubin的性能飞跃秘诀在于“极端协同设计”,对公司内部所有芯片进行彻底重新设计,使其作为一个整体系统工作,一次性展示了6款革命性芯片 [12] - 一个包含1152个GPU的Vera Rubin POD机柜重达约2吨,内部含2英里长的铜缆,散热仅需45摄氏度温水,能效显著 [13] - 该架构将使训练一个10万亿参数大模型所需的系统数量减少至Blackwell的四分之一,同时推理成本降低一个数量级 [13] - Vera Rubin芯片架构目前正在全力生产中 [13] 产业生态与未来应用 - 公司与西门子达成重磅合作,将物理AI模型与Omniverse数字孪生平台深度集成到西门子的工业软件与自动化系统中,共同推动从芯片设计到生产运维的全面数字化革命 [13] - 自动驾驶汽车仅是物理AI的第一个主流市场,相同的技术栈正催生机器人革命的到来,从机械臂到人形机器人,机器人领域的“ChatGPT时刻”即将到来 [14] - 公司通过开源关键模型与发布颠覆性硬件,正强势定义“物理AI”时代的技术标准与基础设施,战略核心是以全栈式的开放生态占据从数据中心到机器人指尖的每一个计算节点 [14]
黄仁勋:Rubin提前量产,物理AI“ChatGPT时刻”已至
钛媒体APP· 2026-01-06 09:53
英伟达Rubin架构新品发布 - 2026年将是英伟达史无前例的支出大年,公司正力证自身在AI领域的绝对实力和领先优势 [2] - 在CES 2026上,英伟达CEO黄仁勋宣布新一代Rubin架构已实现全面投产,时间节点大幅早于市场此前预期的2026年下半年 [3] - Rubin平台整体架构由六颗芯片构成,包括Vera CPU、Rubin GPU、NVLink™6交换机、ConnectX-9® SuperNIC、BlueField-4® DPU和Spectrum-6™以太网交换机 [3] Rubin架构的性能与成本优势 - 相比于目前的Blackwell架构,Rubin通过使用4倍的GPU并行训练混合专家模型,使每个token的平均推理成本降低多达10倍 [4] - 大模型训练速度提高至3.5倍,能源使用效率大幅提升,每瓦特电力的推理能力提升8倍 [4] - 公司强调Rubin在性价比上的优势,旨在以最低成本加速主流AI的应用和普及 [4] - 公司CEO表示,其产品能帮助客户大幅改善总拥有成本,这是其每推出一代产品都能提升在数据中心份额的根本原因 [5] 市场竞争与客户需求 - 以谷歌TPU为代表的ASIC芯片正强势冲击英伟达GPU在AI芯片领域一家独大的地位,其优势之一是以更低的总拥有成本打造性能更优的大模型 [5] - 摩根大通预计,2026年数据中心AI芯片总出货量将同比增长26%至1292万颗,但ASIC芯片约43%的增速会明显高于GPU约15%的增速,ASIC市占比将从不到41%提升到超过46% [6] - 大多数主流云厂商、大模型厂商、人工智能实验室和计算机制造商都有意部署Rubin,包括AWS、谷歌、微软、Meta、甲骨文、OpenAI、Anthropic、xAI等 [5] - 在美国出口限制下,中国的云厂商和大模型开发者尚无法直接在本地部署Blackwell和Rubin [5] 英伟达对AI未来发展的布局 - 公司CEO认为人工智能将从生成式AI走向能够自主行动的代理AI,最终向能在现实世界行动的物理AI演进,并看好2026年进入“代理AI”阶段 [6] - 在物理AI方面,公司发布了多个机器人、自动驾驶领域的新品,包括首个实现自主思考与推理的自动驾驶模型Alpamayo、最新的Cosmos模型和GR00T开放模型及数据 [6] - 波士顿动力、卡特彼勒、Franka Robotics、LG电子等全球领先企业正在利用英伟达的机器人技术栈打造新的AI机器人 [7] - 公司CEO宣称,物理AI的“ChatGPT时刻”已经到来 [7]