Workflow
NVIDIA Alpamayo
icon
搜索文档
老黄All in物理AI!最新GPU性能5倍提升,还砸掉了智驾门槛
量子位· 2026-01-06 09:01
公司战略与核心主题 - 公司在CES 2026上明确展示全力投入AI领域的战略,五年来首次未发布游戏显卡[2] - 核心主题直指物理AI,旨在将技术护城河从芯片层拓展至全栈平台层(模型+数据+工具),以拉动更多GPU与基础设施投入并增强用户与生态锁定[7][10] 下一代数据中心架构:Vera Rubin - 正式推出下一代AI数据中心机柜架构Vera Rubin NVL72,预计2026年下半年启动规模化量产[14][38] - 架构由六大核心组件构成:Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4 DPU、Spectrum-6 Ethernet switch[15] - 在NVFP4数据类型下,Rubin GPU推理性能达50 PFLOPS,是Blackwell GB200的5倍;训练性能达35 PFLOPS,是Blackwell的3.5倍[4][17] - 每颗Rubin GPU封装8组HBM4内存,提供288GB容量和22 TB/s带宽[18] - 引入NVLink 6,将单GPU互连带宽提升至3.6 TB/s(双向),每个机架配备9颗交换芯片,总规模内带宽达260 TB/s[20][21] - Vera CPU集成88个定制Olympus Arm核心,最多可同时运行176个线程,与GPU连接的NVLink C2C互连带宽达1.8 TB/s,可寻址最多1.5 TB的LPDDR5X内存[22] - 推出采用共封装光学(CPO)的Spectrum-X以太网交换机用于扩展,其中SN688提供409.6 Tb/s总带宽,SN6810提供102.4 Tb/s总带宽[24][25][26][27] - 推出BlueField-4 DPU构建新的“推理上下文内存存储平台”,旨在高效共享与复用键值缓存数据,提升系统响应和吞吐能力[32][34] - 每个Vera Rubin NVL72机架整体可提供3.6 exaFLOPS的NVFP4推理性能、2.5 exaFLOPS的NVFP4训练性能、54 TB的LPDDR5X内存以及20.7 TB带宽达1.6 PB/s的HBM4内存[36][37] - 与Blackwell相比,训练MoE模型所需GPU数量仅为四分之一,在MoE推理场景下每token成本最高可降低10倍[36] 自动驾驶领域发布 - 推出面向安全推理自动驾驶的全新开源模型系列Alpamayo[39] - 发布全球首款开源、大规模的自动驾驶视觉-语言-行动推理模型Alpamayo 1,参数100亿,能理解环境并解释决策行为[41][42] - 配套推出开源仿真框架AlpacaSim,并发布包含1700小时驾驶数据的开源数据集,涵盖广泛地理区域与复杂边缘场景[44][45] - Alpamayo将率先搭载于2025年第二季度欧洲上市的梅赛德斯-奔驰CLA车型,后续通过OTA升级推送高级自动驾驶功能[45] - 展示了基于自身技术构建的全球L4级自动驾驶与Robotaxi生态系统全景,覆盖全产业链[47] AI模型与平台更新 - 推出面向Agentic AI的NVIDIA Nemotron模型家族,并持续向社区开源训练框架及多模态数据集[6] - 开源数据集包括10万亿语言训练token、50万条机器人轨迹数据、45.5万个蛋白质结构、100TB车辆传感器数据[6] - Nemotron进一步推出针对语音、RAG以及安全三大场景的专项模型[49] - Nemotron Speech包含新的自动语音识别模型,在实时低延迟场景中速度比同类模型快10倍,已被博世采用[51][52] - Nemotron RAG搭载新的视觉语言模型以提升文档搜索效率,Nemotron Safety系列模型专注于增强AI应用安全性与可信度[53] - 公司在演讲中提及国产开源模型DeepSeek、Kimi K2、Qwen[11][12] 物理AI与机器人 - 为机器人推出的“大脑”Cosmos平台升级,全新发布Cosmos Reason 2视觉-语言推理模型、Cosmos Transfer 2.5与Cosmos Predict 2.5合成视频生成模型[56][59] - 发布专为类人机器人打造的开源视觉-语言-行动推理模型Isaac GR00T N1.6,支持全身控制并集成Cosmos Reason模型[60] - 推出NVIDIA AI Blueprint for Video Search and Summarization参考工作流,用于构建分析视频的视觉AI智能体[60] - Cosmos平台已被Figure、Agility Robotics、通用汽车等公司采用,其模型正被Salesforce、Uber等企业用于开发AI智能体[54][58] 生物医学领域 - 推出专门针对医疗健康与生命科学领域的AI技术工具NVIDIA Clara,旨在降低行业成本、加速治疗方案落地[61][62] - 该系列包含多款专项模型:La-Proteina能设计原子级精度的大型蛋白质;ReaSyn v2在药物发现阶段考虑生产问题;KERMT预测潜在药物人体反应;RNAPro预测RNA分子3D结构[68] - 将为研究者提供包含45.5万个合成蛋白质结构的数据集[65]
NVIDIA Announces Alpamayo Family of Open-Source AI Models and Tools to Accelerate Safe, Reasoning-Based Autonomous Vehicle Development
Globenewswire· 2026-01-06 05:49
文章核心观点 - NVIDIA在CES 2026上发布了名为Alpamayo的开放式AI模型、仿真工具和数据集家族,旨在加速下一代基于推理的安全自动驾驶汽车发展 [1][4][12] - Alpamayo家族通过引入基于思维链的视觉语言行动模型,为自动驾驶决策带来类人推理能力,旨在解决罕见、复杂的“长尾”驾驶场景挑战 [2][3][12] - 该生态系统整合了开放模型、仿真框架和数据集三大支柱,为汽车开发商和研究团队提供了一个可构建的完整、开放生态系统 [4][10][11] 产品与技术细节 - **Alpamayo 1模型**:行业首个基于思维链推理的视觉语言行动模型,拥有100亿参数架构,使用视频输入生成轨迹和推理痕迹,展示每个决策背后的逻辑 [13] - **AlpaSim仿真框架**:一个完全开源、端到端的高保真自动驾驶开发仿真框架,提供真实的传感器建模、可配置的交通动态和可扩展的闭环测试环境 [13] - **Physical AI开放数据集**:包含超过1,700小时的驾驶数据,覆盖了最广泛的地理区域和条件,包含对推进推理架构至关重要的罕见复杂真实世界边缘案例 [13] - 这些模型并非直接在车载系统运行,而是作为大规模教师模型,供开发者微调并提炼到其完整自动驾驶技术栈的骨干中 [5] - 未来该家族的模型将具有更大的参数量、更详细的推理能力、更灵活的输入输出选项以及商业用途选择 [13] 行业影响与合作伙伴 - 移动出行领军企业和行业专家,包括Lucid、JLR、Uber和Berkeley DeepDrive,均对Alpamayo表现出兴趣,以开发能够实现L4级自动驾驶的基于推理的自动驾驶技术栈 [8][12] - 行业观点认为,向物理AI的转变凸显了对能够推理现实世界行为的AI系统日益增长的需求,而先进的仿真环境、丰富的数据集和推理模型是发展的重要元素 [9] - 该模型的开放源码性质加速了全行业的创新,使合作伙伴能够根据其独特需求调整和完善该技术 [9] - 借助Alpamayo,行业领导者和研究社区可以加快安全、基于推理的L4级部署路线图 [12] 开发与部署支持 - 开发者可以利用NVIDIA丰富的工具和模型库,包括来自NVIDIA Cosmos和NVIDIA Omniverse平台的工具 [9] - 开发者可以在专有车队数据上微调模型版本,将其集成到基于NVIDIA DRIVE AGX Thor加速计算构建的NVIDIA DRIVE Hyperion架构中,并在商业部署前在仿真中验证性能 [9] - 这些工具共同为基于推理的自动驾驶技术栈实现了一个自我强化的开发循环 [7]
NVIDIA (NasdaqGS:NVDA) 2026 Earnings Call Presentation
2026-01-06 05:00
业绩总结 - Hugging Face的月下载量在2023年达到了160百万次[9] - NVIDIA的Rubin GPU的推理性能达到3.6 EFLOPS,训练性能为2.5 EFLOPS[134] - NVIDIA的AI计算需求激增,预计每年令令牌数量增长5倍[113] 用户数据 - 80%的初创公司正在基于开放模型进行构建[10] - 在开放模型中,Owen2-VL-7B在文本识别、文本引用和文本定位的准确率分别为72.1%、47.9%和17.5%[20] 新产品和新技术研发 - 预计到2025年,生成和处理数据的能力将显著提升,推动市场趋势[10] - 公司在2025年将推出全栈自动驾驶平台,搭载在梅赛德斯-奔驰CLA车型上[68] - 预计将发布的语言模型包括Kimi K2和DeepSeek V3.2等[8] - 新推出的六款芯片标志着技术的重大进步[144][147] 市场扩张和并购 - NVIDIA在开放模型生态系统中处于领先地位,推动了多模型和多云的应用[14] - 新平台支持每秒处理5倍更多的tokens,且能实现5倍的能效提升[142] 负面信息 - 在开放模型中,Cosmos-Reason1-78在IntPhys、MVPBench和CausalVQA的准确率分别为59.88%、41.31%和48.17%[18] 其他新策略和有价值的信息 - NVIDIA的Vera CPU具有1.8 TB/s的NVLink-C2C带宽和1.5 TB的系统内存,支持176线程[120] - NVIDIA的HBM4带宽达到1.6 PB/s,较之前提升了2.8倍[134] - NVIDIA的Spectrum-X以102.4 Tb/s的规模扩展交换基础设施,支持128个800 Gb/s端口[136] - NVIDIA的BlueField-4 DPU提供800G Gb/s的网络处理能力,具有64核Grace CPU[127] - NVIDIA的ConnectX-9支持800 Gb/s以太网,具备23亿个晶体管[125] - NVIDIA的NVFP4训练性能为35 PFLOPS,较之前提升了3.5倍[122] - NVIDIA的Vera Rubin GPU拥有3360亿个晶体管,较之前提升了1.6倍[122] - 训练时间减少至原来的四分之一,所需GPU数量减少[148] - 工厂的token产出能力提高至原来的10倍[150] - Token成本降低至原来的十分之一[151] - 预计一个月内可处理100万亿tokens[149] - 提供一个适用于所有AI的统一平台,包括Vera Rubin和Open Models[152]