Workflow
Physical AI
icon
搜索文档
Tech Bytes: Nvidia’s CES pitch — cheaper AI, bigger ‘factories’, and a push into the physical world
Proactiveinvestors NA· 2026-01-06 21:09
英伟达CES 2026核心观点 - 英伟达在CES 2026上提出,人工智能热潮并未降温,而是在拓宽,下一阶段将从“AI模型”转向可大规模、低成本部署于数据中心、汽车和机器人等现实场景的“AI系统” [1] 新一代平台Rubin - 发布下一代数据中心平台Rubin,作为Blackwell的继任者,被定位为公司的“首个极限协同设计AI平台” [1][2] - Rubin是一个六芯片一体化系统,而非独立的GPU升级,核心组件包括Rubin GPU、Vera CPU、NVLink 6、Spectrum-X以太网光子技术、ConnectX-9 SuperNIC和BlueField-4 DPU [2] - 该平台旨在通过紧密集成的系统(计算、网络、内存和软件协同设计)来减少瓶颈和成本,实现更高效的“令牌生成”,使更少的芯片完成更多有效工作 [3] - Rubin的设计目标是让AI工作负载的服务成本更低廉,而不仅仅是训练速度更快,以应对AI从演示走向日常产品后,每次查询成本与峰值性能同等重要的商业挑战 [4] 战略定位:从芯片到AI基础设施 - 公司反复强调“AI工厂”概念,即专门为工业规模生产智能而建造的数据中心,其战略定位正从芯片供应商转向AI经济的基础设施支柱 [5] - Rubin与新的网络、数据处理单元和光子技术一同发布,而非作为独立的GPU周期,向客户传递的信息是竞争优势在于全系统优化,而公司相信自己能提供端到端的解决方案 [6] - 此举是对竞争压力的回应,超大规模云厂商正越来越多地自研芯片(特别是推理芯片),竞争对手也在瞄准更窄、更便宜的工作负载,公司的对策是向更高层级的系统集成迈进,使其更难被逐个部件替换 [7] 物理AI与新兴应用 - 主题演讲的另一大主题是“物理AI”,即不仅能生成文本或图像,还能在现实世界中感知、推理和行动的系统 [8] - 这支撑了公司在机器人、自动驾驶汽车和仿真平台上的重新强调,随着AI从屏幕走向机器,对计算的延迟、可靠性和实时决策能力提出了关键要求 [8] - 公司多年来持续围绕汽车和机器人构建软件平台和开发者生态系统,CES 2026表明其认为技术和需求终于跟上了步伐 [9] - 在物理AI领域,开源模型的快速迭代被视为一种优势,随着模型每隔数月改进一次,价值将转向那些能在复杂环境中高效运行它们的硬件和系统 [10] 行业趋势与展望 - 行业正从实验阶段转向关注规模和可持续性的阶段,重点强调成本、效率和部署能力,这往往有利于拥有深厚工程资源和现有客户关系的现有企业,但也提高了回报门槛 [11] - AI增长的下一阶段可能不再像淘金热,而更像工业化进程:速度更慢、竞争更激烈,且越来越由能够以最低边际成本提供智能的参与者所塑造 [12] - 公司押注于像Rubin这样的紧密集成平台以及对物理AI的广泛推进,以保持其在此次行业转变中的核心地位,市场的认可将取决于未来12至18个月内这些系统在现实世界中的部署速度 [13]
英伟达CES2026跟踪报告:VeraRubin已正式量产,展示全新Agentic和PhysicalAI平台
招商证券· 2026-01-06 15:47
报告行业投资评级 - 推荐(维持)[4] 报告的核心观点 - 英伟达在CES 2026上正式宣布Vera Rubin平台已投入量产,展示了其在AI芯片、计算架构及Agentic与Physical AI平台方面的全面升级,标志着AI技术从生成式向自主行动时代的重大转型[1][3] - 报告认为Rubin平台在芯片性能、计算板设计、存储架构及AI应用生态上实现显著突破,建议关注英伟达及其产业链在服务器硬件、先进制造/封装等领域的投资机会[2][8][9] 根据相关目录分别进行总结 产品与技术升级 - **Vera Rubin平台量产与芯片升级**:Vera Rubin已投入量产,由6种芯片构成,包括:1) Vera CPU:2270亿个晶体管,支持1.8 TB/s的NVLink-C2C连接;2) Rubin GPU:3360亿个晶体管,HBM4带宽达22 TB/s(是Blackwell的2.8倍);3) CX9:800Gb/s以太网连接,230亿个晶体管;4) Bluefield-4 DPU:1260亿个晶体管,网卡速率800Gb/s(是BF3的2倍网络、6倍计算、3倍存储带宽);5) NVLink 6交换机芯片:1080亿个晶体管,Scale-Up Fabric为3.6TB/s;6) Spectrum-X以太网CPO:102.4Tb/s Scale-Out交换架构,3520亿个晶体管[1] - **计算板与存储架构革新**:Rubin计算板采用无缆化设计,包含1.7万个组件,提供100PF AI算力(是Blackwell的5倍),组装时间从上一代的2小时缩短至5分钟;存储系统新增Context Memory存储平台,每8个计算机柜配1个存储机柜,新增16TB内存,架构为HBM→Memory→Rack SSD→Network SSD[2] - **性能大幅提升**:Rubin机柜晶体管数量是之前的1.7倍,峰值推理性能提高5倍,训练性能提高3.5倍[2] AI平台与生态布局 - **发布Alpamayo加速自动驾驶**:推出首个100亿参数的推理VLA模型Alpamayo 1,旨在通过解释性逻辑加速L4级自动驾驶部署,计划于2026年Q1起在美、欧、亚市场落地,已获得捷豹路虎、Lucid及Uber等生态支持[3] - **构建Physical AI与Agentic AI全栈平台**:通过Omniverse连接器整合训练、模拟和推理流程;同步发布AlpaSim仿真框架、1700小时驾驶数据集、面向企业代理的Nemotron家族以及针对通用机器人的Cosmos平台与Isaac GR00T模型,以打通从云端训练到物理世界执行的全栈技术流[3][8] 行业数据与市场表现 - **行业规模**:报告覆盖的行业股票家数为518只,占总数的10.0%;总市值为14374.0十亿元,占比13.1%;流通市值为12340.1十亿元,占比12.4%[4] - **行业指数表现**:过去1个月绝对表现9.3%,相对表现6.4%;过去6个月绝对表现38.5%,相对表现20.1%;过去12个月绝对表现58.0%,相对表现33.0%[6] 投资建议与关注方向 - **投资建议**:建议关注国际GPU龙头英伟达及其产业链标的,关注服务器硬件层面的系统组装、GPU、CPU、存储、高速连接器和电光连接、PCB/IC载板、散热、电源、各类辅助芯片等零部件的投资机会,并关注国产算力厂商和华为昇腾等自主算力产业链相关公司,以及先进制造/封装和HBM等产业链机会[9] - **具体产业链标的列举**:包括但不限于PCB/CCL(如胜宏科技、生益科技等)、PCB设备(如大族数控等)、高速互联(如立讯精密等)、液冷/电源(如立讯精密、比亚迪电子等)、组装(如工业富联)等公司[9]
Hyundai Motor Group Announces AI Robotics Strategy to Lead Human-Centered Robotics Era at CES 2026
Prnewswire· 2026-01-06 09:37
公司战略发布 - 现代汽车集团在2026年国际消费电子展上发布了其变革性的AI机器人战略 路线图主题为“携手人类进步” 旨在引领以人为中心的机器人时代 [1][2] - 该战略基于三大基础合作伙伴关系 以推动行业和社会进步并解锁全新可能性 [3] 三大合作伙伴关系 - 合作伙伴关系一:人与协作机器人 机器人被设计用于在制造环境中协助和协作 执行高风险 危险以及重复性任务 [3] - 合作伙伴关系二:集团价值网络与波士顿动力公司合作 结合波士顿动力在AI机器人领域的技术专长与现代汽车集团的全球规模及制造能力 以建立安全的训练场地和端到端AI机器人价值链 [1][4] - 合作伙伴关系三:与全球AI领导者合作 与全球AI先驱者协作 开启AI机器人创新的新篇章 推动“为人类进步”的愿景 [5] 具体实施与目标 - 计划到2028年将Atlas机器人部署于现代汽车集团美国制造公司 用于执行装配任务 以推进以人为本的智能工厂创新 [1] - Atlas机器人通过执行高风险任务来减轻人类的身体负担 为机器人商业化及人机协作环境奠定基础 [1] - 集团旗下公司 包括现代汽车 起亚 现代摩比斯和现代格罗唯视 将协作构建端到端AI机器人价值链 [1] - 将通过数据驱动的生产和验证系统 如机器人超级工厂应用中心和软件定义工厂平台 来增强机器人能力 [1] - 通过与英伟达等公司的战略合作 推动世界级的AI机器人开发 [1] - 利用集团的全球制造专业知识 加速AI机器人的大规模生产 并扩展机器人即服务产品 [1] 技术发展与创新 - 通过与波士顿动力和谷歌DeepMind的合作 加速下一代人形机器人的技术开发 [1] - 通过整合尖端机器人与AI技术 推动人形机器人的安全高效部署 [1] - 集团将在2026年国际消费电子展展台上展示集成了AI机器人技术的Atlas Spot®和MobED 并提供互动体验和现场演示 [1] - 今年的主题基于其2022年国际消费电子展主题“扩展人类触及范围” 将硬件驱动的机器人发展为旨在放大人类潜能的 自适应的人工智能驱动机器人 [2] 行业定位与生态系统建设 - 基于此战略 现代汽车集团计划通过利用其集团范围内的价值链和广泛的产品组合 将自身定位为物理AI行业中以人为中心的领导者 [6] - 物理AI指技术在现实环境中使用硬件收集数据以做出自主决策的具体实现 涵盖机器人 智能工厂和自动驾驶等领域 [6] - 随着集团在从制造 物流到销售的整个价值链中获得实施物理AI所需的关键数据 它将通过将现实世界数据数字化用于AI学习并应用于产品 建立一个持续改进的循环 这将使业务从出行扩展到机器人领域 [7] - 集团还将推动建立现代汽车集团物理AI应用中心 该中心将在推进物理AI生态系统方面发挥关键作用 [8] - 集团计划基于通过物理AI开发的定制机器人技术 建立机器人制造和代工厂 [8]
NVIDIA (NasdaqGS:NVDA) Update / Briefing Transcript
2026-01-06 08:02
电话会议纪要关键要点总结 涉及的行业与公司 * 公司:NVIDIA (NVDA) [1] * 行业:人工智能、半导体、数据中心、云计算、自动驾驶汽车、机器人、医疗保健、量子计算 [7][22][27][54] 核心观点与论据 1. 技术领先与系统级协同设计 * NVIDIA强调其通过极致的协同设计能力实现性能飞跃,从Hopper到Blackwell实现了**10比1的性能提升和10比1的成本降低**,而晶体管数量仅增加**2倍**[8] * 公司认为,要跟上模型规模**10倍增长**、token增长和成本下降的速度,必须进行跨GPU、CPU、NIC、NVLink交换机等全系统的协同设计,否则将难以克服摩尔定律的限制[7][8][9] * NVIDIA展示了其Vera Rubin Pod,声称这是首个从头开始构建的、具备此类能力的系统,公司编写了每一行代码,设计了每一个芯片,创建了所有系统并优化了所有算法[7] 2. 产品进展与路线图 * **Vera Rubin**已进入**全面生产**阶段,计划在**今年下半年**推向市场[19][20] * Vera Rubin的升级周期约为**9个月以上**[20] * Vera Rubin的每个芯片都是全新的,包括HBM4、LPDDR5 SoCam等,其成功整合是一个“奇迹”[60] * **Grace Blackwell (GB300)** 的过渡非常顺利,正在被广泛部署[118] * 公司预计**明年将是Vera Rubin之年**,并将开始大规模出货[119] 3. 市场需求与业务规模 * 公司多次强调**需求非常强劲**[28][44][102][117] * 自动驾驶汽车业务经过**8年**发展,现已是一个**价值数十亿美元的业务**,预计到2030年底将成为一项非常大的业务[22][24] * 公司每个季度增长的规模相当于**一家大型上市芯片公司**[35] * 公司正在帮助供应链准备**数百亿美元**的产能[36] 4. 供应链与产能 * NVIDIA拥有规模优势,是**全球唯一购买DRAM的芯片公司**,直接从所有DRAM制造商处购买**价值数百亿美元的DRAM**[36][37] * 公司已认证并预备了所有HBM合作伙伴[38] * 公司通过MGX等项目在机架层面优化供应链,标准化组件[36] * 对于中国市场,公司有专门的H20供应,不会影响其他国家的订单和需求[42] 5. 竞争格局与生态系统 * NVIDIA认为自己是**全球唯一运行所有AI模型的平台**,包括xAI、OpenAI、Gemini、Anthropic以及所有开源模型[31][32] * 公司与**几乎所有拥有自动驾驶技术的公司**在数据中心有合作,包括特斯拉、比亚迪、小米、理想、小鹏等[23] * 公司采取开放策略,将大量软件和基础设施栈贡献给开源社区,以促进生态系统繁荣[8][23][24] * 公司认为,在基础模型领域可能会出现几家主要玩家(如OpenAI、Anthropic),但**垂直化(行业专用AI)将是明确趋势**,许多企业将基于开源模型构建自己的AI[70][71][74][75] 6. 新市场与增长领域 * **智能网卡(SmartNIC)与存储**:公司预计将成为**全球最大的存储处理器公司**,并可能出货最多的高端CPU。BlueField-4将非常成功,其DOCA软件层已被广泛采用。AI数据库和KV缓存将催生一个全新的、巨大的高性能存储市场[54][55] * **新云提供商(NeoClouds/GPU Clouds)**:公司培育并合作伙伴了众多区域性的、敏捷的新云提供商(如CoreWeave、Lambda、G42、Yotta),以快速应对技术和市场变化,并解决土地、电力和设施获取的挑战[85][86] * **物理AI与智能体AI**:公司通过Cosmo等模型降低物理AI的门槛。智能体AI框架将成为未来构建应用程序的基本框架,并可能推动**token生成率提升50倍**[77][82][101][119] * **收购与整合**:公司解释了收购Groq和Fabrica的逻辑,旨在整合具有互补技术的团队(如Groq的极低延迟架构),以扩展AI基础设施的能力边界,同时保持公司整体的精简和敏捷[14][107][108][110] 7. 财务与利润率展望 * 公司预计今年毛利率将维持在**70%左右的中段水平**[88] * 长期利润率与公司提供的价值直接相关,价值体现在三个核心维度:1) 训练合理规模模型所需的时间和GPU数量;2) 生成token的成本与服务质量;3) 在有限功耗(如**1吉瓦**)下数据中心的整体收益能力[89][91][92] * 建设一个AI工厂的成本可能高达**500亿美元**,其中约**200亿美元**是土地、电力和设施成本。因此,客户对性能提升的期望极高(如10倍),而非小幅改进(如50%)[63][64][94] * 公司通过极致的工程设计和协同设计(如NVFP4)来突破摩尔定律,以维持其价值交付能力和利润率[93] 8. 研发与未来方向 * 研发投入强度高,投资覆盖从土地、电力、设施到芯片、基础设施、模型和应用的整个技术栈,以及上下游供应链和各个行业[105][106] * 公司自身也是**全球最大的模型构建者之一**,为开放科学和市场构建领先模型,这为其架构创造了强大的飞轮效应[105][119] * 未来的技术突破可能围绕**无限上下文长度**、**状态空间模型(SSM)与Transformer的混合**、**持续学习**以及通过BlueField-4等技术**让内存更接近计算**[98][99][100] * **推理(inference)** 的token生成率目前正以**每年5倍**的速度增长,主要受推理需求驱动;而**智能体系统**可能推动其进一步**增长50倍**[97][100][101] 其他重要内容 * **DGX Cloud战略**:DGX Cloud从未旨在与云服务提供商(CSP)竞争,而是作为一项战略,用于:1) 帮助CSP为新的AI架构做好准备;2) 为CSP吸引开发者与客户(AI原生公司);3) 将NVIDIA的模型和合作伙伴生态引入CSP的云中。随着飞轮效应启动,NVIDIA自身对租用算力的需求在降低[46][47][48][49][50][51] * **软件与开源**:NVIDIA将大量软件贡献给开源,包括用于自动驾驶的仿真、合成数据生成和世界基础模型等基础设施栈[8][23] * **跨行业影响力**:公司活跃于多个行业,包括医疗保健(与机器人、影像、AI、药物发现公司合作)、量子计算(为全球几乎每台量子计算机提供动力)等[27] * **Amdahl定律挑战**:公司指出,如果只构建单芯片或架构不变,Amdahl定律会成为瓶颈,无法充分利用晶体管增长带来的性能提升[9][14][93]
黄仁勋CES 2026演讲解析--AI计算需求爆炸式增长
傅里叶的猫· 2026-01-06 07:51
文章核心观点 英伟达在CES 2026上通过其主题演讲,系统性地阐述了公司在人工智能领域的未来战略重心,核心是推动AI从数字世界向物理世界的扩展,并为此构建了从底层硬件到上层应用的全栈平台[3][8][12][19] AI Agent - 公司将Agentic AI定位为AI发展的重大转型,标志着从生成式、推理模型进入具备高级推理、多步规划和自主行动能力的“代理”阶段[6] - Agentic AI的核心是多模型、多模态代理系统,这些代理根据专长相互调用形成“推理链”,以处理复杂任务,例如Perplexity和Cursor等模型的应用[6] - 该技术将革命企业AI,使企业能够训练特定任务模型并结合推理扩展能力,例如使用Nemotron等模型让数字代理自主管理工作流[7] - Agentic AI被视为连接物理世界的桥梁,使得大语言模型训练的AI代理能够从云端扩展到工业、工厂和机器人领域[8] Physical AI - Physical AI是本次演讲中占比最长的主题,其定义是让摄像头、机器人、自动驾驶汽车等自主系统在物理世界中感知、理解、推理并执行复杂操作[10] - 该技术解决了自主机器无法准确感知和适应物理环境的核心问题,其实现依赖于基于物理规律的仿真技术,通过在虚拟环境中安全训练来提高任务效率和精度[11] - Physical AI正在驱动多个行业变革:在机器人领域,使机器人从工具变为智能设备,如自主移动机器人、机械臂、手术机器人和人形机器人;在自动驾驶领域,让车辆能实时处理传感器数据并在虚拟环境中训练以应对复杂场景;在工业领域,通过摄像头和AI优化工厂、仓库的运营效率与安全[11][12] - 公司将其定位为AI发展的下一个重大阶段,即“机器人学的ChatGPT时刻”或“通用机器人大爆炸”,意味着AI从数字世界扩展到物理世界[12] - 为实现Physical AI,公司推出了全栈平台,以Omniverse为连接器,整合了训练、模拟和推理流程[13] - 平台中的关键亮点是Cosmos世界基础模型,它用于生成基于物理的合成数据以训练机器人和自动驾驶系统,公司提出了“Compute is Data”的理念,强调计算力本身已成为数据来源[15][16] - 公司展示了与三大EDA公司(Cadence, Synopsys)的合作,其技术将应用于汽车、工业、航空航天、医疗等多个领域的数字孪生[18] - 公司预测Physical AI将重塑全球产业,从工厂自动化到家用机器人,并成为应对劳动力短缺的必需技术,推动万亿参数“世界模型”在现实世界中落地[19] Rubin平台 - 公司宣布其下一代AI平台Vera Rubin已进入全面生产阶段,预计2026年下半年开始出货[22] - 该平台硬件核心包括Rubin GPU和Vera CPU,两者协同设计以实现更快数据共享和更低延迟,优化大规模AI模型的训练和推理[24] - Rubin GPU相比前代Blackwell性能大幅提升:NVFP4推理性能达50 PFLOPS,是Blackwell的5倍;NVFP4训练性能达35 PFLOPS,是Blackwell的3.5倍;HBM4带宽为22 TB/s,是前代的2.8倍;NVLink带宽每GPU达3.6 TB/s,是前代的2倍;晶体管数量达3360亿个,是Blackwell的1.6倍[24][33] - Vera CPU拥有88个定制核心、176线程,系统内存达1.5 TB,是Grace CPU的3倍,晶体管数量达2270亿个[31] - 平台升级包含六款新芯片:Rubin GPU、Vera CPU、NVLink 6、NVSwitch、新一代BlueField-4 DPU以及ConnectX-9智能网卡[24] - BlueField-4 DPU拥有1260亿个晶体管,提供800Gb/s带宽,其网络、计算和内存带宽相比BlueField-3分别提升2倍、6倍和3倍[26] - ConnectX-9智能网卡提供800Gb/s以太网带宽,拥有230亿个晶体管,具备可编程RDMA和数据路径加速器以及先进的安全功能[35] - 公司强调Rubin的升级是机架级甚至更大规模的AI基础设施飞跃,而不仅仅是单个芯片的升级[24] - 平台的其他组件包括无电缆、无软管、无风扇的Vera Rubin计算托盘,以及集成共封装光学的Spectrum-X以太网交换机,后者拥有3520亿个晶体管,提供102.4 Tb/s的扩展交换基础设施[28][30]
Nvidia Unveils Alpamayo AI For Autonomous Vehicles: 'Chat-GPT Moment' For Cars
Benzinga· 2026-01-06 07:00
英伟达发布开源Alpamayo系列 - 公司在CES 2026上发布了开源的Alpamayo系列 标志着自动驾驶开发模式的转变 [1] - 新推出的Alpamayo引入了视觉语言行动模型 该模型具备类人的推理能力 不同于以往将感知与规划分离的传统系统 [2] 技术核心:推理革命 - 自动驾驶的核心挑战在于处理罕见且不可预测的“长尾”道路场景 传统算法难以应对 [3] - Alpamayo 1是一个拥有100亿参数的模型 通过思维链推理来解决此问题 [3] - 公司CEO黄仁勋称 这标志着物理AI的“ChatGPT时刻”到来 机器开始理解、推理并在现实世界中行动 [3] - 该技术首先将使Robotaxi受益 让自动驾驶汽车能够思考罕见场景、在复杂环境中安全驾驶并解释其决策 这是实现安全、可扩展自动驾驶的基础 [4] - 模型能像人类一样进行逻辑推理 例如“街上有球 所以可能有小孩跟随” 并同时生成轨迹和逻辑轨迹 [4] - 这种决策透明度对于帮助开发者和监管机构理解车辆的具体决策原因至关重要 [5] 三支柱生态系统 - 公司提供了一个全栈开源开发环境 包含三个核心组件 [6] - **Alpamayo 1**: 一个开源的VLA模型 充当“教师”角色 允许开发者将其复杂推理提炼成更小、更快的模型 以供实车使用 [6] - **AlpaSim**: 一个开源的高保真仿真框架 用于在车辆上路前在“闭环”数字环境中进行测试 [6] - **物理AI数据集**: 超过1700小时的多样化驾驶数据 专门策划包含历史上阻碍L4级自动驾驶的罕见边缘案例 [6] - 通过迈向端到端的物理AI 公司正利用其主导的硬件地位 特别是DRIVE Thor平台 来运行这些庞大的神经网络 [6] 行业影响与合作 - 行业领导者如Lucid集团和Uber技术公司已对Alpamayo框架表示出兴趣 以加速其L4级自动驾驶路线图 [7] - Lucid Motors的ADAS和自动驾驶副总裁Kai Stepper表示 向物理AI的转变凸显了对能够推理现实世界行为而不仅仅是处理数据的AI系统日益增长的需求 [7] - Stepper补充道 先进的仿真环境、丰富的数据集和推理模型是技术演进的重要元素 [8] - 这可能是物理AI的“ChatGPT时刻” 机器最终开始理解物理世界的细微差别 而不仅仅是对其做出反应 [9]
LEM Surgical Showcases the World's First "Surgical Humanoid" at CES 2026; Groundbreaking NVIDIA Physical AI Toolsets to Drive Dynamis Robotic Surgical System Development
Accessnewswire· 2026-01-06 07:00
公司动态 - LEM Surgical公司宣布将参加2026年国际消费电子展 [1] - 公司是下一代硬组织机器人手术领域的领导者 [1] 产品与技术 - Dynamis机器人手术系统已获得美国食品药品监督管理局批准,并在拉斯维加斯投入常规临床使用 [1] - 该系统将进行下一次升级,利用英伟达Jetson Thor、英伟达Isaac for Healthcare和英伟达Cosmos平台来定义硬组织机器人手术的未来 [1]
NVIDIA Releases New Physical AI Models as Global Partners Unveil Next-Generation Robots
Globenewswire· 2026-01-06 06:04
核心观点 - NVIDIA在CES 2026上宣布了针对物理人工智能(物理AI)的新开放模型、框架和基础设施,旨在加速机器人技术发展,并推出了由全球合作伙伴打造的多行业机器人 [2] - 公司CEO黄仁勋称“机器人技术的ChatGPT时刻已经到来”,物理AI的突破正在解锁全新的应用,NVIDIA的全栈技术正赋能全球合作伙伴通过AI驱动机器人变革行业 [4] 新产品与技术发布 - **开放模型**:发布了NVIDIA Cosmos™ Transfer 2.5、Cosmos Predict 2.5(用于物理合成数据生成和策略评估的世界模型)以及Cosmos Reason 2(开放推理视觉语言模型VLM)[19] - **专用机器人模型**:发布了NVIDIA Isaac™ GR00T N1.6,这是一个专为人形机器人打造的开放推理视觉语言动作(VLA)模型,可实现全身控制并利用Cosmos Reason进行更好的推理 [19] - **开源框架**:发布了开源框架NVIDIA Isaac Lab-Arena,用于大规模机器人策略评估和基准测试 [9];发布了云原生编排框架NVIDIA OSMO,用于统一机器人开发工作流 [10] - **硬件升级**:推出了基于Blackwell架构的新NVIDIA Jetson™ T4000模块,在1000件批量下售价为1,999美元,其性能是上一代的4倍,拥有1,200 FP4 TFLOPS和64GB内存,功耗可配置为70瓦 [22] - **边缘计算**:宣布NVIDIA IGX Thor将于本月晚些时候上市,将高性能AI计算扩展到工业边缘 [23] 合作伙伴与生态系统 - **行业领导者采用**:包括波士顿动力、卡特彼勒、Franka Robotics、Humanoid、LG电子和NEURA Robotics在内的全球行业领导者正在使用NVIDIA机器人技术栈推出新的AI驱动机器人 [3][18] - **具体应用案例**: - Franka Robotics、NEURA Robotics和Humanoid使用GR00T工作流模拟、训练和验证机器人新行为 [5] - Salesforce使用Agentforce、Cosmos Reason和NVIDIA Blueprint分析机器人拍摄的视频,将事件解决时间缩短了2倍 [5] - LEM Surgical使用NVIDIA Isaac for Healthcare和Cosmos Transfer训练其Dynamis手术机器人的自主手臂 [6] - XRlabs使用Thor和Isaac for Healthcare使手术镜(从外窥镜开始)能够通过实时AI分析指导外科医生 [6] - Hexagon Robotics等机器人开发者已开始使用OSMO,该框架已集成到微软Azure Robotics Accelerator工具链中 [11] - **社区合作**:NVIDIA与Hugging Face合作,将开源Isaac和GR00T技术集成到领先的LeRobot开源机器人框架中,此举联合了NVIDIA的200万机器人开发者和Hugging Face的1300万AI构建者社区 [13] 机器人产品展示 - **人形机器人**:多家合作伙伴展示了集成NVIDIA Jetson Thor的新一代人形机器人 [15] - NEURA Robotics推出了保时捷设计的第三代Gen 3人形机器人以及一款优化灵巧控制的小型人形机器人 [20] - Richtech Robotics推出了Dex,一款用于复杂工业环境中精细操作和导航的移动人形机器人 [20] - AGIBOT推出了面向工业和消费领域的人形机器人以及集成Isaac Sim的机器人仿真平台Genie Sim 3.0 [20] - LG电子推出了一款能够执行广泛室内家务任务的新型家用机器人 [20] - 波士顿动力、Humanoid和RLWRLD已将Jetson Thor集成到其现有人形机器人中以增强导航和操作能力 [21] - **其他自主机器**:合作伙伴基于NVIDIA技术推出了从移动机械臂到人形机器人的多种新机器人和自主设备 [18] 市场与行业影响 - **增长领域**:机器人技术现已成为Hugging Face上增长最快的类别,NVIDIA的开放模型和数据集在蓬勃发展的开源社区中下载量领先 [12] - **技术可及性**:NVIDIA正在构建开放模型,使开发者能够绕过资源密集的预训练,专注于创建下一代AI机器人和自主机器 [5] - **协作扩展**:卡特彼勒正在扩大与NVIDIA的合作,将先进的AI和自主技术引入建筑和采矿领域的设备与工地 [25]
NVIDIA (NasdaqGS:NVDA) 2026 Conference Transcript
2026-01-06 06:02
NVIDIA CES 2026 主题演讲纪要分析 涉及的行业与公司 * 公司:NVIDIA (NVDA) [1] * 行业:人工智能、加速计算、半导体、云计算、自动驾驶汽车、机器人、工业设计与制造、EDA(电子设计自动化)[1][2][3][4][5][6][7][8][9][10][11][12][13][14][15][16][17][18][19][20][21][22][23][24][25][26][27][28][29][30][31][32][33][34][35][36][37][38][39][40][41][42][43][44][45][46][47][48][49][50][51][52][53][54][55][56][57][58][59][60][61][62][63][64][65][66][67][68][69][70][71][72][73][74][75][76][77][78][79][80][81][82][83][84][85][86][87] 核心观点与论据 1. 人工智能引领双重平台变革 * 计算行业每10-15年发生一次平台转移,当前正同时经历向AI和基于AI构建应用的双重平台变革 [1][2] * 整个计算产业的五层堆栈(从芯片到应用)正在被重塑:软件从编程变为训练,计算从CPU转向GPU,应用从预编译变为实时生成 [2] * 过去十年价值约10万亿美元的计算基础设施正在向这种新计算方式现代化 [3] * 每年有数百亿至数千亿美元的VC资金投入这一现代化进程,同时数万亿美元产业(其中几个百分点是研发预算)的研发资金正转向人工智能 [3] 2. 2025年AI关键进展与趋势 * **推理模型与测试时扩展**:2023年ChatGPT O1模型引入“测试时扩展”(即思考),使AI能够实时推理 [5] * **智能体系统普及**:2024年开始出现,2025年广泛扩散,能够推理、查找信息、研究、使用工具、规划未来、模拟结果 [5][6] * **物理AI**:理解自然法则并与物理世界交互的AI [6][7] * **开源模型达到前沿水平**:以DeepSeek R1(首个开源推理系统)为代表,开源模型虽仍落后前沿专有模型约6个月,但每6个月就有新模型出现且越来越智能 [7][8] * **下载量激增**:开源模型下载量爆炸式增长,因为初创公司、大企业、研究人员、学生和各国都希望参与AI革命 [8] 3. NVIDIA作为前沿AI模型构建者的战略 * 公司运营着价值数十亿美元的DGX超级计算机用于开发自己的开源模型 [9] * 在多个领域进行前沿AI模型工作,包括: * **数字生物学**:La Protina(合成与生成蛋白质)、OpenFold3(理解蛋白质结构)、Evo2(理解与生成多种蛋白质) [9] * **物理AI**:Earth-2(理解物理定律)、FourCastNet和CorrDiff(革新天气预测) [10] * **基础模型**:Nemotron-3(首个混合Transformer SSM模型,速度极快)、Cosmos(前沿开放世界基础模型)、GR00T(人形机器人系统) [10] * **自动驾驶**:AlphaMyo [11] * 不仅开源模型,还开源用于训练模型的数据,并提供全套生命周期管理库(NeMo、Physics NeMo、Clara NeMo、Bio NeMo) [11] * 模型在多个排行榜上位居前列,包括PDF解析、语音识别、检索模型(语义搜索)等 [13][14] 4. 智能体(Agent)架构与AI应用未来 * AI智能体具备推理能力,能够将未知问题分解为已知步骤,无需在第一天就知晓一切 [15][16] * 未来AI应用架构是多模态、多云、混合云的,能够调用最适合任务的不同模型 [17][18] * 公司提供“蓝图”框架,集成到全球企业SaaS平台中,使企业能够构建既定制化又始终处于前沿的AI [19] * 现场演示了使用Brev、DGX Spark、前沿模型API、意图模型路由器和Hugging Face的Ricci机器人构建个人助理的示例 [20][21][22] * 这种基于语言模型(结合专有前沿模型与定制模型)的智能体框架,是现代AI应用的基本架构 [23] 5. 企业AI与物理AI的变革 * **企业AI**:与Palantir、ServiceNow、Snowflake、CodeRabbit、CrowdStrike、NetApp等领先企业平台合作,将智能体系统集成并加速其平台,智能体系统正成为新的用户界面,取代传统如Excel或命令行 [24][25] * **物理AI**:致力于让AI理解物理世界的常识(物体恒存性、因果关系、摩擦力、重力、惯性),这需要三个计算系统:训练AI的计算机、在边缘推理的计算机、以及用于模拟的计算机 [26][27][28][29] * **核心模拟与数据生成平台**: * **Omniverse**:数字孪生、基于物理的模拟世界 [29] * **Cosmos**:世界基础模型,通过对互联网规模视频、真实驾驶与机器人数据以及3D模拟进行预训练,学习世界的统一表征,能够生成物理上合理的合成数据以解决真实世界数据稀缺问题 [30][31] * Cosmos已被下载数百万次,公司也用它来创建自动驾驶汽车,进行场景生成和评估 [32] 6. 自动驾驶汽车:AlphaMyo与全栈整合 * **AlphaMyo发布**:全球首个具备思考、推理能力的自动驾驶汽车AI,端到端训练(从摄像头输入到执行机构输出) [33] * **数据来源**:结合自身驾驶里程、人类示范驾驶里程以及Cosmos生成的数据,并辅以数十万个精心标注的示例 [33] * **关键特性**:不仅处理传感器输入并控制车辆,还会推理即将采取的行动、解释原因并规划轨迹,通过处理“长尾”驾驶场景 [33][34] * **全栈整合示例**:以与梅赛德斯-奔驰的合作为例,展示了AI五层蛋糕在机器人领域的应用: * 底层:汽车(机器人本体) * 第二层:芯片(GPU、网络芯片、CPU) * 第三层:基础设施(Omniverse、Cosmos) * 第四层:模型(AlphaMyo) * 第五层:应用(梅赛德斯-奔驰汽车) [36][37] * **商业化进展**:首款NVIDIA自动驾驶汽车将于2026年Q1在美国上路,Q2进入欧洲,Q3/Q4进入亚洲,并将持续更新AlphaMyo版本 [38] * **安全架构**:采用双软件栈(AlphaMyo栈和经典AV栈)镜像运行,由策略与安全评估器决定使用哪个栈,确保安全冗余 [39][40] * **商业模式**:整个堆栈对生态系统开放,合作伙伴可根据需要采用全栈或部分技术,这已成为公司的巨大业务 [41][42] 7. 机器人技术的下一篇章 * 物理AI和模拟技术适用于所有形式的机器人系统(操纵器、移动机器人、人形机器人) [42] * 机器人通过Omniverse中的Isaac Sim和Isaac Lab模拟器进行训练 [43][44] * 众多合作伙伴正在构建各种机器人,包括Neurobot、Agibot、LG、卡特彼勒、Agility、Boston Dynamics、手术机器人、Franka、Universal Robots等 [44] 8. 赋能半导体与工业设计行业 * 物理AI和AI物理将革命性改变半导体设计(EDA)和系统设计行业 [45] * 与Cadence、Synopsys和西门子达成深度合作,将CUDA X库、物理AI、智能体AI、NeMo、Nemotron集成到其设计、仿真和数字孪生工具中 [45][46][49] * 未来将出现智能体芯片设计师和系统设计师,芯片和系统将在计算机中设计、制造、测试和评估 [46][47][48] * 与西门子的合作旨在将物理AI带入从设计、仿真到生产、运营的完整工业生命周期,开启新的工业革命 [49] 9. 下一代计算平台:Vera Rubin * **发布背景**:AI计算需求飙升,模型规模每年以10倍(一个数量级)增长,O1模型引入后,推理变为思考过程,测试时扩展导致生成的token数量每年增加5倍,同时AI token成本每年下降约10倍 [51][52] * **设计理念**:由于摩尔定律放缓,晶体管数量年增长有限(Vera Rubin GPU晶体管数量仅为Blackwell的1.6倍),必须通过极致的协同设计(重新设计所有芯片和整个堆栈)来实现性能飞跃 [57][58][60] * **系统组成**: * **Vera CPU**:定制设计CPU,性能是上一代的两倍,与Rubin GPU协同设计,双向一致共享数据 [55][59] * **Rubin GPU**:AI浮点性能是Blackwell的5倍,采用革命性的MVFP4张量核心,可动态自适应调整精度 [55][60][61][62] * **ConnectX-9 NIC**:为每个GPU提供1.6 terabits/秒的横向扩展带宽 [55] * **BlueField-4 DPU**:卸载存储和安全功能 [55] * **第六代NVLink交换机**:数据移动量超过全球互联网,连接18个计算节点,最多72个Rubin GPU协同工作 [56][68] * **Spectrum-X以太网光子交换机**:世界首个具有512端口、200 gigabits/秒能力的共封装光学器件以太网交换机,采用TSMC的COOP硅光子集成新工艺 [56][72] * **关键创新与性能**: * **能效**:功耗是Grace Blackwell的两倍,但进气流量相同,冷却水温仍为45摄氏度,无需冷水机,预计可节省全球数据中心约6%的电力 [71][80] * **机密计算安全**:所有总线(PCIe、NVLink)在传输、静态和计算过程中均加密 [81] * **功率平滑**:解决AI工作负载瞬时尖峰(可达25%)问题,避免过度配置造成的能源浪费 [82] * **性能数据(模拟预测)**: * **训练**:对于10万亿参数模型(DeepSeek Plus Plus),Rubin的吞吐量远高于Blackwell,只需1/4数量的系统即可在一个月内完成训练 [84][85] * **工厂吞吐量**:Rubin的吞吐量每瓦性能预计将比Blackwell再高10倍左右,直接影响数据中心收入 [85][86] * **Token成本**:Rubin生成token的成本效益约为Blackwell的十分之一 [86] * **规模化部署**:Vera Rubin已投入全面生产,一个Rubin Pod包含1,152个GPU(16个机架,每机架72个GPU) [54][56][57] 其他重要内容 * **公司定位演进**:NVIDIA不仅构建芯片,现在构建整个系统,AI是一个全栈事业,公司正在从芯片到基础设施、模型、应用等各个方面重塑AI [86] * **市场拐点**:自动驾驶汽车从非自动驾驶到自动驾驶的拐点可能正在此时发生,未来10年,全球很大比例的汽车将成为自动驾驶或高度自动驾驶 [42] * **生态合作广度**:演讲中提及大量合作伙伴,涵盖云计算、企业软件、数据平台、网络安全、工业设计、机器人等多个领域,凸显NVIDIA生态系统的广泛性和战略重要性 [24][41][44][45][46][49]
NVIDIA (NasdaqGS:NVDA) 2026 Earnings Call Presentation
2026-01-06 05:00
业绩总结 - Hugging Face的月下载量在2023年达到了160百万次[9] - NVIDIA的Rubin GPU的推理性能达到3.6 EFLOPS,训练性能为2.5 EFLOPS[134] - NVIDIA的AI计算需求激增,预计每年令令牌数量增长5倍[113] 用户数据 - 80%的初创公司正在基于开放模型进行构建[10] - 在开放模型中,Owen2-VL-7B在文本识别、文本引用和文本定位的准确率分别为72.1%、47.9%和17.5%[20] 新产品和新技术研发 - 预计到2025年,生成和处理数据的能力将显著提升,推动市场趋势[10] - 公司在2025年将推出全栈自动驾驶平台,搭载在梅赛德斯-奔驰CLA车型上[68] - 预计将发布的语言模型包括Kimi K2和DeepSeek V3.2等[8] - 新推出的六款芯片标志着技术的重大进步[144][147] 市场扩张和并购 - NVIDIA在开放模型生态系统中处于领先地位,推动了多模型和多云的应用[14] - 新平台支持每秒处理5倍更多的tokens,且能实现5倍的能效提升[142] 负面信息 - 在开放模型中,Cosmos-Reason1-78在IntPhys、MVPBench和CausalVQA的准确率分别为59.88%、41.31%和48.17%[18] 其他新策略和有价值的信息 - NVIDIA的Vera CPU具有1.8 TB/s的NVLink-C2C带宽和1.5 TB的系统内存,支持176线程[120] - NVIDIA的HBM4带宽达到1.6 PB/s,较之前提升了2.8倍[134] - NVIDIA的Spectrum-X以102.4 Tb/s的规模扩展交换基础设施,支持128个800 Gb/s端口[136] - NVIDIA的BlueField-4 DPU提供800G Gb/s的网络处理能力,具有64核Grace CPU[127] - NVIDIA的ConnectX-9支持800 Gb/s以太网,具备23亿个晶体管[125] - NVIDIA的NVFP4训练性能为35 PFLOPS,较之前提升了3.5倍[122] - NVIDIA的Vera Rubin GPU拥有3360亿个晶体管,较之前提升了1.6倍[122] - 训练时间减少至原来的四分之一,所需GPU数量减少[148] - 工厂的token产出能力提高至原来的10倍[150] - Token成本降低至原来的十分之一[151] - 预计一个月内可处理100万亿tokens[149] - 提供一个适用于所有AI的统一平台,包括Vera Rubin和Open Models[152]