Workflow
AlpaSim仿真框架
icon
搜索文档
英伟达开源Alpamayo系列模型,有望重塑端到端自动驾驶
长江证券· 2026-01-07 18:46
报告行业投资评级 - 投资评级为“看好”,并予以“维持” [7] 报告的核心观点 - 英伟达于太平洋时间2026年1月5日开源了Alpamayo系列AI模型、仿真工具及数据集,旨在推动安全可靠的推理型辅助驾驶汽车开发 [2][4] - 此次开源有望帮助开发者改进自动驾驶技术,加速高级版智能驾驶的商业化落地,并惠及全产业链 [2] - 建议关注智能驾驶相关硬件提供商以及Robotaxi等自动驾驶运营平台 [2][10] 事件评论总结 - **Alpamayo 1模型的技术特点**:该模型是业界首个面向自动驾驶车辆的开放式大规模推理视觉-语言-动作模型,通过视频输入生成行驶轨迹并给出推理思路,能识别独特驾驶情况并找出正确行驶方式 [10] - **模型参数与规划**:目前模型基于100亿参数架构,后续模型将具备更大参数规模、更精细推理能力、更灵活输入输出方式及更丰富商用选项 [10] - **配套开源工具**:同时发布了开源仿真框架AlpaSim和物理AI开放数据集,AlpaSim提供高保真仿真环境,数据集包含超过1700小时的驾驶数据,覆盖广泛地理区域和环境条件,特别是罕见且复杂的真实世界极端场景 [10] - **行业支持与影响**:获得了Lucid、捷豹路虎、Uber等移动出行领域领先企业及标普全球、伯克利DeepDrive等机构的关注,各方认为其核心价值在于推动物理AI发展,赋予系统对真实世界的推理能力,破解长尾驾驶场景难题 [10] - **开源意义**:其开源特性为开发者和研究人员提供了应对复杂场景的新工具,支持规模化训练与个性化优化,推动了自动驾驶生态的开放创新,有望加速L4级自动驾驶的安全部署与普及 [10]
英伟达全面入局,自动驾驶将迎来“蝶变时刻”?
36氪· 2026-01-07 10:55
文章核心观点 - 英伟达在CES 2026上发布了名为Alpamayo的完整自动驾驶生态体系,标志着“物理AI的ChatGPT时刻”到来,旨在解决L4级自动驾驶规模化落地的“长尾场景”难题,并可能推动行业在2026年从测试运营走向商业普及 [1] Alpamayo生态体系构成 - Alpamayo并非单一产品,而是一个由三大板块构成的“自动驾驶研发工具箱”,形成了从模型训练、数据支撑到仿真验证的全链路闭环 [3] - **核心模型**:Alpamayo-R1是一款拥有100亿参数的“视觉-语言-行动”模型,其突破在于通过“思维链”技术实现了从“感知预测”到“推理规划”的范式跃迁,使车辆具备类人思考能力,能处理未知场景并清晰输出决策依据 [3] - **开源与数据**:英伟达将Alpamayo-R1底层代码在Hugging Face平台开源,以降低研发门槛 [4] 同时发布了包含1727小时驾驶数据的全球数据集,覆盖25个国家、2500多个城市,共拆分为310,895个20秒场景片段,并可通过Cosmos生成式世界模型制造合成数据以补充极端场景 [4] - **仿真框架**:开源的AlpaSim仿真框架为自动驾驶测试提供了高精度的“无限虚拟试验场”,可大幅降低实车路测的成本与风险 [6] - **核心价值与落地**:Alpamayo让自动驾驶系统从“会开车”升级为“会思考、能解释” [6] 首款搭载英伟达全栈DRIVE系统的梅赛德斯-奔驰CLA车型将于2026年第一季度在美国上路,标志着其AI技术首次完整应用于量产汽车 [6] 技术范式革命:从感知到物理AI - Alpamayo的发布标志着自动驾驶AI研发范式从“手工作坊式”的算法堆砌转向“工业化、标准化”的平台协作,是物理AI技术在真实场景的首次大规模落地尝试 [7] - 自动驾驶技术演进经历了感知AI、生成式AI、物理AI三个阶段,物理AI的核心是让智能走入真实世界,理解物理规律并从感知中直接生成行动,自动驾驶被认为是其第一个大规模应用场景 [7] - 英伟达的“三台计算机”战略支撑该架构:DGX训练计算机、车载推理计算机、Omniverse仿真计算机 [10] - 与传统“感知-预测-规划-控制”的分段式架构不同,Alpamayo采用端到端架构,通过100亿参数大模型实现全链路协同,直接将传感器输入转化为驾驶动作,并在感知信息不完整时仍能做出合理判断 [10] 对产业链的格局重塑 - **车企**:行业从“全栈自研”的内卷转向“生态竞合”,开源生态为二线车企和新兴品牌提供了“弯道超车”的机会,使其能基于Alpamayo聚焦场景优化与用户体验 [11] Lucid Motors和捷豹路虎等车企已表达合作意向 [11] - **芯片与算力产业**:需求从“暴力计算”转向“高效推理”,千亿参数模型的实时运行对车载计算平台的算力、能效提出极致要求,将倒逼芯片厂商优化架构设计并推动计算框架创新 [12] - **仿真与数据服务商**:仿真从“辅助工具”升维为“核心生产力”,市场对高保真度、大规模并行的仿真平台需求将爆发式增长,多模态时序数据的生成、管理与标注成为新赛道 [12] - **人才结构**:行业将催生自动驾驶AI训练师、场景定义工程师等新职业,需要大量懂驾驶场景、交通规则和人类行为的复合型人才 [12] - **中国市场**:Alpamayo的开源帮助中国车企更快对接全球先进技术,结合复杂道路场景优化方案,但也会加剧国内企业在数据闭环与场景深耕能力上的竞争 [13] 中国L3级自动驾驶试点已开启,核心零部件国产化替代加速,如星宸科技的车规级SPAD芯片、导远科技的ASIL D级IMU芯片已实现突破 [13] 开源生态面临的挑战与难题 - **长尾场景的解决并非自动**:达到99%的常规场景相对容易,但解决1%的长尾场景依赖泛化能力、常识推理和临场判断,仍需海量针对性的场景工程和测试验证 [14] 特斯拉CEO马斯克评论指出解决分布的长尾问题非常困难 [14] - **数据本地化挑战**:中国市场道路场景复杂,如非机动车逆行、行人随意横穿等,是Alpamayo全球数据集难以覆盖的,中国车企需补充本地化数据并构建适配中国场景的推理逻辑 [14] - **同质化竞争风险**:开源可能使底层能力差异缩小,竞争焦点将回归到数据,数据闭环能力成为新的核心竞争力 [15] - **伦理与法规滞后**:技术迭代快,但社会接受度、保险体系调整、法律法规完善是“慢变量” [15] 中国L3试点虽明确车企在系统激活期间承担主要责任,但全国性事故认定标准未统一,跨城市数据存证与责任划分要求差异大,带来合规挑战 [15] 保险机制存在空白,专属产品仍在探索,EDR数据追溯与理赔流程衔接尚未完善 [15] - **用户认知偏差与安全风险**:部分消费者过度依赖系统而忽视接管义务 [16] 测试显示36款车型在15个场景的平均通过率仅35.74%,高速场景通过率低至24%,极端天气下传感器误报、非常规障碍物识别率不足等问题仍突出 [16] 不同市场参与者的破局策略 - **自动驾驶创业者与科技公司**:策略应从“再造轮子”转向“站在巨人肩膀上创新”,深入研究开源生态,将资源聚焦于特定区域数据、独特商业场景或极致用户体验等差异化优势 [17] - **传统车企与Tier1供应商**:需重新评估软件战略,建立擅长运用大模型、场景定义与数据治理的团队,并加强与本地基础设施商协同,积累本地化长尾场景数据以优化模型适配 [17] - **投资者与行业观察者**:关注点应从技术演示转向商业化能力,关注数据飞轮转速、场景工程能力及清晰的商业化路径,在垂直领域实现闭环盈利的公司更具投资价值 [18] - **个人开发者与研究者**:迎来黄金时代,可尝试为特定场景微调模型或开发创新仿真测试用例,个人创新的杠杆效应被放大 [18] - **行业监管机构**:紧迫任务是推进政策协同,统一事故责任认定与数据存证标准,出台数据隐私保护与跨境存储法规,并引导保险机构推出创新产品以完善理赔机制 [18] 行业展望与关键节点 - 2026年被视为关键十字路口,行业将从“硬件之争”转向“软件生态之争”,从“技术演示”转向“商业验证” [19] - 自动驾驶商业化落地是技术、法规、生态、用户认知多维度协同的结果,Alpamayo解决了“工具”问题,但还需攻克场景工程、数据闭环、法规适配等一系列难题 [19] - 预计2026年在美国街头、2027年在中国城市道路上,消费者将能亲身感受到自动驾驶带来的改变 [20]
今年CES,芯片厂商又开始“神仙打架”
36氪· 2026-01-07 08:42
文章核心观点 - 本届CES展会是芯片产业的技术风向标,展示了三大核心趋势:AI已渗透技术金字塔的每一层,物理AI和边缘AI是两大竞争关键;汽车电子步入“集中化+软件定义”深水区,跨域融合成为行业必然趋势;生态竞争取代单点技术比拼,协同合作联合定义产品成为制胜关键 [33] 德州仪器 (TI) - 发布三款汽车新品:L3跨域融合SoC TDA5系列、单芯片8发8收雷达发射器AWR2188、全新10BASE-T1S以太网串行外设接口PHY DP83TD555J-Q1 [1] - TDA5系列SoC算力极为强大,最高达1200TOPS,能效比超24 TOPS/W,AI算力较前代产品最高可提升12倍,采用UCIe接口增强扩展性,并与新思科技合作推出虚拟开发套件 [1] - AWR2188是业界首个单芯片8发8收雷达方案,性能较现有解决方案提升30%,能对距离>350米的目标实现高精度探测 [4] - DP83TD555J-Q1是首款10BASE-T1S产品,具有纳秒级时间同步能力,支持数据线供电,可降低线缆设计复杂度和成本 [7] 亚德诺半导体 (ADI) - 在汽车、消费、机器人三大领域展示方案 [10] - 汽车领域展示最新A²B 2.0方案,带宽比1.0版本高4倍,并展示利用E²B和LED驱动器的车灯方案、GMSL技术、无线BMS方案等 [10] - 消费领域与IDUN Technologies合作开发AI直接响应人体大脑与身体信号的演示,并在AR眼镜展示并联电池管理方案 [10] - 机器人领域展示视觉赋能的自主机器人仿生手、高精度轮驱运动控制方案、3D深度感知、以及为独轮机器人展示的六自由度IMU [11] 恩智浦 (NXP) - 发布S32N7超高集成度处理器系列,采用5nm技术平台,包含32个兼容型号,可在一颗芯片上实现动力总成、车辆动态控制、车身、网关和安全域 [12] - 该处理器通过减少数十个硬件模块,帮助汽车制造商大幅简化车辆架构,总体拥有成本最高可减少20% [12] - 算力包括8个分锁Cortex-A78AE@1.8 GHz、12个分锁Cortex-R52@1.4 GHz、eIQ NPU等,存储支持LPDDR4X/5/5X、36MB SRAM等 [15] 微芯科技 (Microchip) - 展示大量Demo,重点包括适用于高通Ride平台的ASA Motion Link方案,以及基于10BASE-T1S的无软件式智能大灯 [17] - ASA-ML方案展示四颗ADAS摄像头通过该技术无缝连接至高通Snapdragon Ride平台 [17] - 10BASE-T1S无软件大灯搭载欧司朗25K像素ULED,由端点直接渲染视频流,降低了中央计算机复杂度并构建了硬件抽象层 [18] 芯科科技 (Silicon Labs) - 推出适用于Zephyr的新Simplicity SDK,这是一种经过严格审核的Zephyr代码库快照,可完全访问公司标准技术支持渠道 [19] - 展演了蓝牙信道探测和使用人工智能/机器学习进行的单芯片无线电机控制 [19] 英飞凌 (Infineon) - 联合Flex展示一款为区域控制单元设计的模块化开发套件,旨在加速面向软件定义汽车的电子/电气架构开发 [20] - 该套件支持所有核心区域控制功能,预验证硬件集成了英飞凌的AURIX微控制器、OPTIREG电源、PROFET等产品,软件栈得益于Vector的贡献 [20] 意法半导体 (ST) - 与帕加尼和Osdyne合作推出Osdyne Automotive Gateway,利用了ST的Stellar SR6 G系列MCU,实现了车内和车到X的通信路由与防火墙、诊断、遥测、远程监控及空中更新等功能 [22] - 该网关旨在集中计算,以大幅减少线束数量,同时提供更多功能和更好性能 [22] - 也展示了在人形机器人方面的应用合作 [24] 安霸 (Ambarella) - 发布CV7端侧AI视觉感知SoC,采用4nm制程,专为多元AI感知场景深度优化,应用包括8K消费级智能产品、安防监控、机器人、工业自动化及视频会议系统 [25] - 相较于上一代产品,CV7在同等负载下的功耗降低20%以上,AI性能较上一代CV5 SoC提升超过2.5倍,并支持卷积神经网络与Transformer网络协同运行 [25] 英伟达 (NVIDIA) - 发布大量革命性产品,包括首次亮相的Rubin平台,该平台包含Vera CPU、Rubin GPU等六款新芯片 [26] - 汽车方面推出NVIDIA Alpamayo系列开源AI模型、仿真工具及数据集,以及完全开源的端到端仿真框架AlpaSim和超过1700小时驾驶数据的物理AI开放数据集 [26] - 机器人方面推出Jetson T4000平台,提供高达1200 FP4 TFLOPs的AI计算和64 GB内存 [26] 英特尔 (Intel) - 第三代英特尔酷睿Ultra处理器正式发售,成为首款基于Intel 18A制程节点的产品 [27][28] - Intel 18A采用RibbonFET和PowerVia技术,可在相同功耗下提升芯片性能超过15%,或在相同性能下降低功耗25%以上,晶体管密度提升30% [28] - 集成Arc GPU的全新酷睿Ultra X9在1080p高画质下,45款游戏的平均帧率对比前代平台提升高达77% [28] 超威半导体 (AMD) - 发布多款重磅新品,包括全新AI芯片MI455X GPU、Ryzen AI 400系列处理器、AMD Ryzen AI Max+系列处理器以及AMD AI开发平台Ryzen AI Halo [29] - MI455X拥有3200亿晶体管和432GB HBM4内存 [29] - 首批Ryzen AI 400 PC计划本月晚些面市,全年计划推出超过120款设计,Ryzen AI Halo平台预计第二季度上市 [29] - 公司强调是唯一拥有GPU、CPU、NPU全栈计算引擎的公司,过去四年已将AI性能提升1000倍 [30] Arm - 特别关注物理AI、边缘AI发展,认为其智能化演进与深度融合将成为AI领域发展的核心动能 [31] - 携手合作伙伴围绕五大应用场景展示前沿趋势:自动驾驶、机器人、PC/笔记本电脑/平板、可穿戴设备、智能家居 [31] - 预计到2026年,各大主流OEM计划推出的相关PC等机型将超过100款 [32]
黄仁勋CES最新演讲:Rubin 今年上市,计算能力是 Blackwell 5 倍、Cursor 彻底改变了英伟达的软件开发方式、开源模型落后先进模型约6个月
AI前线· 2026-01-06 08:48
文章核心观点 - 英伟达在CES 2026上宣告AI发展进入历史性转折点,从理解语言走向改造物理世界,并系统性披露了面向“物理AI”的最新技术路线图 [2] - 公司正试图以一套完整的全栈式计算与软件体系,推动AI从“看懂世界”走向“理解、推理并行动” [2] 双重平台迁移与行业根本性转变 - 计算的核心正从传统CPU转向以GPU为核心的加速计算 [4] - 应用开发的基础正从预定规则代码转向以人工智能为基座,应用程序转变为能理解语境、动态生成内容的全新实体 [4] - 这两种根本性转变同时发生、相互交织,彻底重塑了计算的本质 [4] 2025年AI关键进展与趋势 - 2025年开源模型取得关键突破,虽仍落后尖端模型约六个月,但已触及技术前沿 [3][9] - 具备推理能力的模型出现,创造了“Test Time Scaling”革命性概念,即实时思考的能力 [6] - 能自主思考的Agent系统在2024年诞生,2025年已渗透到各个角落,能推理、检索信息、使用工具、规划未来 [8] - 物理AI是与物理世界交互及理解物理定律的AI,是除大语言模型外最重要的一类AI [8] - 开源模型的突破激活了全球企业、行业,模型下载量呈现爆炸式增长 [9] 英伟达的物理AI战略与三台计算机体系 - 构建物理AI需要三台计算机:用DGX训练AI模型,通过Omniverse和RTX上的Cosmos来仿真、测试与验证模型,最后通过AGX将模型部署到现实世界 [12] - 物理AI浪潮为英伟达物理AI部门带来近万亿美元的机遇 [12] - 公司将物理AI模型分为三大系列:Cosmos World基础模型、通用机器人模型GROOT,以及具备思考能力的自动驾驶模型AlphaMayo [12] Cosmos世界基础模型进展与应用 - Cosmos在对物理世界的理解上已与GPT-40、Gemini等顶级模型并驾齐驱,在物理推理等关键评估中取得更高分数 [14] - 这些模型下载量已突破400万次 [14] - 正驱动制造、物流、医疗健康与出行等各行业的实际应用,例如日立、Lem Surgical、Salesforce、Telet、Uber等公司均已部署 [14] 开源自动驾驶模型AlphaMayo - AlphaMayo是全新的开源AI模型、仿真工具和数据集系列,用于训练物理机器人和车辆,旨在帮助自动驾驶车辆应对复杂情况 [16] - 这是史上首个让自动驾驶车辆具备思考能力的模型,可以让自动驾驶汽车“像人类一样思考”,通过推理解决复杂边缘场景 [16] - 模型拥有100亿参数,既足以处理任务,又轻量化到可在工作站运行 [18] - 公司开源了包含17小时驾驶记录的数据集,成为业内最大最多元的公开自动驾驶数据集 [19] - 同时发布完全开源的AlpaSim仿真框架,用于评估推理模型 [19] 开源机器人模型GROOT 1.6与开发平台 - 发布GROOT 1.6,这是专为人形机器人打造的最新开源推理模型 [24] - 该版本采用Cosmos Reason作为长效思考中枢提升推理能力,并解锁了人形机器人全身协调控制能力 [24] - GROOT 1.6已成为社区热门选择,位列Hugging Face平台下载量最高的机器人基础模型之一 [24] - Isaac机器人平台提供了构建“通专融合型机器人”所需的开放框架、模型与工具库 [24] - 开发了开源控制中心NVIDIA OSMO,整合从数据生成到训练的完整流程 [26] - 发布Isaac Lab Arena,这是全球首个用于在仿真环境中安全测试机器人技能的开源框架 [26][27] 机器人生态合作与硬件支持 - 波士顿动力、Franco Robotics、Lem Surgical、LG电子等先进机器人公司已在Isaac与GROOT基础上构建其新一代物理AI系统 [29] - 英伟达与Hugging Face合作,将200万英伟达机器人专家与1300万Hugging Face AI开发者社区连接起来 [30] - 推出基于Blackwell架构的Jetson T4000,在40-70瓦功耗下提供1,200TOPS的AI算力与64GB内存,其AI性能与能效较AGX Orin提升4倍 [31] AI超算Vera Rubin发布 - 发布面向人工智能数据中心的新计算平台Vera Rubin,该系统目前正在生产中,首批产品将于2026年下半年上市 [32][36] - AI模型规模每年以10倍速度增长,推理变为思考过程导致计算需求爆炸,每年生成的文本量以5倍速度增长 [34] - 每次达到新边界,上一代AI生成文本的成本就会下降约10倍 [34] - Vera Rubin是一个由六种芯片(Vera CPU、Rubin GPU等)通过极致协同设计组成的系统 [38][44] - 系统重近2吨,包含220万亿个晶体管,是100%全液冷设计 [37][41] - 计算板卡可提供100 Petaflops的AI算力,是前代的5倍 [40] - 自设计启动以来累计投入1.5万工程师·年 [41] - 虽然功耗翻倍,但冷却液温度保持45°C,整个系统能效提升约两倍,预计能为全球数据中心节省6%的电力 [47] - 以训练10万亿参数模型为例,Rubin的吞吐量远超Blackwell,仅需1/4数量的系统即可在一个月内完成相同训练 [49]