AlpaSim仿真框架
搜索文档
英伟达开源Alpamayo系列模型,有望重塑端到端自动驾驶
长江证券· 2026-01-07 18:46
报告行业投资评级 - 投资评级为“看好”,并予以“维持” [7] 报告的核心观点 - 英伟达于太平洋时间2026年1月5日开源了Alpamayo系列AI模型、仿真工具及数据集,旨在推动安全可靠的推理型辅助驾驶汽车开发 [2][4] - 此次开源有望帮助开发者改进自动驾驶技术,加速高级版智能驾驶的商业化落地,并惠及全产业链 [2] - 建议关注智能驾驶相关硬件提供商以及Robotaxi等自动驾驶运营平台 [2][10] 事件评论总结 - **Alpamayo 1模型的技术特点**:该模型是业界首个面向自动驾驶车辆的开放式大规模推理视觉-语言-动作模型,通过视频输入生成行驶轨迹并给出推理思路,能识别独特驾驶情况并找出正确行驶方式 [10] - **模型参数与规划**:目前模型基于100亿参数架构,后续模型将具备更大参数规模、更精细推理能力、更灵活输入输出方式及更丰富商用选项 [10] - **配套开源工具**:同时发布了开源仿真框架AlpaSim和物理AI开放数据集,AlpaSim提供高保真仿真环境,数据集包含超过1700小时的驾驶数据,覆盖广泛地理区域和环境条件,特别是罕见且复杂的真实世界极端场景 [10] - **行业支持与影响**:获得了Lucid、捷豹路虎、Uber等移动出行领域领先企业及标普全球、伯克利DeepDrive等机构的关注,各方认为其核心价值在于推动物理AI发展,赋予系统对真实世界的推理能力,破解长尾驾驶场景难题 [10] - **开源意义**:其开源特性为开发者和研究人员提供了应对复杂场景的新工具,支持规模化训练与个性化优化,推动了自动驾驶生态的开放创新,有望加速L4级自动驾驶的安全部署与普及 [10]
英伟达全面入局,自动驾驶将迎来“蝶变时刻”?
36氪· 2026-01-07 10:55
北京时间1月6日凌晨,拉斯维加斯CES 2026,当英伟达CEO黄仁勋身着标志性的黑色皮衣,站在聚光灯下宣布"物理AI的ChatGPT时刻已然到来"时,整个 科技圈与汽车行业都感受到了强烈震动。 这场发布会上,英伟达并非推出一款简单的芯片,而是一套名为Alpamayo的完整自动驾驶生态体系——包含开源大模型、全球驾驶数据集与高保真仿真 框架。 在此之前,自动驾驶行业始终深陷99%与1%的博弈,解决绝大多数常规驾驶场景早已不是难题,但极端天气、突发路况等"长尾场景"的安全应对,始终 是横亘在L4级自动驾驶规模化落地前的天堑。 而Alpamayo的出现,被行业普遍视为英伟达全面吹响自动驾驶攻坚号角的信号,更让行业重新审视:2026年,能否成为自动驾驶从测试运营走向商业普 及的"蝶变时刻"? 作为整个生态的核心,Alpamayo-R1模型是一款拥有100亿参数的"视觉-语言-行动(VLA)"模型,其最大的突破在于实现了从"感知预测"到"推理规划"的 范式跃迁。 传统自动驾驶系统更像是"条件反射式"的反应——通过传感器识别前方有障碍物,便执行减速或避让动作,背后依赖的是海量标注数据与预设规则。但 Alpamayo搭载 ...
今年CES,芯片厂商又开始“神仙打架”
36氪· 2026-01-07 08:42
文章核心观点 - 本届CES展会是芯片产业的技术风向标,展示了三大核心趋势:AI已渗透技术金字塔的每一层,物理AI和边缘AI是两大竞争关键;汽车电子步入“集中化+软件定义”深水区,跨域融合成为行业必然趋势;生态竞争取代单点技术比拼,协同合作联合定义产品成为制胜关键 [33] 德州仪器 (TI) - 发布三款汽车新品:L3跨域融合SoC TDA5系列、单芯片8发8收雷达发射器AWR2188、全新10BASE-T1S以太网串行外设接口PHY DP83TD555J-Q1 [1] - TDA5系列SoC算力极为强大,最高达1200TOPS,能效比超24 TOPS/W,AI算力较前代产品最高可提升12倍,采用UCIe接口增强扩展性,并与新思科技合作推出虚拟开发套件 [1] - AWR2188是业界首个单芯片8发8收雷达方案,性能较现有解决方案提升30%,能对距离>350米的目标实现高精度探测 [4] - DP83TD555J-Q1是首款10BASE-T1S产品,具有纳秒级时间同步能力,支持数据线供电,可降低线缆设计复杂度和成本 [7] 亚德诺半导体 (ADI) - 在汽车、消费、机器人三大领域展示方案 [10] - 汽车领域展示最新A²B 2.0方案,带宽比1.0版本高4倍,并展示利用E²B和LED驱动器的车灯方案、GMSL技术、无线BMS方案等 [10] - 消费领域与IDUN Technologies合作开发AI直接响应人体大脑与身体信号的演示,并在AR眼镜展示并联电池管理方案 [10] - 机器人领域展示视觉赋能的自主机器人仿生手、高精度轮驱运动控制方案、3D深度感知、以及为独轮机器人展示的六自由度IMU [11] 恩智浦 (NXP) - 发布S32N7超高集成度处理器系列,采用5nm技术平台,包含32个兼容型号,可在一颗芯片上实现动力总成、车辆动态控制、车身、网关和安全域 [12] - 该处理器通过减少数十个硬件模块,帮助汽车制造商大幅简化车辆架构,总体拥有成本最高可减少20% [12] - 算力包括8个分锁Cortex-A78AE@1.8 GHz、12个分锁Cortex-R52@1.4 GHz、eIQ NPU等,存储支持LPDDR4X/5/5X、36MB SRAM等 [15] 微芯科技 (Microchip) - 展示大量Demo,重点包括适用于高通Ride平台的ASA Motion Link方案,以及基于10BASE-T1S的无软件式智能大灯 [17] - ASA-ML方案展示四颗ADAS摄像头通过该技术无缝连接至高通Snapdragon Ride平台 [17] - 10BASE-T1S无软件大灯搭载欧司朗25K像素ULED,由端点直接渲染视频流,降低了中央计算机复杂度并构建了硬件抽象层 [18] 芯科科技 (Silicon Labs) - 推出适用于Zephyr的新Simplicity SDK,这是一种经过严格审核的Zephyr代码库快照,可完全访问公司标准技术支持渠道 [19] - 展演了蓝牙信道探测和使用人工智能/机器学习进行的单芯片无线电机控制 [19] 英飞凌 (Infineon) - 联合Flex展示一款为区域控制单元设计的模块化开发套件,旨在加速面向软件定义汽车的电子/电气架构开发 [20] - 该套件支持所有核心区域控制功能,预验证硬件集成了英飞凌的AURIX微控制器、OPTIREG电源、PROFET等产品,软件栈得益于Vector的贡献 [20] 意法半导体 (ST) - 与帕加尼和Osdyne合作推出Osdyne Automotive Gateway,利用了ST的Stellar SR6 G系列MCU,实现了车内和车到X的通信路由与防火墙、诊断、遥测、远程监控及空中更新等功能 [22] - 该网关旨在集中计算,以大幅减少线束数量,同时提供更多功能和更好性能 [22] - 也展示了在人形机器人方面的应用合作 [24] 安霸 (Ambarella) - 发布CV7端侧AI视觉感知SoC,采用4nm制程,专为多元AI感知场景深度优化,应用包括8K消费级智能产品、安防监控、机器人、工业自动化及视频会议系统 [25] - 相较于上一代产品,CV7在同等负载下的功耗降低20%以上,AI性能较上一代CV5 SoC提升超过2.5倍,并支持卷积神经网络与Transformer网络协同运行 [25] 英伟达 (NVIDIA) - 发布大量革命性产品,包括首次亮相的Rubin平台,该平台包含Vera CPU、Rubin GPU等六款新芯片 [26] - 汽车方面推出NVIDIA Alpamayo系列开源AI模型、仿真工具及数据集,以及完全开源的端到端仿真框架AlpaSim和超过1700小时驾驶数据的物理AI开放数据集 [26] - 机器人方面推出Jetson T4000平台,提供高达1200 FP4 TFLOPs的AI计算和64 GB内存 [26] 英特尔 (Intel) - 第三代英特尔酷睿Ultra处理器正式发售,成为首款基于Intel 18A制程节点的产品 [27][28] - Intel 18A采用RibbonFET和PowerVia技术,可在相同功耗下提升芯片性能超过15%,或在相同性能下降低功耗25%以上,晶体管密度提升30% [28] - 集成Arc GPU的全新酷睿Ultra X9在1080p高画质下,45款游戏的平均帧率对比前代平台提升高达77% [28] 超威半导体 (AMD) - 发布多款重磅新品,包括全新AI芯片MI455X GPU、Ryzen AI 400系列处理器、AMD Ryzen AI Max+系列处理器以及AMD AI开发平台Ryzen AI Halo [29] - MI455X拥有3200亿晶体管和432GB HBM4内存 [29] - 首批Ryzen AI 400 PC计划本月晚些面市,全年计划推出超过120款设计,Ryzen AI Halo平台预计第二季度上市 [29] - 公司强调是唯一拥有GPU、CPU、NPU全栈计算引擎的公司,过去四年已将AI性能提升1000倍 [30] Arm - 特别关注物理AI、边缘AI发展,认为其智能化演进与深度融合将成为AI领域发展的核心动能 [31] - 携手合作伙伴围绕五大应用场景展示前沿趋势:自动驾驶、机器人、PC/笔记本电脑/平板、可穿戴设备、智能家居 [31] - 预计到2026年,各大主流OEM计划推出的相关PC等机型将超过100款 [32]
黄仁勋CES最新演讲:Rubin 今年上市,计算能力是 Blackwell 5 倍、Cursor 彻底改变了英伟达的软件开发方式、开源模型落后先进模型约6个月
AI前线· 2026-01-06 08:48
文章核心观点 - 英伟达在CES 2026上宣告AI发展进入历史性转折点,从理解语言走向改造物理世界,并系统性披露了面向“物理AI”的最新技术路线图 [2] - 公司正试图以一套完整的全栈式计算与软件体系,推动AI从“看懂世界”走向“理解、推理并行动” [2] 双重平台迁移与行业根本性转变 - 计算的核心正从传统CPU转向以GPU为核心的加速计算 [4] - 应用开发的基础正从预定规则代码转向以人工智能为基座,应用程序转变为能理解语境、动态生成内容的全新实体 [4] - 这两种根本性转变同时发生、相互交织,彻底重塑了计算的本质 [4] 2025年AI关键进展与趋势 - 2025年开源模型取得关键突破,虽仍落后尖端模型约六个月,但已触及技术前沿 [3][9] - 具备推理能力的模型出现,创造了“Test Time Scaling”革命性概念,即实时思考的能力 [6] - 能自主思考的Agent系统在2024年诞生,2025年已渗透到各个角落,能推理、检索信息、使用工具、规划未来 [8] - 物理AI是与物理世界交互及理解物理定律的AI,是除大语言模型外最重要的一类AI [8] - 开源模型的突破激活了全球企业、行业,模型下载量呈现爆炸式增长 [9] 英伟达的物理AI战略与三台计算机体系 - 构建物理AI需要三台计算机:用DGX训练AI模型,通过Omniverse和RTX上的Cosmos来仿真、测试与验证模型,最后通过AGX将模型部署到现实世界 [12] - 物理AI浪潮为英伟达物理AI部门带来近万亿美元的机遇 [12] - 公司将物理AI模型分为三大系列:Cosmos World基础模型、通用机器人模型GROOT,以及具备思考能力的自动驾驶模型AlphaMayo [12] Cosmos世界基础模型进展与应用 - Cosmos在对物理世界的理解上已与GPT-40、Gemini等顶级模型并驾齐驱,在物理推理等关键评估中取得更高分数 [14] - 这些模型下载量已突破400万次 [14] - 正驱动制造、物流、医疗健康与出行等各行业的实际应用,例如日立、Lem Surgical、Salesforce、Telet、Uber等公司均已部署 [14] 开源自动驾驶模型AlphaMayo - AlphaMayo是全新的开源AI模型、仿真工具和数据集系列,用于训练物理机器人和车辆,旨在帮助自动驾驶车辆应对复杂情况 [16] - 这是史上首个让自动驾驶车辆具备思考能力的模型,可以让自动驾驶汽车“像人类一样思考”,通过推理解决复杂边缘场景 [16] - 模型拥有100亿参数,既足以处理任务,又轻量化到可在工作站运行 [18] - 公司开源了包含17小时驾驶记录的数据集,成为业内最大最多元的公开自动驾驶数据集 [19] - 同时发布完全开源的AlpaSim仿真框架,用于评估推理模型 [19] 开源机器人模型GROOT 1.6与开发平台 - 发布GROOT 1.6,这是专为人形机器人打造的最新开源推理模型 [24] - 该版本采用Cosmos Reason作为长效思考中枢提升推理能力,并解锁了人形机器人全身协调控制能力 [24] - GROOT 1.6已成为社区热门选择,位列Hugging Face平台下载量最高的机器人基础模型之一 [24] - Isaac机器人平台提供了构建“通专融合型机器人”所需的开放框架、模型与工具库 [24] - 开发了开源控制中心NVIDIA OSMO,整合从数据生成到训练的完整流程 [26] - 发布Isaac Lab Arena,这是全球首个用于在仿真环境中安全测试机器人技能的开源框架 [26][27] 机器人生态合作与硬件支持 - 波士顿动力、Franco Robotics、Lem Surgical、LG电子等先进机器人公司已在Isaac与GROOT基础上构建其新一代物理AI系统 [29] - 英伟达与Hugging Face合作,将200万英伟达机器人专家与1300万Hugging Face AI开发者社区连接起来 [30] - 推出基于Blackwell架构的Jetson T4000,在40-70瓦功耗下提供1,200TOPS的AI算力与64GB内存,其AI性能与能效较AGX Orin提升4倍 [31] AI超算Vera Rubin发布 - 发布面向人工智能数据中心的新计算平台Vera Rubin,该系统目前正在生产中,首批产品将于2026年下半年上市 [32][36] - AI模型规模每年以10倍速度增长,推理变为思考过程导致计算需求爆炸,每年生成的文本量以5倍速度增长 [34] - 每次达到新边界,上一代AI生成文本的成本就会下降约10倍 [34] - Vera Rubin是一个由六种芯片(Vera CPU、Rubin GPU等)通过极致协同设计组成的系统 [38][44] - 系统重近2吨,包含220万亿个晶体管,是100%全液冷设计 [37][41] - 计算板卡可提供100 Petaflops的AI算力,是前代的5倍 [40] - 自设计启动以来累计投入1.5万工程师·年 [41] - 虽然功耗翻倍,但冷却液温度保持45°C,整个系统能效提升约两倍,预计能为全球数据中心节省6%的电力 [47] - 以训练10万亿参数模型为例,Rubin的吞吐量远超Blackwell,仅需1/4数量的系统即可在一个月内完成相同训练 [49]