文章核心观点 - 英伟达发布名为Alpamayo-R1(AR1)的41页自动驾驶VLA框架,旨在通过将因果链推理与轨迹规划相融合,解决现有端到端模型在长尾场景中因监督信号稀疏和因果推理能力不足导致的性能差问题[1] - AR1框架包含三大核心创新:构建因果链数据集、采用模块化VLA架构、实施多阶段训练策略,其在高难度场景下的规划准确率提升高达12%,闭环仿真中偏离车道率降低35%,近距离碰撞率降低25%[2] - 该模型通过强化学习后训练,推理质量提升45%,推理-动作一致性提升37%,模型参数从0.5B扩展至7B时性能持续提升,实车测试延迟为99毫秒,为L4级自动驾驶提供了可行路径[2] 技术背景与问题定义 - 自动驾驶系统正从传统模块化架构转向端到端框架,但当前端到端方法在处理长尾场景与安全关键场景时仍存在脆弱性,与实现稳健L4级自动驾驶的需求存在显著差距[3] - 大语言模型的最新进展为填补推理差距提供了潜力,其推理时间范式使推理成为可调节资源,但现有视觉-语言-动作模型要么缺乏显式推理过程,要么采用无结构化推理,难以泛化到训练分布之外的场景[4] - 有效的自动驾驶推理必须具备因果锚定能力,且结构上与驾驶任务对齐,推理轨迹应通过因果链将场景证据与驾驶决策显式关联,并直接约束低阶轨迹生成[5] 核心架构与技术创新 - AR1采用模块化VLA架构,以Cosmos-Reason VLM作为主干网络,整合了为物理智能应用预训练的视觉-语言模型和基于扩散模型的轨迹解码器,可实现实时生成动态可行驶的规划方案[5][12] - 视觉编码方面,AR1支持单图像token化、多摄像头token化和多摄像头视频token化等多种策略,其中多摄像头tokenizer利用三平面作为3D归纳偏置,可将每幅图像的token数量减少3.9倍,满足实时推理需求[21][22] - 轨迹解码采用基于单轮车动力学模型的动作表示,通过流匹配框架将离散轨迹token解码为连续表示,提升了闭环性能和解码效率,相较于自回归解码,流匹配解码的舒适性提升至97.38%,解码速度提升1.16倍[27][121] 因果链数据集构建 - 构建了结构化的因果链标注框架,通过"自动标注+人机协同"的混合流程生成与驾驶行为对齐、以决策为核心且具备因果关联的推理轨迹,解决了现有思维链数据集中行为描述模糊、推理流于表面和因果混淆等问题[5][30][31] - 数据集定义了封闭的高阶驾驶决策集合和开放的因果因素类别,通过关键帧标注确保因果局部性,仅对包含显式驾驶决策的片段进行标注,最终生成了70万个带结构化因果链标注的视频片段[36][37][40][91] - 评估采用融合人工验证与LLM自动评估的混合策略,发现结构化CoC推理轨迹相较于自由形式推理轨迹,因果关系得分相对提升132.8%,自动标注与人工评估的对齐率达92%[59][60] 训练策略与性能优化 - 设计了三阶段训练策略:通过动作模态注入使模型能够预测车辆控制输出;利用CoC数据集进行有监督微调,教会模型生成因果锚定的解释;采用结合大型推理模型反馈的强化学习,优化推理质量、推理-动作一致性和轨迹质量[61][62] - 强化学习后训练采用GRPO算法,整合推理质量奖励、CoC-动作一致性奖励和低阶轨迹质量奖励三个互补信号,使最可能轨迹的ADE降低9.4%,推理评分提升45%,推理-动作一致性提升37%[77][78][111] - 通过高信息增益数据筛选优先选择模型隐含奖励与显式奖励存在分歧的样本进行后训练,实现了高对齐效率与稳健学习动态,性能优于基于均匀采样数据的训练[85] 实验结果与性能评估 - 开环评估显示,集成CoC推理的AR1模型在6秒时域的minADE为0.955米,较基础模型提升4.1%,在高难度场景中性能提升更为突出,minADE达0.868米,较基准提升12%[96][98] - 闭环仿真中,AR1的偏离车道率降低35%(从17%降至11%),近距离碰撞率降低25%(从4%降至3%),整体AlpaSim评分从0.38提升至0.50,证明基于推理的决策能提升动态闭环场景中的安全性[100][101] - 模型规模消融实验表明,随着参数从0.5B扩展至7B,开环性能持续提升,7B模型的minADE较0.5B基准降低11%;数据规模消融显示,200万样本模型性能最佳,minADE较10万样本提升14.0%[110][113][115]
英伟达一篇长达41页的自驾VLA框架!因果链推理,实车可部署算法Alpamayo-R1