自动驾驶强化学习研究进展 核心观点 - 强化学习(RL)在自动驾驶领域展现出巨大潜力,可提升车辆安全性、可靠性和智能化水平[3] - 2025年精选的10篇RL应用论文聚焦实际挑战与创新解决方案,涵盖轨迹规划、决策制定、仿真训练等方向[4][7] - 技术突破包括:3DGS仿真训练、VLM与RL融合、GRPO优化等,部分成果性能超越传统方法35%[10][26][35] 关键技术突破 轨迹规划 - CarPlanner采用自回归结构和生成-选择框架,在nuPlan数据集上超越IL和规则方法的SOTA表现[9] - ReCogDrive结合VLM与扩散规划器三阶段训练,在NAVSIM基准达到89.6 PDMS,较纯视觉SOTA提升5.6分[17][19] 决策系统 - RRL-SG通过对抗摄动训练和RSS安全掩码,实现策略鲁棒性与碰撞安全双重保障[13] - LGDRL框架引入LLM专家指导,任务成功率90%,学习效率显著优于基线算法[23][24] - AlphaDrive基于GRPO奖励优化,仅用20%数据即超越SFT方法35%性能[26][28] 仿真训练 - RAD利用3DGS技术构建闭环训练环境,碰撞率较IL方法降低3倍[10] - RIFT通过双阶段仿真框架提升交通场景逼真度,采用dual-clip机制增强训练稳定性[33][36] 基础理论研究 - D2RL通过状态编辑解决高维空间训练难题,获Nature封面论文并提升测试效率10³–10⁵倍[42][43][44] - 同济大学综述系统分析RL在运动规划中的应用,提炼关键设计经验与前沿挑战[29][30] 多模态融合 - Drive-R1通过长/短COT数据集训练实现视觉推理与轨迹规划对齐,在nuScenes创SOTA记录[35][37] - 快慢架构整合LLM指令解析与RL实时决策,碰撞率降低同时更贴合用户偏好[41] 行业影响 - IEEE引用2600+的综述推动RL技术现实部署,覆盖控制器优化、路径规划等6大应用方向[43] - 4000人技术社区聚集300+企业与机构,形成30+技术栈的完整学习体系[47][48]
近半年「自动驾驶」篇强化学习论文推荐~
自动驾驶之心·2025-07-17 20:08