Workflow
破解自驾数据难题!毫米波雷达可控仿真技术新框架来了
量子位·2025-06-09 11:52

自动驾驶神经渲染框架SA-Radar - 光轮智能联合清华AIR、LeddarTech等机构提出全新自动驾驶神经渲染框架SA-Radar,以神经网络为核心引擎,实现可控且逼真的雷达仿真[1] - SA-Radar无需雷达具体细节即可实现场景灵活编辑,包括雷达属性修改、演员移除以及新视角合成[1] - 该方法显著增强多种下游任务,如2D/3D目标检测和雷达语义分割[1][31][32] 雷达仿真面临的挑战 - 雷达在ADAS中扮演重要角色,但相关研究和开发面临数据获取挑战[2][6] - 雷达图像显著受具体软硬件细节影响,不同雷达接收信号存在明显域差异[3][9] - 现有雷达仿真方法存在不足:生成式方法无法实现雷达属性外推,基于物理的方法需要详细硬件参数且耗时[10][13] SA-Radar的技术创新 - 提出基于波形参数的雷达属性表示方法,通过三维反射波形在不同维度的波形参数{σ, g, Rs, λ}表征雷达属性[15][16][26] - 设计ICFAR-Net,一种基于波形参数编码的3D U-Net,能生成不同雷达属性下的雷达立方体(距离-方位-多普勒张量)[17][28] - 构建带有丰富雷达属性注释的混合数据集,增强ICFAR-Net对不同雷达的仿真能力[30] SA-Radar的性能优势 - 仿真误差明显更小,全局平均误差显著降低[35] - 雷达仿真时间仅0.036s,远快于RadSimReal(0.605s)和传统物理模拟(至少5s)[36][37] - 反射环境张量生成时间仅0.26s左右,效率大幅提升[38] 下游任务验证结果 - 在2D目标检测任务中,联合使用仿真和真实数据训练模型AP@0.5提升3.6%,AP@0.75提升7.3%[45] - 在多视图语义分割任务中,联合训练模型IoU提升3.38%,Dice提升1.64%[47] - 在3D目标检测任务中,联合训练模型AP@0.3提升7.11%[49] 应用场景扩展 - SA-Radar支持在新的传感器视角和可编辑场景中进行仿真[33] - 在未见过的传感器和场景(如NuScene)上仍能鲁棒地仿真物理可靠的雷达数据[51] - 完全使用真实数据训练的模型在SA-Radar仿真数据上也能实现相当性能,证明其物理合理性[51]