动态城市场景重建技术 - 复旦大学团队提出BezierGS方法,利用可学习贝塞尔曲线表示动态目标运动轨迹,消除对高精度目标标注的依赖[4][8] - 该方法引入对动态目标渲染的额外监督和曲线间一致性约束,实现场景元素的准确分离和重建[4][14] - 在Waymo和nuPlan数据集上实验表明,BezierGS在动态和静态场景重建及新视角合成方面优于现有方法[4][14] 技术优势与创新 - 使用贝塞尔曲线显式建模动态目标轨迹,可自动校准位姿误差,提升大规模场景适用性[8][14] - 引入分组曲线一致性损失,增强同一目标高斯基元间的几何约束[14][27] - 动态渲染损失确保动态目标仅由动态高斯基元贡献,实现更彻底的前景-背景分离[28][44] 性能表现 - 在Waymo数据集上,BezierGS新视角合成PSNR提升1.87dB,SSIM提高0.014,LPIPS降低8%[37] - 在nuPlan数据集上,PSNR提高3.04dB,SSIM提高0.036,LPIPS降低16.35%[41] - Dyn-PSNR指标显著提升,Waymo上提高2.66dB,验证动态内容渲染优势[37][41] 应用价值 - 高质量街景重建可降低自动驾驶数据采集成本,为感知、预测等任务提供真实可控的仿真环境[5][6] - 减少对bounding box精确性的依赖,解决现有数据集标注不精确的问题[6][12] - 为闭环仿真评估创建高质量环境,支持安全经济地仿真关键极端场景[7] 技术对比 - 相比基于NeRF的方法,BezierGS利用3DGS技术保持高渲染速度同时实现优越质量[10] - 相比S3Gaussian和PVG等自监督方法,贝塞尔曲线提供更显式和合理的轨迹表示[12][45] - 相比依赖手动标注框的方法,在nuPlan等标注不精确场景中表现更优[12][41]
ICCV 2025!复旦BezierGS:利用贝塞尔曲线实现极简标注驾驶场景SOTA重建~
自动驾驶之心·2025-06-30 20:33