ICCV25!百度U-Vilar:视觉定位多任务SOTA,无痛兼容端到端框架~
点击下方 卡片 ,关注" 自动驾驶之心 "公众号 戳我-> 领取 自动驾驶近15个 方向 学习 路线 今天自动驾驶之心为大家分享 百度最新的工作! U-ViLAR:基于可微分关联配准 的不确定性感知视觉定位框架! 如果您有相关工作需要分享,请在文末联系我 们! 自动驾驶课程学习与技术交流群事宜,也欢迎添加小助理微信AIDriver004做进一 步咨询 >>自动驾驶前沿信息获取 → 自动驾驶之心知识星球 引言 在城市环境中,建筑物、隧道等障碍物会严重干扰 GNSS(全球导航卫星系统)信号,使得依赖 GNSS 的 定位不够可靠。因此,视觉定位技术在这类场景中显得尤为关键。 传统方法依赖于图像与三维地图的特征匹配,但对视角和光照变化敏感,且大规模三维地图的构建成本 高。主流基于神经网络的端到端定位方法往往会在不同初始范围和定位精度之间权衡,且其精度由视觉感 知的误差和地图匹配本身的误差耦合决定。 作为人类决策系统或自动驾驶端到端规划系统的关键部分,需要支持不同格式的地图并在不同范围内实现 精确定位,且能解耦输出感知不确定度和定位不确定度,用于修正定位精度以及减少在决策系统内的误差 传递。 U-VILAR 通过对感知 ...