Workflow
3D Gaussian Splatting (3DGS)
icon
搜索文档
ICCV 2025自动驾驶场景重建工作汇总!这个方向大有可为~
自动驾驶之心· 2025-07-29 08:52
自动驾驶场景重建研究进展 - ICCV2025已放出多篇自动驾驶闭环仿真相关论文 国内外顶尖院校如清华大学 南开大学 复旦大学 浙江大学 伊利诺伊大学厄巴纳-香槟分校等团队均在发力该领域 [2] - 当前研究聚焦动态目标与静态场景联合重建 需兼顾LiDAR与视觉数据融合 实现色彩与几何信息的精准建模 [2] - 代表性工作包括: - 清华与UIUC合作的InvRGB+L 通过统一颜色与LiDAR反射率建模实现复杂场景逆向渲染 [5] - 南开与UIUC的AD-GS 采用B样条高斯泼溅技术实现自监督自动驾驶场景重建 [6] - 复旦的BézierGS 通过贝塞尔曲线高斯泼溅完成动态城市场景重建 [10] - 清华 浙大与菜鸟网络的RGE-GS 利用扩散先验实现奖励引导的驾驶场景扩展重建 [11] 3DGS技术发展与课程体系 - 3D高斯泼溅(3DGS)技术已衍生出2DGS/3DGS/4DGS/混合GS等多个子方向 涉及新视角泛化 场景编辑 自动驾驶仿真闭环等应用 [12] - 业内首门3DGS全栈实战课程覆盖八大模块: - 视觉重建算法基础(NeRF与3DGS技术起源) [19] - 3DGS核心技术解析(数据算法 可视化 评测体系) [21] - 静态场景重建(CVPR2024最佳学生论文Mip-Splatting实战) [23] - 动态场景重建(CVPR2024满分论文Deformable GS应用) [25] - 场景表面重建(SOTA方案PGSR技术剖析) [27] - 自动驾驶混合重建(Street Gaussians动静态分解策略) [29] - gsplat框架实战(工业级驾驶场景重建算法开发) [31] - 学术与职业发展(3DGS研究趋势与工业落地现状) [33] 技术团队与资源 - 课程由头部自动驾驶公司算法专家Jeff主导 其在SIGGRAPH CVPR等顶会发表8篇论文 专注NeRF/3DGS算法研究 [36] - 配套资源包括《NeRF与自动驾驶论文带读课程》及gsplat开源框架支持 需学员自备12G以上显存GPU [15][38] - 目标学员涵盖高校研究人员 企业技术骨干及转行人员 需具备Python/PyTorch基础与三维重建入门知识 [37][40]
多样化大规模数据集!SceneSplat++:首个基于3DGS的综合基准~
自动驾驶之心· 2025-06-20 22:06
三维高斯溅射技术发展 - 三维高斯溅射(3DGS)成为最理想的三维表示方法,因其能联合编码场景的几何、外观和理解属性[2] - 视觉-语言推理是三维场景理解最具前景的方向,将视觉/几何属性与语言概念连接[2] - 现有方法分为三类:基于梯度的单场景优化、免优化的特征聚合、泛化方法[3] 评估基准创新 - 提出SceneSplat-Bench基准,包含1060个场景和325个语义类别,首次在三维空间评估性能[3] - 现有评估存在三大局限:样本量少(仅9-21个场景)、依赖训练视点、二维评估为主[4] - 基准测试显示泛化方法SceneSplat在f-mIoU指标上最高达0.354(ScanNet20)和0.338(Matterport3D)[24] 数据集突破 - 发布SceneSplat-49K数据集,包含46K个3DGS场景,总高斯数达29.24B,覆盖室内外环境[9][10] - 数据集平均质量达27.8dB PSNR和0.90 SSIM,几何误差仅0.061米,存储量8.36TB[10][12] - 包含12K个带视觉语言嵌入的场景,采用动态加权机制融合全局/局部特征[19] 技术性能比较 - 泛化方法SceneSplat运行时仅0.24分钟/场景,显著优于优化方法(76-621分钟)[5][24] - 免优化方法在效率(4-5.6分钟)和准确率上均优于优化方法,如Gradient-Weighted 3DGS在ScanNet20达0.418 f-mIoU[5][24] - 数据规模扩大使ScanNet++性能提升69%(f-mIoU从0.168到0.284)[28] 跨领域应用 - 室内训练模型可迁移至室外场景,零样本性能达0.263 mIoU,但特定领域数据仍关键[29] - 城市尺度数据集HoliCity包含6,300个伦敦场景,覆盖20平方公里,支持室外评估[17][22] - 合成数据Aria ASE贡献25K程序化室内场景,采用鱼眼图像校正技术[16]