让机器人“看清”三维世界 蚂蚁灵波开源空间感知模型
核心观点 - 蚂蚁集团旗下灵波科技开源高精度空间感知模型LingBot-Depth 在三维视觉关键难题上取得重要突破 旨在为机器人、自动驾驶等智能终端提供更精准可靠的三维视觉 [1] - 该模型在权威基准评测中展现出代际级优势 相比主流模型在室内场景相对误差降低超过70% 在稀疏SfM任务中RMSE误差降低约47% [1] 技术突破与性能 - 模型专注于提升环境深度感知与三维空间理解能力 基于奥比中光Gemini 330系列双目3D相机的芯片级原始数据 [1] - 针对透明、反光物体等传统深度相机感知难点 研发了“掩码深度建模”技术 能融合RGB图像信息对缺失或异常的深度数据进行推断与补全 输出完整、致密、边缘清晰的深度图 [3] - 应用该模型后 即使面对透明玻璃、高反光镜面、强逆光等挑战性光学场景 深度图依然平滑完整、轮廓锐利 效果显著优于业内领先的ZED Stereo Depth深度相机 [4] - 模型已通过奥比中光深度视觉实验室专业认证 在精度、稳定性及复杂场景适应性方面均达到行业领先水平 [3] 数据基础与开源计划 - 模型优异性能来源于海量真实场景数据 采集约1000万份原始样本 提炼出200万组高价值深度配对数据用于训练 [6] - 核心数据资产包括200万真实世界深度数据和100万仿真数据 将于近期开源 [6] - 蚂蚁灵波科技本周将陆续开源多款具身智能方向模型 [6] 行业合作与产品化 - 蚂蚁灵波科技与奥比中光达成战略合作意向 奥比中光计划基于LingBot-Depth的能力推出新一代深度相机 [6] - 该模型可在不更换传感器硬件的前提下 显著提升消费级深度相机对高难度物体的处理效果 [4]