视觉语言融合

搜索文档
中科洵瞳推出视觉语言融合导航系统,已实现数百台出货
创业邦· 2025-07-17 11:09
机器人视觉导航技术突破 - 公司围绕"视觉语言融合"技术路径构建端侧可部署的世界导航模型,配套研发轻量化导航模组,解决传统机器人"看不懂、走不通、执行难"三大瓶颈 [2] - 技术实现机器人从"像素感知"到"语义理解"的跃升,通过多模态数据集训练使机器人理解环境语义如"沙发可绕行"、"楼梯需逐级行进" [10] - 突破传统依赖预设地图的局限,实现无图导航能力,机器人可基于视觉输入在未知环境中动态调整路径 [17] 技术闭环三大创新 - 从局部定位到全局认知:实现厘米级室内外一体化定位精度,支持17楼至1楼的全场景定位能力 [12] - 从指令执行到意图推理:通过视觉语言细粒度对齐训练,赋予机器人理解三维世界及视觉语言导航能力 [13] - 轻量化计算突破:在国产低算力芯片终端部署导航系统,多模态模组采用集成/分体式设计适配资源受限场景 [17] 商业化落地进展 - 多模态具身导航模组已服务华为、小米、百度等头部企业,完成数百台产品交付 [17] - 方案在工厂场景中实现货架三维结构识别与空间语义理解,如"从左侧绕行" [17] - 支持自然语言指令转化,例如"把快递放在会议室第三张桌子"的语义解析与路径执行 [17] 行业痛点解决 - 传统机器人依赖符号化建模,将环境简化为几何网格,无法处理开放动态场景的多模态信息 [7] - 公司技术解决"开放动态场景导航难"、"人形机器人依赖遥控器"等核心问题,实现理解-推理-行动闭环 [15] - 在快递配送、应急巡检等动态场景中验证边探索边学习的能力 [17]