Workflow
3D场景理解
icon
搜索文档
特斯联全新研究成果聚焦3D场景理解,获IEEE T-PAMI收录
IPO早知道· 2025-05-13 09:55
尤其适用于机器人导航、自动驾驶等需要实时语义解析的空间智能场景。 本文为IPO早知道原创 作者| Stone Jin 微信公众号|ipozaozhidao 据 IPO早知道消息, 特斯联首席科学家、特斯联国际总裁邵岭博士及其合作团队 日前 发布最新研 究成果,提出了一种名为 Laser的高效语言引导分割框架,为3D场景理解提供了轻量化、高精度的 开放词汇分割方案,推动了语言模型与神经辐射场融合的实用化进程。 该框架尤其适用于机器人导 航、自动驾驶等需要实时语义解析的空间智能场景,现已被人工智能领域权威学术期刊 IEEE T- PAMI (CCF-A,IF 23.6)收录 。 在 城市规划与建筑建模 领域 : 在城市数字化建模中,需对建筑物、植被、公共设施进行语义标注,辅助规划决策。该研究成果支持 对罕见物体(如古建筑装饰、特殊标牌)的开放词汇分割,丰富数据标注的覆盖范围;此外,基于 Laser, 无需人工标注3D数据,通过多视图图像即可生成带语义的3D模型。 本文由公众号IPO早知道(ID:ipozaozhidao)原创撰写,如需转载请联系C叔↓↓↓ 这一研究成果在多个现实场景中具备重要的应用价值,特别是在需 ...
无需大量标注也能理解3D!新研究登上ICLR 2025 Spotlight
量子位· 2025-03-07 15:12
3D场景理解在具身智能、VR/AR等领域至关重要,帮助设备准确感知和解读三维世界。 人形机器人、VR/AR,以及自动驾驶汽车,都依赖于对3D场景的精确理解。 然而,这种精准的3D理解往往需要大量详细标注的3D数据,极大推高了时间成本和资源消耗。 Few-shot学习是一种有效的解决思路,但当前研究都局限于单模态点云数据,忽略了多模态信息的潜在价值。 对此,这项新研究填补了这一空白,文章已被ICLR 2025接收为Spotlight论文。 整合多模态信息,理解3D场景 只要极少量的标注样本,就能让模型精准分割3D场景? 来自哥本哈根大学、苏黎世联邦理工学院等机构的研究人员,提出了一个全新的多模态Few-shot 3D分割设定和创新方法。 无需额外标注成本 ,该方法就可以融合文本、2D和3D信息,让模型迅速掌握新类别。 △ 3D Few-shot分割结果示例 小q 投稿 量子位 | 公众号 QbitAI 然而,传统全监督模型虽在特定类别上表现出色,但其能力局限于预定义类别。 每当需要识别新类别时,必须重新收集并标注大量3D数据以及重新训练模型,这一过程既耗时又昂贵,极大地制约了模型的应用广度。 3D Few-sh ...