ICLR神秘论文曝光,SAM3用「概念」看世界,重构视觉AI新范式
2023年4月,Meta AI发布了首个图像分割基础模型Segment Anything Model(SAM)。 SAM的目标是让计算机「能分割任何东西」。 2024年7月,Meta推出SAM 2,将模型扩展到视频分割并显著提升性能。 ICLR 2026会议盲审论文《SAM3:用概念分割一切》https://openreview.net/pdf?id=r35clVtGzw 论文《SAM 3: Segment Anything with Concepts》,也许可以带我们解锁这次SAM新升级的内幕。 该论文目前处于ICLR 2026会议盲审阶段,作者暂未公布身份,但从题目中不难推测其内容为SAM第三代的升级。 SAM3最大的突破在于它强调「基于概念的分割」,即不只是按像素或实例,而是可能按「语义概念」来理解和分割图像: 如今,SAM模型即将迎来第三次升级。 只要给出一个提示,比如「黄色校车」或一张参考图片,SAM 3就能在不同场景里找到并分割出对应的物体。 该功能被定义为可提示的概念分割(Promptable Concept Segmentation,PCS)。 为了支撑PCS,研究团队还构建了一个可扩展的数据 ...