Workflow
DINO
icon
搜索文档
下一代目标检测模型:3B参数MLLM Rex-Omni首度超越Grounding DINO,统一10+视觉任务
机器之心· 2025-11-13 16:26
核心观点 - 多模态大语言模型在目标定位精度上取得重大突破,IDEA研究院的Rex-Omni模型首次在零样本检测性能上超越传统基于坐标回归的检测器 [2][4] - 该模型通过三大核心设计系统性地解决了MLLM的几何离散化挑战和行为调控缺陷,实现了强大的语言理解与精确几何感知的融合 [10][11] - Rex-Omni在10多项视觉感知任务上实现SOTA性能,预示下一代强语言理解感知系统的到来 [4][45] 目标检测领域的范式困境 - 目标检测的“金杯”是构建能根据任意自然语言提示检测任意物体且无需微调的通用模型 [7] - 传统回归模型(如DETR、Grounding DINO)定位精度高但语言理解能力浅,无法满足复杂语义要求 [7] - MLLM模型(如Qwen2.5-VL)具有强大语言理解能力,但面临几何离散化挑战和行为调控缺陷两大根本问题,导致定位能力不足 [7][9] Rex-Omni的核心技术突破 - **输出形式与任务设计**:采用统一的“下一个点预测”框架,将各种视觉感知任务转化为坐标序列生成,使用量化相对坐标和专有Token,表示一个完整边界框仅需4个特殊Token,Token效率提升数倍 [11][13][14] - **多种数据引擎**:构建Grounding、Referring、Pointing等定制化数据引擎,自动化生成大规模高质量训练数据,共在2200万张高标注质量图像样本上训练 [16] - **两阶段训练方法**:采用SFT+GRPO两阶段训练,SFT阶段在2200万数据上进行监督微调,GRPO阶段在66K数据上采用强化学习后训练,通过几何感知奖励函数解锁模型潜在能力 [17][19][21] 实验性能评估结果 - **通用目标检测**:在COCO基准零样本评估下,Rex-Omni的F1@IoU=0.5达72.0%,超越Grounding DINO的69.8%;在LVIS基准上F1@IoU=0.5达64.3%,超越Grounding DINO的47.7% [20][22][23][24] - **密集小物体检测**:在VisDrone任务上F1@mIoU达35.8%,在Dense200任务上达58.3%,均为MLLM中最高性能,相比SEED1.5-VL等模型输出相同数量目标时Token数减少90%以上 [27][28] - **多任务通用处理**:在对象指代任务RefCOCOg test上F1@mIoU达74.3%,在对象点选任务中所有测试数据集均取得MLLM最高F1-Score,在GUI定位和OCR任务中也展现卓越跨场景泛化能力 [31][32][34][37] GRPO训练机制深度分析 - GRPO并非从零学习,而是通过奖励反馈解锁SFT模型已具备的定位潜能,仅需极少训练步骤就使性能出现陡峭跃升 [40][41] - 核心贡献在于行为矫正,GRPO将SFT模型在密集场景下预测大框的占比从20.5%降至3.5%,并几乎自动消除重复预测问题 [43][47] - GRPO显著提升了模型采样到高质量正确答案的概率,使SFT模型在贪心解码时更可靠地选择最优解 [43]
舍弃 VAE,预训练语义编码器能让 Diffusion 走得更远吗?
机器之心· 2025-11-02 09:30
舍弃VAE的扩散模型新范式 - 当前主流的隐扩散模型依赖预训练的变分自编码器将图像压缩至紧凑的潜空间,该范式包含VAE编码和潜空间扩散两个核心阶段[8] - VAE已成为下一代生成模型能力提升的主要瓶颈,其计算成本高昂,例如Stable Diffusion 2.1的VAE编码器处理高分辨率图像需要135.59 GFLOPs,超过其扩散U-Net网络的86.37 GFLOPs[8] - VAE的训练目标导致其潜空间存在语义纠缠问题,即不同类别对象特征混乱混合,缺乏清晰边界和聚类结构,这构成生成质量的保真度瓶颈并导致训练低效不稳定[9] - 纽约大学谢赛宁团队的RAE和清华&快手团队的SVG工作均选择弃用VAE,改用预训练语义编码器来构建新范式,以解决语义纠缠、计算效率低及生成与感知任务割裂等问题[9] - RAE提供了一个通用框架,通过将任意冻结的预训练语义编码器与轻量级解码器配对,将扩散模型引入高维但语义丰富的潜空间[9] - SVG提出一种完全无VAE的架构,通过融合冻结的DINOv3语义主干和专用于捕捉细节的残差分支,构建兼具语义判别性与重构保真度的统一表征空间[10] - RAE和SVG的核心思路是将扩散模型从压缩优先转为语义优先,通过继承预训练基础模型的语义丰富表征空间,以解锁更优的效率、生成质量和任务通用性[10] - RAE和SVG均利用海量数据预训练的视觉基础模型所提供的强大先验知识,RAE的核心思想是表征优先,直接继承预训练语义编码器的能力以填补自编码器的语义鸿沟[11] 多模态大语言模型的视觉衰减问题 - 文本主导性跨越图像、视频、音频等不同模态,已成为多模态大语言模型的普遍缺陷[2] - 当推理链延长时,模型的注意力会从视觉Token迁移至语言Token[2] - 跨模态连接值的指数衰减定律影响了视觉信息在深层架构中的有效性[2] - 双通道注意力对齐机制可用于消除模态间的不一致性[2] - VAR方法旨在确保所有推理都基于可追溯的视觉事实[2] AI时代的商业法则与投资趋势 - LinkedIn创始人Reid Hoffman提出AI时代黄金商业法则为懒惰且富有[3] - Hoffman断言万物皆可软件化是硅谷的致命盲区[3] - AI时代的贪婪与懒惰法则可能终结Web 2.0时代先烧钱、后盈利的传统路径[3] - 顶尖大语言模型只能给出B-级共识,这种现象意味着人类专家的价值可能从知识储存库转移到了反共识思维[3] - Hoffman押宝原子世界,显示出对物理世界和数字世界结合领域的投资兴趣[3]
谢赛宁新作:VAE退役,RAE当立
量子位· 2025-10-14 16:16
文章核心观点 - 谢赛宁团队提出表征自编码器RAE将取代变分自动编码器VAE,标志着VAE时代的结束[1][4] - RAE采用预训练表征编码器与轻量级解码器配对,在扩散Transformer模型中实现更高质量重建和更快收敛速度[3][9][19] - 该方法在ImageNet图像生成任务中取得FID 1.51(无引导)和1.13(有引导)的优异表现[6] RAE技术原理与优势 - RAE核心设计是用预训练表征编码器(DINO、SigLIP、MAE等)与训练后的轻量级解码器配对[3] - 无需额外表示对齐损失或辅助损失函数,架构简洁但重建质量超越SD-VAE[9][10] - 提供语义丰富的潜空间,支持可扩展的基于变换器的架构[4] 传统VAE的局限性 - SD-VAE需要约450 GFLOPs运算量,而简易ViT-B编码器仅需22 GFLOPs,架构过于复杂[7] - VAE潜空间过度压缩(只有4个通道),信息容量严重受限[7] - VAE表征能力薄弱,线性探测精度约8%,特征质量低下拖慢收敛速度并损害生成质量[7][11] RAE性能表现 - 在重建质量指标rFID上:DINOv2-B为0.49,SigLIP2-B为0.53,MAE-B为0.16,均优于SD-VAE的0.62[11] - 在表征质量指标Top-1准确率上:DINOv2-B达84.5%,SigLIP2-B达79.1%,MAE-B达68.0%,远高于SD-VAE的8.0%[11] - 收敛速度比基于SD-VAE的REPA快达16倍[19] DiT架构适配与优化 - 采用宽DiT设计,要求变换器宽度至少等于潜表征维度[14] - 调整噪声调度使扩散模型适应增加的输入通道维度[17] - 在解码器训练中注入微量噪声,提升对潜空间扩散误差的鲁棒性[17] - 引入极宽但极浅的扩散头部设计,提升DiT在RAE框架内的可扩展性[21][22]
没PhD,算什么AI研究员,LeCun论文竟要28岁辍学生审批,发文“暗讽”内讧升级
36氪· 2025-09-05 11:44
Meta内部AI管理层级变动 - 首席AI官Alexandr Wang现需审核图灵奖得主Yann LeCun的论文 导致后者需向28岁上司汇报工作 [1][3] - 公司内部重组将AI团队拆分为四个部门:TBD Lab(由Wang领导)、FAIR(由LeCun创立)、产品和应用团队、基础设施团队 [13] - TBD Lab不仅审核FAIR的论文 还可能借调其研究人员进行技术落地 引发工程干预科研的争议 [13] 研究员与工程师的资质标准争议 - LeCun明确研究员需满足三项学术标准:发表论文并开源代码、拥有AI领域PhD学位、持续产出学术成果(通过Google Scholar引用量和h指数衡量) [2] - 强调研究与工程/产品开发存在根本差异 两者动机和激励机制不同 且研究转工程常见而反向转移罕见 [2] - Alexandr Wang学术背景薄弱:仅7篇论文(实际4篇独立研究) Google Scholar被引数409 h指数5 i10指数3 [6][7] - LeCun学术成就显著:2022年以来发表超80篇论文 总被引数424,352 h指数161 i10指数431 其中单篇最高被引100,845次 [8][9][10] 公司AI战略方向冲突 - LeCun主张AI突破需全新范式 反对仅依赖大模型堆砌 与Wang追求快速商业落地的思路存在根本分歧 [17] - Meta当前战略重心为追赶OpenAI和谷歌的AGI竞争 更注重产品结果而非长期学术突破 [19] - FAIR实验室历史上多次调整:先被纳入元宇宙业务Reality Labs 后划归生成式AI部门GenAI 现处于MSL超级智能实验室框架下 [23] 人事变动与潜在影响 - LeCun已担任AI视频初创公司Everlyn的学术顾问 该公司由前Meta研究科学家Harry Yang创立 [24][26][28] - 内部重组后Wang以首席AI官身份发布备忘录 被视作职权范围扩大 [13] - FAIR曾开发PyTorch、Mask R-CNN等具有行业影响力的成果 但其开放研究模式与公司当前结果导向策略存在矛盾 [19][21]
Meta视觉基座DINOv3王者归来:自监督首次全面超越弱监督,商用开源
机器之心· 2025-08-15 11:29
计算机视觉模型发展 - 计算机视觉下游任务的基础是二维图像理解(特征提取)[1] - CV基本任务的三大模型代表:全监督SAM、弱监督CLIP、自监督DINO [2] - 自监督学习(SSL)成为主流范式,推动大语言模型崛起,具备无标注数据优势 [2] DINO系列模型演进 - 2021年Meta发布DINO模型,基于ViT架构实现无标注语义分割/检测 [2] - 2023年DINOv2改进训练数据规模与稳定性,支持线性分类/深度估计等任务 [2] - DINOv3实现单一冻结骨干网络在目标检测/语义分割等密集预测任务超越专业方案 [6] DINOv3核心技术突破 - 训练数据扩展至17亿张图像,参数规模达70亿 [9] - 创新Gram Anchoring策略解决特征坍缩问题,引入旋转位置编码RoPE [18] - 在15个视觉任务/60+基准测试中表现优异,密集预测任务理解场景布局能力突出 [31] 性能对比与优势 - 图像分类任务:ImageNet ReaL准确率90.4%,与SigLIP 2(90.5%)相当 [17] - 密集预测任务:ADE-20k分割得分55.9,显著高于DINOv2(49.5)和SigLIP 2(42.7) [17] - 实例检索任务:Met指标55.4,远超DINOv2(44.6)和SigLIP 2(13.9) [17] 高分辨率与密集特征 - 支持4096×4096分辨率图像处理,生成语义一致的锐利特征图 [26][28] - 通过PCA可视化显示特征空间对主体区域的精准捕捉能力 [27] - 卫星图像树冠高度测量误差从DINOv2的4.1米降至1.2米 [40] 应用部署与生态 - 提供ViT-B/ViT-L等蒸馏模型变体,全面超越CLIP同类模型 [36] - 开源ConvNeXt架构模型(T/S/B/L版本)满足不同计算需求 [37] - 已应用于医学影像、卫星遥感、火星机器人等现实场景 [39] 行业影响 - 世界资源研究所使用DINOv3自动化气候金融支付流程,提升验证效率 [39] - NASA喷气推进实验室采用DINOv2构建火星探索机器人多任务系统 [39] - 标志着自监督学习首次在广泛任务上超越弱监督模型 [15]
港大马毅团队等开源新作:用编码率正则化重构视觉自监督学习范式,“少即是多”
量子位· 2025-03-08 11:35
视觉预训练模型创新 - SimDINO和SimDINOv2是马毅团队、微软研究院、UC伯克利等联合开发的最新视觉预训练模型,通过编码率正则化简化DINO系列训练流程 [1] - 模型核心创新在于去除DINO系列复杂的后处理步骤(如输出层高维投影、教师网络中心化-锐化操作等),同时性能反而提升 [5][6][12] - 简化设计理念体现"简单即是美",马毅团队强调这是对视觉表示学习本质规律的重新发现 [7][17] 技术突破与优势 - 引入编码率正则化替代原有复杂设计,显式度量模型表征质量,防止特征崩溃 [14][16][17] - 训练流程显著简化:移除权重归一化线性层、温度调度等超参数,改用欧几里得距离/余弦相似度直接比较特征 [18][19] - 实验显示模型对超参数和数据变化更稳健,训练稳定性提升且计算效率优于DINO系列 [21][23][32] 性能验证结果 - ImageNet-1K评估:SimDINOv2(ViT-B/16)线性评估达36.9% mIoU,优于DINOv2同架构的32.5% [30] - COCO目标检测:SimDINOv2在AP50/AP75/AP指标上全面超越DINOv2 [27][28] - 视频分割任务:SimDINOv2(ViT-L/16)在DAVIS-2017的(J&F)m指标达62.6%,展现更强语义表达能力 [30][31] 行业应用与影响 - DINOv2已被Meta首席AI科学家杨立昆团队用于世界模型构建,并是多模态大模型视觉编码器标配 [3][10] - 简化框架降低工程实现门槛,有利于研究人员改进模型架构或适配新领域 [11][18][39] - 开源生态建设完善,项目提供论文、GitHub代码和主页,潜在改进方向包括探索无自蒸馏优化目标 [43][45]