行业背景与问题 - 当前多模态大模型在复杂多模态任务上表现出色,但在细粒度视觉识别任务上明显落后于其所依赖的视觉编码器(如CLIP)[1] - 真实世界具有细粒度特性,对象包含极其丰富的类别层次,例如“飞机”大类可细分为“波音707”等上百种子类,民用飞机数据库收录全球固定翼飞机种类超过500种[3] - 细粒度视觉识别大模型旨在利用多模态大模型的丰富细粒度知识,突破传统方法在封闭域中识别有限类别的局限,实现开放域中任意类别的细粒度识别[5] - 多模态大模型的细粒度识别能力依赖大量训练数据,但细粒度标注数据收集难度高、成本大,无法满足大模型训练所需的数据规模,且在有限数据上训练后难以泛化到训练集外的子类别[5] 技术方案与创新 - 北京大学彭宇新教授团队提出了思维链推理增强的细粒度视觉识别大模型Fine-R1,通过思维链监督微调与三元组增强策略优化,提升模型运用已有知识推理未见子类别的能力[5] - Fine-R1构建包含两个主要步骤:1) 思维链监督微调,模拟人类思考过程,为模型快速构建推理能力;2) 三元组增强策略优化,通过引入正负样本提升模型对类内差异的鲁棒性和类间差异的辨识性[7] - 思维链监督微调基于Qwen2.5-VL-32B构建结构化思维链,将推理过程拆解为视觉分析、候选子类别生成、对比分析及最终预测四个步骤,并利用该数据对基础模型进行监督微调[8] - 三元组增强策略优化针对“类内差异大、类间差异小”的问题,为每张输入图像匹配同一子类别的正样本和外观相似但不同子类别的负样本,构成三元组进行类内与类间增强[8] - 类内增强利用输入图像及其正样本的思考轨迹,捕获更广泛的类内变化,当模型对两者产生不同预测时,奖励差异会促使模型仅关注判别性特征[8][10] - 类间增强通过最大化输入/正样本图像与负样本图像之间输出分布的KL散度,促进模型对来自不同子类别的相似图像生成不同响应,增强判别性[10][11] 性能表现与结果 - 在每类仅需4张训练图像的情况下,Fine-R1对训练集内外子类别的识别准确率均超越了OpenAI的CLIP、谷歌DeepMind的SigLIP等判别式模型[5] - 在6个权威细粒度图像分类数据集上的封闭式识别(多选题)结果显示,Fine-R1-7B模型在已见类别上的平均准确率达到91.71%,在未见类别上达到85.70%,总体平均为88.71%,显著优于对比模型[14][15] - 在开放式识别(问答题)任务中,Fine-R1-7B模型在已见类别上的平均准确率达到82.62%,在未见类别上达到66.97%,总体平均为74.80%,超越了主流的通用多模态大模型与推理大模型[16][17] - 实验分析表明,Fine-R1主要通过提升“模型运用细粒度子类别知识的能力”提高了识别准确率,而非优化视觉表征或增加知识储备[19] - 案例展示表明,Fine-R1能通过将思考过程拆分为视觉分析、候选子类别生成、对比分析、最终预测,利用知识逐步推理以准确识别细粒度子类别[21] 研究影响与资源 - 该研究相关论文已被ICLR 2026接收,并已开源[2] - 论文标题为“Fine-R1: Make Multi-modal LLMs Excel in Fine-Grained Visual Recognition by Chain-of-Thought Reasoning”,论文、开源代码及模型地址均已公开[22] - 该研究展现了生成式多模态大模型在解决判别式任务上的巨大潜力[5]
超越CLIP!北大开源细粒度视觉识别大模型,每类识别训练仅需4张图像
量子位·2026-02-11 09:55