边画边思考
搜索文档
V-Thinker: 让模型像人一样「边画边想」
机器之心· 2025-12-25 09:20
研究背景与目标 - 人类解决复杂视觉问题时,视觉交互是重要的认知工具,例如在几何解题中添加辅助线或在常识推理中添加标注[3] - 早期研究如LLaVA-Plus、Visual Sketchpad开始探索在推理过程中引入视觉操作,强化学习方法的引入显著提升了模型在复杂视觉场景中的表现[3] - 后续工作如o3、DeepEyes、Thyme表明,模型可以在强化学习引导下自主生成代码,通过放大、裁剪、旋转等操作与图像交互,实现基于图像思考的推理范式[3] - 研究团队提出核心问题:模型是否能像人一样,在推理过程中实现“边画边思考”的视觉推理范式[3] 核心方法与框架 - 提出V-Thinker,一个面向视觉交互推理的多模态推理框架,通过冷启动监督微调与强化学习相结合的训练,使模型能在推理过程中自主生成代码并与图像交互,实现“边画边思考”[3] - 核心思想是“让模型充当造题者,而非解题者”,通过数据演化飞轮自动合成、演化并校验视觉交互推理数据[8][10] - 设计了一套渐进式视觉训练范式,首先构建V-Perception-40K数据集提升模型的视觉感知能力,再通过结合监督微调与强化学习的两阶段训练,使模型掌握基于视觉交互的推理能力[3][16][18] 数据构建与演化 - 提出Data Evolution Flywheel(数据演化飞轮),能在多样性、质量与难度三个维度上自动合成、演化并校验视觉交互推理数据[3] - 通过引导GPT-5生成依赖视觉交互的推理问题,发现其生成的代码能渲染出结构、语义一致的高质量图像,并与推理过程保持良好一致性[10] - 从初始知识点和工具集合出发,通过循环迭代,最终召回了超过2万个新知识点,覆盖数学、物理、音乐等25个领域[12] - 构建了Checker对问题与答案、原始图像、视觉操作后的图像进行一致性校验,并引入拓展器通过重构问题来提升问题难度和增加视觉交互轮次[12] - 最终构建并开源了大规模交互推理数据集V-Interaction-400K,为视觉交互推理和图像到代码转换等任务提供了基础支撑[3][13] 训练策略 - 第一阶段(感知能力):构建感知数据集V-Perception-40K,通过视觉元素关系、元素数量及知识点进行建模,并设计不同层级的问题进行自动合成感知数据,以此训练模型的细粒度定位能力[16] - 第二阶段(交互推理能力):采用“SFT + GRPO”的训练策略,使模型逐步具备稳定的视觉交互推理能力[18] - 冷启动阶段通过V-Interaction-400K实现初步对齐[21] - 强化学习阶段从V-Interaction-400K中采样了3千条数据,并从We-Math 2.0、MMK12、ThinkLite等开源工作中进行采样,构成训练数据[21] - 训练框架与奖励函数遵循Thyme的架构与设定,引导模型在推理过程中生成并执行视觉操作代码,在Sandbox中执行代码并返回操作后的图片再次输入至模型进行后续推理[21] 评测体系与结果 - 构建了VTBench,一个面向视觉交互推理场景的专家标注基准,聚焦于必须通过与图像交互才能完成的问题[3][20] - 所有样本来自多个公开数据集及公共平台,并由人工进行标注,通过人工投票筛选确保视觉交互是解题所必需[20] - VTBench从推理过程的不同阶段出发,构建了三种任务:对视觉元素的感知能力、在明确指令下执行视觉操作的能力,以及在推理过程中面向需要视觉交互任务的解题能力[23] - 定量分析显示,V-Thinker-7B在VTBench的三类交互任务中均显著优于基线模型,平均准确率达30.2%,相比Qwen2.5-VL-7B提升12.5个百分点[24] - 在Instruction-Guided Interaction场景中,V-Thinker性能提升超过22.8个百分点[24] - 在通用视觉推理基准中,V-Thinker在MathVision等复杂多步推理任务上取得6.3个百分点的性能提升[24][25] 能力分析与影响 - 交互式视觉推理能力显著提升,V-Thinker能够稳定生成符合问题需求的图像编辑操作,如绘制辅助线、标注关键区域或完成结构化重绘[26] - 在部分不强制要求视觉交互的任务中,模型亦会主动对图像进行标注以辅助中间推理过程,表明视觉交互已逐渐内化为其推理策略的一部分[26] - 强化学习多路径交互探索能力显著增强,V-Thinker在同一图像条件下能生成多样化的交互路径,覆盖更广泛的解空间,提升了模型的可解释性[29] - 推理过程可视化与可解释性提升,模型能在推理过程中自主生成并执行图像编辑代码,即时渲染中间结果,将文本推理过程外化为可观察的视觉中间过程[31] 数据飞轮效果与知识演化 - 数据飞轮驱动的知识体系持续扩展,从初始知识点出发,最终形成覆盖25个领域、24,000余个知识点的层次化知识体系[36] - 随着演化轮次增加,知识点与视觉工具数量呈现明显的非线性增长趋势,在五轮演化后整体规模扩展至初始种子的约50倍[38] - 更丰富的初始知识点或工具集合能够带来更优的演化轨迹,凸显了初始种子多样性在数据飞轮持续演化过程中的重要作用[38] 总结与行业意义 - V-Thinker推动了“Thinking with Images”方向的发展,展示了模型不仅可以“看图推理”,还可以在推理过程中自主生成并执行代码,与图像进行交互,实现真正意义上的“边画边思考”[40] - 通过引入代码驱动的视觉交互机制、数据演化飞轮以及渐进式训练范式,V-Thinker不仅在数学任务中展现出了交互能力,更在通用场景展现出了泛化能力[40] - 随着模型规模和能力的持续提升,推理范式及应用场景将有全新的发展可能性,数据构建范式有望进一步演化,模型充当造题者或许具备创造知识的可能性[40] - 该工作首月数据下载次数突破10K+,在X平台上获得了一定的关注度[5]