Thinking Machines首款产品重大更新:K2 Thinking、Qwen3-VL都可以微调了
机器之心·2025-12-15 18:00

Thinking Machines Lab及其产品Tinker的更新 - 由前OpenAI CTO Mira Murati创办的Thinking Machines Lab,其首款产品Tinker API已正式取消候选名单,向所有用户开放[1] - Tinker API旨在简化大型语言模型的后训练过程,开发者只需专注于训练数据和算法,而将调度、调优、资源管理和基础设施可靠性等复杂工作交由Tinker处理[1] - 此次更新包含三项主要功能增强:支持对万亿参数规模的Kimi K2 Thinking模型进行微调;提供兼容OpenAI API的全新推理接口,实现即插即用;新增支持视觉输入的两款Qwen3-VL模型[1] Tinker产品的核心价值与能力 - Tinker通过将训练基础设施抽象为API,使开发者无需自行采购GPU、搭建集群或维护分布式训练,显著降低了使用前沿大模型的门槛和成本[4] - 该平台首次让普通开发者能够微调万亿参数的Kimi K2 Thinking模型,这曾是顶级实验室的专属能力[4] - 新增的视觉模型支持(Qwen3-VL-30B-A3B-Instruct和Qwen3-VL-235B-A22B-Instruct)进一步降低了视觉语言模型的应用门槛,支持处理图片、截图及示意图等内容[1][4] 视觉能力展示与性能评估 - 为展示视觉能力,研究团队对Qwen3-VL-235B-A22B-Instruct模型进行了微调,并在Caltech-101、Stanford Cars、Oxford Flowers、Oxford Pets四个经典图像分类数据集上进行评估[4] - 研究将图像分类任务建模为文本生成问题,即给定图片,模型直接输出类别名称,并与传统的视觉基线方案DINOv2进行对比[4] - 在小样本数据场景下,经过微调的Qwen3-VL-235B-A22B模型表现优于DINOv2,这得益于其庞大的模型规模以及作为视觉语言模型所具备的通用语言与视觉联合知识[7]