Workflow
Thinking Machines 发布 Tinker API,实现灵活的模型微调
AI前线·2025-10-13 21:54

作者 | Daniel Dominguez 译者 | 平川 Thinking Machines 公司发布了 Tinker,这是一个用于开放权重语言模型微调的 API。这项服务旨在 帮助开发者减少基础设施开销,并提供托管的调度、GPU 分配和检查点处理等功能。通过抽象化集 群管理,Tinker 使开发者可以通过简单的 Python 调用进行微调。 Tinker 支持多种模型架构,从小型模型到大型 混合专家系统,如 Qwen-235B-A22B。开发者可以通 过更改 Python 代码中的一个字符串来微调模型。该 API 提供了像 forward_backward 和 sample 这 样的原语,可以作为灵活的构建块用于后训练方法。该平台集成了 LoRA,可以提高并行运行微调时 GPU 内存的利用率,对于研究小组和资源有限的团队来说,这很实用。 该公司还发布了 Tinker Cookbook,这是一个使用该 API 实现常见微调技术的开源存储库。其中包括 强化学习方法和偏好优化工作流。来自普林斯顿、斯坦福、伯克利和 Redwood Research 的早期用 户已经将 Tinker 应用于定理证明、化学推理及多智 ...