Workflow
Tinker Cookbook
icon
搜索文档
Thinking Machines 发布 Tinker API,实现灵活的模型微调
AI前线· 2025-10-13 21:54
Tinker产品发布与技术特点 - Thinking Machines公司发布用于开放权重语言模型微调的API Tinker 旨在帮助开发者减少基础设施开销并提供托管调度 GPU分配和检查点处理等功能[2] - 该服务通过抽象化集群管理使开发者可通过简单Python调用进行微调 支持从小型模型到大型混合专家系统如Qwen-235B-A22B等多种模型架构[2] - 平台集成LoRA技术 可提高并行运行微调时GPU内存利用率 对研究小组和资源有限团队很实用[2] 产品功能与竞争优势 - Tinker API提供forward_backward和sample等原语 可作为灵活构建块用于后训练方法 开发者仅需更改Python代码中字符串即可微调模型[2] - 与Hugging Face Trainer API OpenAI微调端点和MosaicML Composer等现有方案相比 Tinker侧重暴露可组合成新方法的低级原语 赋予开发者更多控制权但无需管理基础设施[3] - 公司同时发布Tinker Cookbook开源存储库 包含使用该API实现常见微调技术的示例 如强化学习方法和偏好优化工作流[3] 市场反馈与应用案例 - 早期用户包括普林斯顿 斯坦福 伯克利和Redwood Research等机构 已将Tinker应用于定理证明 化学推理及多智能体强化学习等任务[3] - AI专业人士Ignacio de Gregorio评价该方案实现目标的同时外包了最不利于企业发展的分布式训练环节[4] - 创始人Mira Murati指出Tinker为研究人员提供清晰抽象用于编写实验和训练流程 同时处理分布式训练复杂性 支持创新研究和模型定制[5] 商业化进展 - Tinker目前处于封闭测试阶段 早期访问免费 后续将采用按使用量计费模式[5] - 开发者和研究团队可直接向Thinking Machines公司申请访问权限[5]
开发者狂喜:Thinking Machines发布首款产品Tinker,后训练麻烦全给包了
机器之心· 2025-10-02 11:12
Tinker产品发布 - OpenAI前CTO Mira Murati创立的Thinking Machines公司推出首款产品Tinker API [2] - Tinker是一个帮助开发者/研究人员微调语言模型的API,用户只需专注于训练数据和算法,而基础设施部分如调度、调优、资源管理和可靠性由Tinker处理 [4] - 产品支持用户通过简单Python脚本在CPU上运行,由Tinker处理高效的大规模模型分布式训练,包括Llama 70B和Qwen 235B等模型 [5] 技术能力与支持 - Tinker支持多种前沿模型,包括Qwen系列和Llama系列,从小模型切换到大模型只需在Python代码中更改一个字符串 [6] - 支持模型包括Qwen3-4B-Instruct-2507、Qwen3-235B-A22B-Instruct-2507、Llama-3.1-70B等密集和混合专家模型 [8] - 使用LoRA技术在多个训练运行间共享计算资源池以降低成本 [8] - API提供forward_backward、optim_step、sample、save_state等底层原语,可用于表达大多数常见的后训练方法 [11] 生态系统与采用 - 公司发布开源库Tinker Cookbook,包含基于Tinker API运行的后训练方法的现代实现 [9] - 普林斯顿大学、斯坦福大学、加州大学伯克利分校和Redwood Research等机构已在使用了Tinker [13] - 产品支持经典的有监督微调和高度实验性的强化学习pipeline,跨越广泛领域 [13] - 普林斯顿大学团队使用Tinker和LoRA仅用20%数据就达到与全参数SFT模型相当的性能,在MiniF2F基准测试中达到88.1% pass@32 [14] 实际应用效果 - 斯坦福大学研究小组对LLaMA 70B应用强化学习后,IUPAC到公式的转换准确率从15%提升至50% [14] - 加州大学伯克利分校小组在定制的异步off-policy强化学习训练loop上进行实验,涉及多智能体和多轮工具使用 [14] - Redwood Research利用Tinker对Qwen3-32B在长上下文AI控制任务上进行RL训练 [14] 商业模式与愿景 - Tinker在起步阶段将免费使用,未来几周内将推出基于使用情况的定价模式 [15] - 公司使命是让更多人能够研究尖端模型并根据自己的需求进行定制 [6] - 旨在揭开调整强大AI模型工作的神秘面纱,让原本只有前沿团队具备的能力惠及所有人 [18] - 希望扭转商业AI模型日益封闭的趋势,缩小前沿实验室与学术界之间的分歧 [18]