Workflow
速递|DeepSeek联手清华新模型GRM开源,算力降低性能反升
Z Potentials·2025-04-08 20:30

图片来源: DeepSeek DeepSeek 正与清华大学合作,致力于减少其 AI 模型所需的训练量,以降低运营成本, 开发自我进 化的 AI 模型。 DeepSeek 曾以一月份推出的低成本推理模型震动市场,现与高校研究人员联合发表论文,详述了一 种提升模型效率的强化学习新路径。研究人员写道,这种新方法旨在通过为更准确且易于理解的回答 提供奖励,帮助人工智能模型更好地遵循人类偏好。 强化学习在加速特定应用和领域内的 AI 任务方面已被证明有效,但将其扩展到更通用的场景一直充 满挑战——这正是 DeepSeek 团队试图通过其所谓的 " 自我原则批判调优 " 来解决的问题。 论文指出,该策略在多项基准测试中超越了现有方法和模型,结果显示能以更少的计算资源实现更优 性能。 DeepSeek 公司表示,将这些新模型命名为 DeepSeek-GRM (通用奖励建模的缩写),并将以开源形 式发布。 包括中国科技巨头阿里巴巴集团和美国旧金山的 OpenAI 在内的其他 AI 开发者,也正在开拓新领 域,致力于提升 AI 模型实时执行任务时的推理与自我优化能力。 Meta 于上周末发布了其最新 AI 模型系列 Llam ...