SPCT方法

搜索文档
DeepSeek前脚发新论文,奥特曼立马跟上:GPT-5就在几个月后啊
量子位· 2025-04-05 12:45
金磊 发自 凹非寺 量子位 | 公众号 QbitAI 有点意思。 这不 DeepSeek 前脚刚刚上新了一篇关于推理时Scaling Law的论文嘛,引得大家纷纷联想 是不是R2马上要来了 。 然鹅……奥特曼这边却发了一条"变卦"的消息: 计划改变:我们可能在几周之后 先发布o3和o4-mini 。 至于大家翘首以盼的 GPT-5 ,奥特曼表示: 将在几个月之后,而且效果会比我们最初设想的还要好。 至于原因,奥特曼也做出了解释。 大概意思就是,顺利整合所有内容比他们想象的要困难得多,希望确保有足够的能力来支持预期的需求。 咱就是说啊,现在真的是DeepSeek这边一有点声响,OpenAI那边就得有点动作来紧跟一下了。 DeepSeek新论文 在这个小插曲之后呢,我们还是把目光聚焦在DeepSeek这篇新论文身上。 这篇论文的名字叫做 Inference-Time Scaling for Generalist Reward Modeling ,由DeepSeek和清华大学共同提出。 这篇研究核心的亮点,就是提出了一个叫做 SPCT方法 (Self-Principled Critique Tuning)的方法—— ...