核心事件与人物 - 核心研究员郭达雅被曝从DeepSeek离职,其深度参与了公司V2、V3、R1等一系列核心模型的研发 [1][7] - 郭达雅于2023年博士毕业后加入DeepSeek,专注于代码智能和大语言模型推理,离职前其个人主页仍显示为DeepSeek研究员 [8][11] 人物背景与成就 - 郭达雅拥有传奇的学术与竞赛履历,博士入学第三天即完成毕业所需的论文发表要求 [3][35] - 在顶级AI会议(NeurIPS、ACL、EMNLP等)发表论文十余篇,谷歌学术引用量超过1300次 [43] - 多次在重要算法竞赛中夺冠,包括连续两年(2019-2021)获得腾讯广告算法大赛冠军,2021、2022年蝉联ATEC科技精英赛冠军,并在2022年微信大数据挑战赛(3200支队伍参赛)中带队夺冠 [4][44][46][47] 在DeepSeek的核心贡献 - 作为核心贡献者,参与了DeepSeek从代码、数学到推理模型的完整研发链条,包括DeepSeek-Coder、DeepSeek-Math、DeepSeek-Prover以及V2、V3、R1等模型 [13][24] - 在DeepSeek-Math项目中提出的GRPO强化学习方法,后来成为R1推理模型的关键技术 [18] - DeepSeek-R1的相关论文登上Nature封面,披露其训练成本仅约29.4万美元(约合人民币208万元) [25] 技术成果与突破 - 其参与的DeepSeek-Prover项目在Lean 4定理证明上取得突破,在miniF2F基准上whole-proof generation准确率达到46.3%(64个样本),累计达52%,显著高于GPT-4的23.0% [21] - 在FIMO基准上证明了148题中的5题,而GPT-4得分为0 [21] - 研发过程证明了不依赖人工标注的推理轨迹,仅通过纯强化学习即可激发大模型的推理能力,并涌现出自反思、验证等行为模式 [24] 教育背景与早期研究 - 本科与直博均就读于中山大学计算机学院,博士论文获评2023年中山大学优秀博士学位论文 [31][41] - 博士期间在微软亚洲研究院实习,完成了CodeBert和GraphCodeBert的研究,分别发表在EMNLP 2020 Findings和ICLR 2021上 [36][37] - CodeBert首次实现了自然语言与编程语言的双模态预训练,GraphCodeBert则首次将代码的数据流结构纳入预训练 [37][39]
大厂抢郭达雅进行时!DeepSeek核心成员还是个“综艺巨佬”
量子位·2026-03-22 14:28