非凸优化
搜索文档
北大校友、华人学者金驰新身份——普林斯顿大学终身副教授
机器之心· 2025-10-04 13:30
金驰教授学术晋升与贡献 - 华人学者金驰在普林斯顿大学晋升为终身副教授,任命于2026年1月16日正式生效[1][4] - 金驰于2019年加入普林斯顿大学电气与计算机工程系担任助理教授,在6年任期内AI学术影响力迅速提升[3] - 其晋升是对其在机器学习理论领域所做基础性贡献的高度认可,这些贡献为当前大语言模型的崛起提供了关键数学基石[4] - 金驰与杨笛一、杜少雷等华人学者于2024年获得斯隆奖[6] - 在Google Scholar上,其论文总引用次数已达13,588次[27] 核心理论贡献:非凸优化 - 金驰的研究解决了深度学习革命中的一个根本问题:为何像随机梯度下降这样简单的优化器能有效训练大规模非凸模型[8][9] - 其工作证明,只要存在少量噪声,简单的梯度方法就能有效逃离损失函数景观中的鞍点,并在多项式时间内继续向更优区域探索[12] - 代表性论文《How to Escape Saddle Points Efficiently》(ICML 2017)被引1,111次,《Accelerated Gradient Descent Escapes Saddle Points Faster than Gradient Descent》(COLT 2018)也是该领域奠基性工作[14][17] - 该理论成果解释了简单算法在复杂问题上表现出的“不合理的有效性”,让公司和研究机构敢于投入数十亿美元进行模型训练,确信底层优化过程稳健[17] 核心理论贡献:强化学习 - 金驰的研究为强化学习核心算法的样本效率建立了严谨证明,推动了理论突破[10][19] - 其工作首次证明了无模型算法在复杂设定下具备样本效率,达到了近乎最优的遗憾界限[22] - 代表性论文《Is Q-learning Provably Efficient?》(NIPS 2018)被引1,113次,《Provably Efficient Reinforcement Learning with Linear Function Approximation》(COLT 2020)被引997次[20][22][27] - 该理论保障为开发更稳健、可靠的强化学习算法提供指导,确保其能在高风险、关键应用中安全部署[23] 学术背景与影响 - 金驰拥有北京大学物理学学士学位和加州大学伯克利分校电气工程与计算机科学博士学位[25] - 其博士导师为机器学习领域泰斗Michael I Jordan教授,早期多篇关键论文均与Jordan合作完成[25] - 金驰团队近期领衔开发了最强开源数学定理证明模型“哥德尔-Prover”,其32B参数模型性能大幅超越前代SOTA DeepSeek 671B模型[31]