OpenAI大佬爆料:本科生靠一篇博客杀进OpenAI,没博士,0篇论文
36氪·2026-02-25 19:14

行业人才招聘趋势 - 顶尖人工智能实验室在招聘时,不仅看重传统学术背景如博士学位和论文发表,也高度重视实践能力、开源贡献和可验证的项目成果 [1] - 通过改进现有论文、进行开源项目并实现可量化的性能提升,是向研究团队证明自身能力的有效方式,并能显著增加获得面试的机会 [3][4] - 行业中存在多个非传统学术背景的成功案例,例如通过开源博客入职OpenAI,或凭借业余项目被谷歌DeepMind发掘,表明行动力和高质量项目是进入顶级机构的重要通行证 [1][23] 个人案例:Keller Jordan的路径 - Keller Jordan毕业于加州大学圣地亚哥分校,拥有数学和计算机双学士学位,初入职场时在一家人工智能内容审核初创公司工作,并无论文发表 [5] - 他通过邮件联系谷歌研究大牛Behnam并提出论文改进思路,获得了指导并合作完成了ICLR论文,成功与业界专家建立联系 [8] - 其关键转折点来自“NanoGPT speed run”项目,该项目通过改进训练代码,将达成特定损失目标所需的训练token数量从约100亿(10B)大幅降低至27亿(2.7B),使token效率提升了3.8倍 [9][10] - 该项目设计注重低成本和可复现性,代码仅537行,在8×H100环境中安装运行仅需20分钟,单次尝试成本低至8美元,降低了个人研究者的创新门槛 [12] - 该项目所有代码、日志和实验完全公开且可复现,严谨的验证方式使其成果成为硬指标,并因此获得特斯拉AI负责人Karpathy的公开称赞,最终引起OpenAI注意并获聘 [8][11][13] 技术创新:Muon优化器 - Keller Jordan设计的神经网络优化器Muon,专为2D参数隐藏层优化,其核心是通过Newton-Schulz迭代对SGD-动量法更新矩阵进行正交化处理,生成接近半正交的更新以提升效率 [15] - Muon实现简单高效,支持bf16精度下的稳定运行,显著降低了计算开销 [16] - 该优化器在多个任务中表现惊艳,刷新了NanoGPT和CIFAR-10的训练速度世界纪录,被视为人工智能模型训练领域一次潜在的重大基础创新 [14][19] - 尽管Muon帮助其入职OpenAI,但Keller Jordan表示不会为其撰写传统论文,认为当前许多优化器论文质量不高,更倾向于持续进行务实研究 [21] 其他成功案例 - Sholto Douglas在加入谷歌DeepMind前于麦肯锡工作,凭借在业余时间进行的个人项目和在Jax GitHub仓库提出的有洞见问题,打动了面试官并获得机会,成为Gemini项目成功的关键人物之一 [23][25][26] - Andy Jones原为半退休量化分析师,在“测试时计算”概念流行前,便撰写论文比较了扩大预训练规模与扩大测试时计算量的影响,其工作因聪明的设计选择、自编GPU加速环境和严谨的消融实验而令人印象深刻,最终入职Anthropic [26][28]

OpenAI大佬爆料:本科生靠一篇博客杀进OpenAI,没博士,0篇论文 - Reportify