AXLearn
搜索文档
刚刚,庞若鸣跳槽OpenAI!放弃14亿年薪,在Meta只待了7个月
猿大侠· 2026-02-28 21:31
AI行业人才竞争态势 - 顶尖AI人才是各大科技巨头激烈争夺的核心资源,竞争异常激烈,甚至可以用“血腥”来形容[11][12] - 为吸引顶尖人才,公司可开出高达九位数(即上亿美元)的薪酬包,例如Meta曾为庞若明开出高达2亿美元的薪酬包[5][12][16] - OpenAI在人才争夺中展现出强大吸引力,被视为“科研圣地”,即使其他大厂能开出天价薪酬,仍能从竞争对手处成功挖角[6][25][54] 关键人物庞若明的职业轨迹 - 庞若明在一年内完成了从苹果到Meta,再到OpenAI的“三级跳”,职业变动频繁[1][2][8] - 其职业生涯始于谷歌,担任首席软件工程师长达15年,参与了Bigtable、Zanzibar等关键项目,并领导了Google Brain的语音识别研究[30][31][32] - 2021年加入苹果,担任杰出软件工程师,领导约100人的基础模型团队(AFM),负责为苹果AI和下一代Siri开发大模型[18][37][39] - 2024年7月加入Meta的超级智能实验室(MSL),担任AI基础设施负责人,但仅7个月后便离职转投OpenAI[2][5][21] 庞若明的专业成就与影响力 - 拥有深厚的学术背景,本科毕业于上海交通大学,在谷歌期间是Tacotron 2语音合成系统的核心贡献者,并共同主导了谷歌TPU使用量最高的深度学习平台Babelfish/Lingvo框架的开发[27][34][35] - 在苹果期间,领导团队取得了多项研究成果,包括多模态大模型MM1、苹果AI基础模型等,并参与了开源训练框架AXLearn的开发(GitHub获2.1k星)[42][43] - 学术影响力显著,在Google Scholar上发表了超过100篇有影响力的研究,总被引次数超过46,000次,h-index为47[47][48] - 被业界高度认可,前谷歌Gemini主管称赞其为机器学习专家中的佼佼者,不仅精通算法,更对基础设施有深刻理解,是“既懂炼丹又懂建炉”的顶尖专家[49][51] 苹果公司AI研发面临的挑战 - 关键人才流失对研发造成打击,庞若明的离开被形容为“让苹果AI的研发蒙上了一层阴影”[17] - 团队内部面临压力,新任领导层对AFM团队进行严格审查,同时公司内部讨论引入OpenAI、Anthropic等第三方模型支持Siri,严重打击了内部团队的士气[19][20][42] Meta公司AI团队的现状 - AI团队在过去一年经历了一波离职潮,庞若明是不到一年内第三位身价超2亿美元的Meta人才离职[53][54] - 其他离职人员包括从OpenAI加入仅一个月后又返回的Avi Verma和Ethan Knight,以及从谷歌DeepMind加入、负责开发者平台产品的Mat Velloso[55][57] - 长期担任首席AI科学家的Yann LeCun也已于去年离职[58] - 自Llama 4发布后近一年,公司虽大张旗鼓招募大批研究员,但被指尚未拿出“像样的”成果,面临压力[60] - 有爆料称Meta即将交付首批关键模型,包括代号“牛油果”的文本模型和“芒果”的图像/视频模型,被视为其翻身的关键[62][63]
刚刚,庞若鸣跳槽OpenAI,放弃14亿年薪,在Meta只待了7个月
36氪· 2026-02-26 16:15
AI顶尖人才流动与薪酬趋势 - AI顶尖人才成为科技巨头激烈争夺的对象,薪酬水平被推至历史高位,例如Meta为挖角庞若明开出了高达2亿美金的薪酬包[1][3][6] - 过去一年,Meta在全球范围内掀起了一场“血腥”的人才争夺战,成功招揽了一大批华人研究员,并提供了高达9位数(即亿级)的薪酬包[6] - 人才流动频繁,庞若明在短短一年内先后任职于苹果、Meta和OpenAI,完成了职业“三级跳”[5] 庞若明职业背景与专业成就 - 庞若明拥有深厚的学术与工业界背景,本科毕业于上海交通大学,并在南加州大学、普林斯顿大学完成硕博学位,高中就读于上海市向明中学[15] - 职业生涯始于谷歌,担任首席软件工程师长达15年,期间主导了多个关键项目,包括Bigtable索引搜索、ZipIt项目以及全球一致性授权系统Zanzibar,并将后者可靠性提升至99.999%[16] - 在谷歌期间,他是Babelfish/Lingvo框架的核心开发者之一,该框架成为谷歌TPU使用量最高的深度学习平台,同时也是Tacotron 2语音合成系统的核心贡献者[18] - 在苹果任职期间,他领导约100人的基础模型团队(AFM),负责开发支持苹果AI和下一代Siri的大模型,涉及预训练、后训练、推理优化及多模态技术[10][21] - 学术成果丰硕,发表了超过100篇有影响力的研究论文,个人总被引次数超过46,000次,H指数为87[27][29] - 其专业能力获得同行高度认可,前谷歌Gemini主管称赞他既是机器学习专家,又精通基础设施,拥有卓越的软件和机器学习造诣[30][32] 苹果AI团队面临的挑战 - 庞若明的离职对苹果AI研发造成打击,他曾带领团队开发多模态大模型MM1和苹果AI基础模型等成果[10][23] - 苹果内部领导层变动带来压力,新任领导Daphne Luong对AFM团队进行严格审查,导致工程师感到压力[10][23] - 公司内部讨论引入OpenAI、Anthropic等第三方模型来支持新版Siri,严重打击了内部研发团队的士气,使团队感觉自身工作可能成为“备选方案”[10][11][23] Meta AI团队近况与人才流失 - Meta的AI团队在过去一年经历了显著的人才流失,庞若明是不到一年内第三位身价超2亿美元离开Meta的人才[34] - 其他离职的高价值人才包括Avi Verma、Ethan Knight(加入一个月后返回OpenAI),以及从谷歌DeepMind加入后不久离职的Mat Velloso[34][35] - 长期担任Meta首席AI科学家的Yann LeCun也已于去年离职[36] - 自Llama 4模型发布近一年来,Meta虽大举招聘但尚未推出重量级新产品,部分人才选择离开[38] - 为扭转局面,Meta据称即将交付首批关键模型,包括代号“牛油果”(Avocad)的文本模型和“芒果”(Mango)的图像/视频模型[40][41] OpenAI的行业吸引力 - 庞若明最终选择加入OpenAI,这一举动释放出强烈信号,表明即使其他大厂能开出天价薪酬,OpenAI仍被顶尖人才视为“科研圣地”[14] - OpenAI在过去几个月积极挖角Meta等公司的人才[3]
四年2亿,苹果天才离职内幕首曝光!庞若鸣发离职信告别,苹果AI大溃败
猿大侠· 2025-07-25 11:25
苹果AI战略失败的核心原因 - 核心团队分裂为两大阵营:基础模型团队(科研导向)与软件产品团队(落地导向),矛盾激化导致战略混乱 [10][11][12] - 高层决策反复:开源计划被否决、自研模型展示后遭搁置且无解释,直接打击团队士气 [6][7][31][32][33] - 人才流失严重:团队负责人庞若鸣被Meta以4年2亿美元挖角,核心成员跟随跳槽至Meta/OpenAI等公司 [17][18][19][21] 团队管理问题 - 保护伞效应失效:庞若鸣作为技术领袖曾屏蔽外部干扰,其离职导致团队士气崩溃 [26][27] - 薪酬竞争力不足:苹果长期依赖品牌吸引人才,但未及时调整薪酬结构应对AI人才争夺战 [22] - 目标不清晰:高层未明确AI发展方向(文字/图像/语音),甚至要求工程师提供产品构想 [47] 技术研发与决策失误 - 错失先发优势:2022年已研发LLM但未发布,因高层低估其价值而错过ChatGPT风口 [42] - 资源分配冲突:软件团队倾向采用外部模型(如OpenAI),否定自研成果 [24][25] - 工具与成果:团队开发AXLearn训练工具并发布Apple Intelligence套件,但未获持续支持 [45][46] 历史背景与战略转折 - 早期布局不足:2011年推出Siri后未跟进AI前沿,2018年引入Giannandrea才加速研究 [36][37] - 关键人物作用:庞若鸣2019年加入并组建团队,技术积累深厚但决策层未充分授权 [40][41] - 文化冲突:保密传统与科研所需的开放文化(如论文发表)存在矛盾 [37][52]
硅谷最贵华人诞生!上交校友庞若鸣薪酬飙破2亿美元,碾压余家辉、库克
创业邦· 2025-07-11 11:17
核心观点 - 华人AI专家庞若鸣以超2亿美金薪酬从苹果跳槽至Meta,刷新行业最高薪酬纪录 [3][35] - 庞若鸣在AI领域的技术成就包括主导谷歌Zanzibar系统(可靠性99.999%)、Tacotron 2语音合成系统、苹果MM1多模态大模型等 [11][12][16][24] - Meta通过高绩效挂钩的薪酬方案(现金+股票)组建华人主导的AI梦之队,成员多来自OpenAI/谷歌 [38][40][42][46] 人物背景 - 教育经历:上海交大本科、南加州大学/普林斯顿硕博,向明中学高中 [9][10] - 职业轨迹: - 谷歌15年:创建Zanzibar系统(1000+项目采用)、领导Google Brain语音识别项目 [11][13] - 苹果3年:领导100人团队开发AI基础模型及Siri核心技术 [20][24] - 学术成果:100+篇论文(被引46364次)、h-index 47、AXLearn框架(GitHub 2.1k星) [26][27][24] 技术贡献 - 谷歌阶段: - Bigtable索引/ZipIt项目被1000+内部项目采用 [11] - Babelfish/Lingvo框架成为谷歌TPU使用率最高平台 [15] - Tacotron 2实现端到端文本转语音合成 [16] - 苹果阶段: - 多模态大模型MM1(307引用)及AI基础模型(68引用) [24] - 开发预训练架构、多模态理解等核心技术 [20] 行业动态 - 人才竞争:Meta薪酬包远超苹果(库克年薪7460万美元) [5][35] - 团队构建:Meta AI团队华人占比高,含6名OpenAI前成员(余家辉等)及3名谷歌系人才 [42][46] - 绩效机制:Meta股票占薪酬大头,需达成目标分期解锁 [40][47] 公司战略 - 苹果困境:内部审查压力+考虑第三方模型接入,影响团队士气 [22][23] - Meta布局:重金投入AI基础设施与超级智能研发,薪酬方案直接对标初创公司股权价值 [39][33]
14亿元天价,Meta挖走苹果70后AI大佬
21世纪经济报道· 2025-07-10 21:25
Meta高薪聘请AI人才 - Meta为前苹果AI工程师庞若鸣提供超过2亿美元(约人民币14亿元)的薪酬包,涵盖基础薪资、入职奖金与股票奖励,其中股票奖励占大头且行权期超过四年,兑现与绩效目标挂钩 [1] - 该薪酬方案远超苹果高管水平(除CEO外),苹果未尝试匹配报价 [1] - 庞若鸣是首位从苹果跳槽至Meta超级智能实验室的高管,Meta在AI人才争夺中取得关键胜利 [3] 庞若鸣的行业背景 - 庞若鸣拥有谷歌15年工作经验,主导Zanzibar权限系统、Babelfish语音识别框架、Tacotron 2语音合成模型等里程碑项目 [2] - 2021年加入苹果后领导AI/ML基础模型团队,研发训练框架AXLearn,并在多模态AI、语言模型优化方面取得突破 [2] - 教育背景包括上海交通大学本科、南加州大学硕士、普林斯顿大学博士,为AI领域顶尖技术专家 [2] 苹果AI战略进展滞后 - 苹果未能如期推出AI驱动的Siri升级版(原计划2024年年中发布),因内部版本未达质量标准 [3] - 核心AI人才流失至竞争对手Meta,反映苹果在AI领域面临人才保留与技术创新双重挑战 [3]
2亿美金!Meta开出天价薪酬,挖走苹果AI大佬
21世纪经济报道· 2025-07-10 19:59
Meta高薪挖角AI人才 - Meta为前苹果杰出工程师庞若鸣提供超过2亿美元(约人民币14亿元)的薪酬包,涵盖基础薪资、入职奖金与股票奖励三部分,其中股票奖励占据大头 [1] - 薪酬方案跨越数年,股票行权超过四年,兑现严格与绩效目标挂钩,包括公司股价增长指标等 [1] - 苹果未尝试匹配该报价,因除了CEO蒂姆·库克外,这远超苹果公司任何高管的薪酬水平 [1] 庞若鸣的履历与成就 - 庞若鸣是"70后"AI老将,1998年本科毕业于上海交通大学,2006年获普林斯顿大学博士学位 [2] - 在谷歌工作超过15年,参与并主导多个划时代项目,包括Zanzibar、Babelfish/Lingvo、Tacotron 2等 [2] - 2021年加入苹果,成为苹果AI/ML基础模型团队的杰出工程师,领导构建关键基础设施,带队研发训练框架AXLearn,在多模态AI、语言模型的训练与推理优化等方面取得突破性成果 [2] Meta与苹果的AI人才竞争 - 庞若鸣是首位从苹果跳槽至Meta旗下超级智能实验室的高管 [3] - 苹果未能兑现为其产品和服务进行AI升级的承诺,包括AI驱动的Siri版本,原计划2024年年中推出但尚未发布,因内部版本未达到公司"质量标准" [3]
Meta为他豪掷2亿美元,上交校友庞若鸣,晒出在苹果的最新论文
机器之心· 2025-07-10 18:49
核心观点 - 苹果基础模型团队负责人庞若鸣即将加入Meta,Meta开出2亿美金天价邀请其加入[2] - 庞若鸣在离职前完成苹果基础模型AXLearn的研究,该系统具有高度模块化和异构硬件支持特性[4][6] - AXLearn在代码复杂度、训练性能和推理性能上均显著优于主流系统[7][24][33] 技术架构 - AXLearn由组合器和执行框架构成,支持JAX程序生成与分布式硬件调度[16][17][19] - 系统通过严格封装实现模块化,集成RoPE和MoE功能仅需10行代码,其他系统需数百行[14][24] - 支持GPU/TPU/Trainium等异构硬件,自动优化分片策略和XLA编译选项[12][18][27] 性能表现 - 代码复杂度恒定为O(1),其他系统达O(NM)线性增长,RoPE集成代码量对比:AXLearn(0行) vs Megatron-LM(400行)[24] - 训练性能:Llama2-7B在TPU-v5p-512上MFU达66.2%,超MaxText(61.6%);70B模型在TPU-v5p-1024上吞吐量360K tokens/s[29] - 推理性能:AXLearn在70B模型上TTFT延迟仅150.5ms,较vLLM(80213.6ms)提速500倍;吞吐量超vLLM 1.6倍[33][34] 应用规模 - 支持超10,000个并行实验,部署于数十种硬件集群,训练模型参数规模达万亿级[35][36] - 已应用于智能助手、多模态生成等十亿级用户产品[37]