Workflow
大规模基础模型
icon
搜索文档
MIT天才博士刚毕业,就被前OpenAI CTO抢走,年薪或300万起步
36氪· 2026-01-09 16:12
公司核心人事动态 - MIT博士肖光烜正式加盟由OpenAI前CTO Mira Murati创立的初创公司Thinking Machines,专注于大模型预训练工作[1] - 肖光烜拥有清华大学计算机科学与金融学双学位,并在MIT攻读博士学位,师从韩松教授,研究方向为深度学习的高效算法与系统,特别是大规模基础模型[6][8] - 其加盟获得了包括英伟达科学家、xAI研究员在内的行业顶尖人士的祝贺[3] 公司人才战略与薪酬竞争力 - Thinking Machines为吸引顶尖技术人才,提供了极具竞争力的薪酬,据2025年第一季度数据,其为四名技术员工提供的平均年薪高达462,500美元[25] - 具体而言,公司向两名技术员工支付了45万美元基础年薪,另一名员工年薪达50万美元,一名联合创始人/机器学习专家年薪也为45万美元[22][23] - 公司薪酬水平显著高于部分成熟竞争对手,例如OpenAI 29名技术员工的平均年薪为292,115美元,Anthropic 14名技术员工的平均年薪为387,500美元[25][27] 行业技术前沿与研发方向 - 肖光烜的博士论文《Efficient Algorithms and Systems for Large Language Models》系统性地解决了当前大模型面临的显存消耗大、推理速度慢、长上下文处理困难等核心工程挑战[18] - 其提出的SmoothQuant技术,通过数学变换将量化难点从激活值转移至权重,实现了在十亿级模型上W8A8无损量化,无需重新训练即可减少显存占用并加速推理[19] - 针对长上下文处理,其发现的“注意力汇点”现象及StreamingLLM框架,使模型能以常数内存进行流式推理,将上下文长度从数千token扩展至百万级,并已推广至多模态视频理解[19] - 为解决长上下文下的不同性能瓶颈,团队提出了DuoAttention(通过混合全局检索与局部关注来减少KVCache显存占用)和XAttention(利用反对角评分加速预填充阶段)等互补方案[19] - 论文进一步通过FlashMoBA定制化CUDA内核,使更小的注意力块架构在实践中可行,实现了最高可达9倍的速度提升,为下一代高效AGI系统奠定了基础[19][20] 个人背景与行业经验 - 肖光烜在MIT攻读博士期间,曾在Meta实习,研究方向为流式语言模型的高效注意力机制,相关成果已发表[10] - 他亦在英伟达实习,参与为长上下文大语言模型推理加速的研究,与团队共同提出了DuoAttention方法[12] - 其研究项目还包括XAttention、StreamingVLM、FlashMoBA等,均聚焦于提升大模型的效率与性能[15]