团队动态 - WizardLM团队6名主力成员离开微软加入腾讯混元AI开发组织 将专注于推动LLM培训技术和AI模型构建 [1][4] - 团队采用远程办公模式 成员独立负责各自研发部分 [5] - 团队核心人物Can Xu和Qingfeng Sun早已离开微软 与微软近期裁员6000人无关 [4] 团队背景 - WizardLM团队成立于2023年初 专注高级大语言模型开发 在HuggingFace有6位主要成员 [7] - Qingfeng Sun曾任微软AI研究科学家 共同创立WizardLM项目 贡献Evol-Instruct等方法 [9] - Can Xu领导WizardLM系列模型研发 发表40多篇顶级会议论文 Google Scholar引用超3300次 [10] - 团队曾与北京大学合作开发Evol-Instruct方法 生成的指令质量优于人工数据集 [10] 技术成果 - WizardLM-30B在Evol-Instruct测试集取得97.8% ChatGPT分数占比 [14] - 在2023年UC伯克利LLM排位赛中 WizardLM位列全球第四 是华人团队开源模型第一名 [16] - WizardLM-30B在HumanEval评估中击败code-cushman-001和StarCoder [17] - WizardLM-13B在AlpacaEval和Evol-Instruct测试集分别获得87%和89% ChatGPT能力占比 [17] 模型发布 - 2024年4月发布WizardLM-2系列 包含8x22B/70B/7B三个型号 性能接近专有模型 [19][21] - 8x22B专为复杂任务设计 70B侧重推理能力 7B注重处理速度 [21] - 在MT-Bench评估中 8x22B得9.12分 70B得8.92分 7B得8.28分 [22] - 微软因缺乏毒性测试撤回WizardLM-2模型 团队承诺尽快完成测试重新发布 [23][24] 腾讯布局 - 腾讯重组混元AI研发架构 新设大型语言模型和多模态模型团队 [28] - 加强数据基础设施建设 设立大模型数据管理部门和机器学习平台部门 [28][29] - 计划2025年投入900亿元(124.9亿美元)资本支出 重点发展AI业务 [30] - AI业务为腾讯2025年第一季度贡献8%的增长 [30] 行业影响 - Hugging Face CEO批评微软移除WizardLM模型损害开源社区利益 该模型月下载量超10万次 [25][27] - 网友认为腾讯比微软更适合WizardLM团队发展 微软在AI研发上已显疲态 [32] - 部分用户惋惜WizardLM从开源转向闭源 认为这是行业损失 [34]
微软这支神秘的华人AI团队加入腾讯混元,曝与裁员无关|独家
AI前线·2025-05-14 13:47