Workflow
WizardLM
icon
搜索文档
微软华人AI团队核心成员被曝加入腾讯混元,知情人称与裁员无关|独家
AI前线· 2025-05-14 16:12
核心事件 - WizardLM团队核心成员Can Xu已从微软离职并加入腾讯混元事业部[1] - 知情人士透露WizardLM团队主力成员大部分已离开微软[2] - 团队采用远程办公方式协同工作,成员独立负责各自研发部分[3] 团队背景 - WizardLM团队成立于2023年初,专注高级大语言模型开发[4] - 团队在HuggingFace显示有6位主要成员[4] - 核心成员Qingfeng Sun和Can Xu均为微软前AI研究科学家,拥有北京大学硕士学位[5] - Can Xu领导开发了WizardLM系列模型,发表40多篇顶级会议论文,Google Scholar引用超3300次[5] 技术成果 - 团队与北大合作提出Evol-Instruct方法,机器生成指令质量优于人工指令[6] - WizardLM-30B在Evol-Instruct测试集取得97.8% ChatGPT分数占比[10] - 在2023年UC伯克利LLM排位赛中位列全球第四,是华人团队开源模型第一名[13] - WizardLM-13B在AlpacaEval和Evol-Instruct测试集的GPT-4评估中分别获得87%和89% ChatGPT能力占比[11] 模型表现 - WizardLM-2系列于2024年4月发布,包含8x22B/70B/7B三个版本[15][17] - WizardLM-2 8x22B在MT-Bench得分为9.12,接近Claude 3 Opus(9.43)和GPT-4-1106-Preview(9.32)[18] - WizardLM-2 70B和7B在MT-Bench分别获得8.92和8.28分[18] 腾讯布局 - 腾讯重组混元AI架构,新设大型语言模型和多模态模型团队[24] - 计划2025年投入900亿元人民币(124.9亿美元)用于AI业务发展[26] - AI业务为腾讯2025年Q1贡献8%的增长[26] 行业影响 - WizardLM-2模型因未完成毒性测试被微软撤回,但用户已重新上传[19][20] - Hugging Face CEO批评微软此举损害开源社区利益[21] - WizardLM模型月均下载量超10万次[23]
原微软WizardLM项目团队加入腾讯混元
快讯· 2025-05-14 14:27
公司动态 - WizardLM项目创建者徐灿及其团队离开微软,加入腾讯AI开发组织混元(Hunyuan) [1] - 团队表示将继续推动LLM培训技术发展并构建更好的AI模型 [1] - 团队6名主力成员大部分已离开微软 [1] 行业动向 - 腾讯通过吸纳WizardLM团队加强AI领域布局,显示行业人才竞争加剧 [1] - 大语言模型开发领域出现核心团队跨公司流动现象 [1]
微软这支神秘的华人AI团队加入腾讯混元,曝与裁员无关|独家
AI前线· 2025-05-14 13:47
团队动态 - WizardLM团队6名主力成员离开微软加入腾讯混元AI开发组织 将专注于推动LLM培训技术和AI模型构建 [1][4] - 团队采用远程办公模式 成员独立负责各自研发部分 [5] - 团队核心人物Can Xu和Qingfeng Sun早已离开微软 与微软近期裁员6000人无关 [4] 团队背景 - WizardLM团队成立于2023年初 专注高级大语言模型开发 在HuggingFace有6位主要成员 [7] - Qingfeng Sun曾任微软AI研究科学家 共同创立WizardLM项目 贡献Evol-Instruct等方法 [9] - Can Xu领导WizardLM系列模型研发 发表40多篇顶级会议论文 Google Scholar引用超3300次 [10] - 团队曾与北京大学合作开发Evol-Instruct方法 生成的指令质量优于人工数据集 [10] 技术成果 - WizardLM-30B在Evol-Instruct测试集取得97.8% ChatGPT分数占比 [14] - 在2023年UC伯克利LLM排位赛中 WizardLM位列全球第四 是华人团队开源模型第一名 [16] - WizardLM-30B在HumanEval评估中击败code-cushman-001和StarCoder [17] - WizardLM-13B在AlpacaEval和Evol-Instruct测试集分别获得87%和89% ChatGPT能力占比 [17] 模型发布 - 2024年4月发布WizardLM-2系列 包含8x22B/70B/7B三个型号 性能接近专有模型 [19][21] - 8x22B专为复杂任务设计 70B侧重推理能力 7B注重处理速度 [21] - 在MT-Bench评估中 8x22B得9.12分 70B得8.92分 7B得8.28分 [22] - 微软因缺乏毒性测试撤回WizardLM-2模型 团队承诺尽快完成测试重新发布 [23][24] 腾讯布局 - 腾讯重组混元AI研发架构 新设大型语言模型和多模态模型团队 [28] - 加强数据基础设施建设 设立大模型数据管理部门和机器学习平台部门 [28][29] - 计划2025年投入900亿元(124.9亿美元)资本支出 重点发展AI业务 [30] - AI业务为腾讯2025年第一季度贡献8%的增长 [30] 行业影响 - Hugging Face CEO批评微软移除WizardLM模型损害开源社区利益 该模型月下载量超10万次 [25][27] - 网友认为腾讯比微软更适合WizardLM团队发展 微软在AI研发上已显疲态 [32] - 部分用户惋惜WizardLM从开源转向闭源 认为这是行业损失 [34]