混元AI模型

搜索文档
微软华人AI团队核心成员被曝加入腾讯混元,知情人称与裁员无关|独家
AI前线· 2025-05-14 16:12
作者|冬梅、核子可乐 近 日 , 据 外 媒 消 息 , WizardLM 团 队 核 心 成 员 Can Xu 已 经 离 开 微 软 , 加 入 了 腾 讯 混 元 (Hunyuan)事业部。 Can Xu此前也 在 X 发帖表示 ," 我和 WizardLM 团队 离开微软加入了腾讯混元 ( I and WizardLM team has left Microsoft and joined Tencent Hunyuan! )" 。但此贴目前已被删 除,Can Xu 解释称此前信息有误,是他个人离开了微软,而非整个团队。 据知情人士向 AI 前线独家透露,WizardLM 团队的主力成员大部 分已经离开微软。 有趣的是,AI 前线留意到,Can Xu 宣布离开的时间点比较微妙,因为正值微软被曝出将在全球 范围内裁员 3%,也就是大约 6000 多人会受到影响,外界猜测Can Xu的离开或与微软裁员有 关。 但据知情人士透露,WizardLM 团队核心人物 Can Xu 和 Qingfeng Sun 早已离开微软,只是近 日才将消息公布出来,他们的离开与微软裁员无关。 知情人士还透露,团队也会采用远程办公 ...
微软这支神秘的华人AI团队加入腾讯混元,曝与裁员无关|独家
AI前线· 2025-05-14 13:47
团队动态 - WizardLM团队6名主力成员离开微软加入腾讯混元AI开发组织 将专注于推动LLM培训技术和AI模型构建 [1][4] - 团队采用远程办公模式 成员独立负责各自研发部分 [5] - 团队核心人物Can Xu和Qingfeng Sun早已离开微软 与微软近期裁员6000人无关 [4] 团队背景 - WizardLM团队成立于2023年初 专注高级大语言模型开发 在HuggingFace有6位主要成员 [7] - Qingfeng Sun曾任微软AI研究科学家 共同创立WizardLM项目 贡献Evol-Instruct等方法 [9] - Can Xu领导WizardLM系列模型研发 发表40多篇顶级会议论文 Google Scholar引用超3300次 [10] - 团队曾与北京大学合作开发Evol-Instruct方法 生成的指令质量优于人工数据集 [10] 技术成果 - WizardLM-30B在Evol-Instruct测试集取得97.8% ChatGPT分数占比 [14] - 在2023年UC伯克利LLM排位赛中 WizardLM位列全球第四 是华人团队开源模型第一名 [16] - WizardLM-30B在HumanEval评估中击败code-cushman-001和StarCoder [17] - WizardLM-13B在AlpacaEval和Evol-Instruct测试集分别获得87%和89% ChatGPT能力占比 [17] 模型发布 - 2024年4月发布WizardLM-2系列 包含8x22B/70B/7B三个型号 性能接近专有模型 [19][21] - 8x22B专为复杂任务设计 70B侧重推理能力 7B注重处理速度 [21] - 在MT-Bench评估中 8x22B得9.12分 70B得8.92分 7B得8.28分 [22] - 微软因缺乏毒性测试撤回WizardLM-2模型 团队承诺尽快完成测试重新发布 [23][24] 腾讯布局 - 腾讯重组混元AI研发架构 新设大型语言模型和多模态模型团队 [28] - 加强数据基础设施建设 设立大模型数据管理部门和机器学习平台部门 [28][29] - 计划2025年投入900亿元(124.9亿美元)资本支出 重点发展AI业务 [30] - AI业务为腾讯2025年第一季度贡献8%的增长 [30] 行业影响 - Hugging Face CEO批评微软移除WizardLM模型损害开源社区利益 该模型月下载量超10万次 [25][27] - 网友认为腾讯比微软更适合WizardLM团队发展 微软在AI研发上已显疲态 [32] - 部分用户惋惜WizardLM从开源转向闭源 认为这是行业损失 [34]