Vision Transformer
搜索文档
突发|华为诺亚方舟实验室主任王云鹤离职
机器之心· 2026-03-28 12:45
行业高层人事变动 - 2026年以来,国内AI圈经历一系列高层人事变动,表明行业正经历一次深刻的结构性转折[3] - 华为诺亚方舟实验室主任王云鹤官宣离职,成为行业焦点[1][25] 王云鹤个人背景与职业履历 - 王云鹤生于1991年,本科就读于西安电子科技大学数学与应用数学专业,2018年博士毕业于北京大学智能科学系[5] - 其研究方向包括深度学习、模型压缩、机器学习、计算机视觉等[5] - 博士毕业前已在华为诺亚方舟实验室实习,毕业后加入并担任高级工程师,后续升任主任工程师和技术专家[8] - 2021年担任华为算法应用部部长,负责高效AI算法的创新研发与应用,其“大幅提升算力的高效能乘法器和加法神经网络”获选华为第四届“十大发明”[8] - 2025年3月接班姚骏,担任华为诺亚方舟实验室主任,在华为工作超过8年[8] - 他是一位活跃的知乎答主,是“深度学习”话题的优秀答主[11] 王云鹤的学术成就与研究贡献 - 谷歌学术引用量突破33,000次(33,921次),h指数为64,i10指数为158[13][14] - 引用量最高的论文是CVPR 2020的“GhostNet: More features from cheap operations”,引用次数达6,109次,该研究提出了一种新型的端侧神经网络架构[14][15] - GhostNet在ImageNet分类任务上,在相似计算量情况下Top-1正确率达75.7%,高于MobileNetV3的75.2%[16] - 在Vision Transformer方向成就斐然,其参与发表的综述文章“A survey on vision transformer”引用量高达5,528次[18] - 参与的重要研究“Pre-trained image processing transformer”及“Transformer in transformer”引用次数均逼近3,000次[18] - 这些工作系统性地优化了自注意力机制在视觉特征提取中的计算效率,推动了Transformer架构在视觉任务中的应用与普及[18] 王云鹤对AI技术的前沿见解 - 他认为Transformer是“量变到质变长期积累得到的范式”,而扩散模型在建模方式上可能有潜力对自回归带来很大冲击[21] - 他系统性地梳理了扩散语言模型当前面临的10个核心挑战与优化方向,涵盖推理高效的架构设计、更适配的词表探索、更好的优化范式等多个维度[21] - 他强调最理想的扩散模型不应遵循现有自回归范式,应像人思考一样具有结构性,并建议未来AI模型设计可借鉴人类多尺度思考的特点,探索具有层级联系的词表结构[21] - 提出将离散扩散模型与视觉、语言及动作模块在具身智能等场景下融合,有望探索出更加统一的模型结构与训练范式[21] - 在其主导的论文《DLLM Agent: See Farther, Run Faster》中,团队探讨了底层语言模型的生成范式(扩散DLLM vs 自回归AR)对智能体规划、工具使用及决策轨迹的深刻影响[22] - 其提出的DLLM智能体可以实现更高效的全局规划,在最终准确率相当的情况下,端到端速度更快,交互与工具调用更少,并减少了冗余与回溯[24] 离职影响与未来展望 - 王云鹤作为在华为效力8年有余的AI领军人物,主导了多项具有国际影响力的底层算法创新,他的离职是行业内的一大焦点[25] - 他带着对扩散语言模型与通用人工智能统一架构的深刻思考离开,其下一段职业旅程值得整个行业持续关注[26]