盘古大模型进展 - 盘古大模型5.5发布,在自然语言处理、多模态等5大基础模型全面升级,加速行业智能化[1] - 发布盘古医学、金融、政务、工业、汽车五个行业自然语言大模型,6月底正式上线[1] - 盘古大模型已在30多个行业、500多个场景中落地,覆盖政务、金融、制造、医疗等多个领域[1] - 推出参数规模高达7180亿的盘古Ultra MoE模型,全流程在昇腾AI计算平台训练[1] 盘古Ultra MoE技术突破 - 采用Depth-Scaled Sandwich-Norm架构和TinyInit小初始化方法,实现超过18TB数据的长期稳定训练[2] - 使用EP loss负载优化方法,保证专家负载均衡并提升领域特化能力[2] - 采用MLA和MTP架构,使用Dropless训练策略,平衡模型效果与效率[2] - 在昇腾CloudMatrix 384超节点上打通大稀疏比MoE强化学习后训练框架关键技术[3] 训练性能提升 - 预训练系统加速技术迭代升级,万卡集群预训练MFU由30%提升至41%[3] - 盘古Pro MoE大模型参数量720亿,激活160亿,性能媲美千亿级模型[3] - 在SuperCLUE 2025年5月排行榜上,盘古Pro MoE位居千亿参数量以内大模型国内并列第一[3] 鸿蒙6发布 - 鸿蒙6操作系统首次亮相,带来全新互联和智能体验[4] - HMAF鸿蒙智能体框架赋能应用和元服务智能化升级[4] - 鸿蒙生态进入加速阶段,超30000个应用及元服务在开发中,覆盖近20个行业[5] - 注册开发者数量突破800万,生态面临百万级人才缺口[5] 行业影响 - 证明在国产AI算力平台(昇腾)上能高效训练国际顶尖水平的超大规模稀疏模型[4] - 实现从硬件到软件、从训练到优化的全栈国产化和全流程自主可控[4]
华为,重大发布!
新华网财经·2025-06-20 20:17