Workflow
盘古Pro MoE 72B混合专家模型
icon
搜索文档
通信行业周报:甲骨文超300亿云服务协议落地,关注算力全链-20250707
国元证券· 2025-07-07 12:13
报告行业投资评级 - 给予通信行业“推荐”评级 [2] 报告的核心观点 - 本周(2025.6.29 - 2025.7.5)上证、深证、创业板指均上涨,申万通信回调0.10%,考虑行业高景气度延续,AI、5.5G及卫星通信推动发展,给予通信行业“推荐”评级 [2] - AI技术成熟渗透加速推动云业务增速加快,或推动算力硬件等云基础设施需求扩张,甲骨文300亿美元年收入协议落地或受“星际之门”计划提振,需关注该计划引致的主权国家间算力硬件军备赛,推荐关注海内外算力产业链相关公司 [3] 根据相关目录分别进行总结 周行情:本周通信板块指数回调 - 行业指数方面,本周(2025.6.29 - 2025.7.5)申万通信回调0.10% [2][10] - 细分板块方面,本周通信线缆及配套涨幅最高为1.02%,其他通信设备回调幅度最高为2.49%,各细分板块呈回调趋势 [2][13] - 个股涨幅方面,本周通信板块上涨、下跌和走平个股数量占比分别为26.40%、13.60%和60.00%,南凌科技(17.08%)、*ST高鸿(15.06%)、永鼎股份(10.65%)涨幅分列前三 [15] 本周通信板块新闻(2025.6.29 - 2025.7.5) - 华为宣布开源盘古7B稠密和72B混合专家模型,推动大模型技术研究创新与人工智能应用,部分模型权重与推理代码已上线或近期上线开源平台 [17] - LightCounting称AI带来DWDM流量增长,运营商希望转型、创造收入、提供差异化服务、为数字化转型提供方案,但面临时间、竞争等问题,中国运营商推动人工智能和数字化领先,运营商应关注数据中心流量溢出及网络升级 [17][19] - 美国取消对中国芯片设计软件出口限制,西门子恢复中国客户对其EDA软件及技术访问,全球EDA市场集中,中国企业依赖进口,本土EDA企业近年崛起 [20][21] 本周及下周通信板块公司重点公告 - 本周(2025.6.29 - 2025.7.5)通信板块公司重点公告无 [22] - 下周(2025.7.6 - 2025.7.12)通信板块公司限售解禁情况无 [23]
华为宣布开源盘古7B稠密和72B混合专家模型
财联社· 2025-06-30 14:21
华为开源大模型技术 - 公司正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术 [1] - 此举是公司践行昇腾生态战略的关键举措,旨在推动大模型技术研究创新并加速AI在千行百业的应用 [1] 开源内容详情 - 盘古Pro MoE 72B模型权重及基础推理代码已正式上线开源平台 [2] - 基于昇腾的超大规模MoE模型推理代码已同步上线开源平台 [3] - 盘古7B相关模型权重与推理代码将于近期上线开源平台 [4] 生态合作计划 - 公司邀请全球开发者、企业伙伴及研究人员下载使用开源资源并提供反馈以共同完善技术 [4] - 开源资源访问路径为https://gitcode.com/ascend-tribe [4]
华为宣布开源盘古7B稠密和72B混合专家模型
雷峰网· 2025-06-30 12:32
开源模型发布 - 公司正式开源盘古Pro MoE 720亿参数混合专家模型权重及基础推理代码[1][2][3] - 同时开源基于昇腾的超大规模MoE模型推理代码[4] - 盘古7B相关模型权重与推理代码将于近期上线开源平台[5] 技术性能突破 - 公司通过昇腾+鲲鹏双核架构实现MoE训练速度提升20% 内存节省70%[7] - 昇腾原生72B MoE架构在SuperCLUE评测中位列国内千亿参数内模型第一梯队[7] 生态战略布局 - 此次开源是公司推进昇腾生态战略的关键举措[2] - 公司邀请全球开发者 企业伙伴及研究人员共同参与模型完善[5] - 开源平台地址为https://gitcode.com/ascend-tribe[5]
华为开源盘古7B稠密和72B混合专家模型
观察者网· 2025-06-30 10:38
模型开源与生态战略 - 公司正式开源盘古70亿参数稠密模型和盘古Pro MoE 720亿参数混合专家模型,并发布基于昇腾的模型推理技术 [1] - 此举是公司推进昇腾生态战略的关键举措,旨在推动大模型技术研究创新和AI行业应用 [1] - 盘古Pro MoE 72B模型权重和基础推理代码已上线开源平台,盘古7B相关模型将于近期上线 [1] - 公司计划首先开源盘古72B MoE模型,其次可能向高校开源小模型 [2] 模型性能与技术优势 - 盘古Pro MoE大模型在720亿参数、激活160亿参数情况下,性能可媲美千亿级模型 [1] - 该模型在SuperCLUE 2025年5月排行榜中位列千亿参数以内大模型国内第一 [1] - 盘古72B被专家称为"兼顾性能与推理成本的黄金尺寸",适合行业AI改造 [1] - 公司推出7180亿参数的盘古Ultra MoE新模型,全流程在昇腾AI计算平台训练 [2] - 盘古718B Ultra MoE万卡集群预训练MFU达到41%,实验室达45% [3] - CloudMatrix384超节点训练MoE大模型MFU超过50% [3] 技术架构与优化 - 昇腾超节点采用全对等高速互联架构,通过系统工程方法实现计算、内存、通信的极致优化 [3] - 结合昇腾特点的亲和设计和数学算法创新,实现超级并行 [3] - 欧拉操作系统优化升级将支持资源池化管理与调度,提升训练效率和推理性能 [3] 产品升级与服务 - 公司发布盘古大模型5.5,升级NLP、CV、多模态等五大基础模型 [3] - 基于CloudMatrix 384超节点的新一代昇腾AI云服务全面上线 [3] 生态建设与兼容性 - 昇腾算力能够训练世界一流大模型,具有训练高效率、推理高性能、系统高可用特点 [2] - 第三方模型可做到Day0迁移和一键部署到昇腾平台 [2] - 昇腾生态正在逐步完善,包括对业界主流生态的兼容 [2]