Workflow
盘古Ultra MoE
icon
搜索文档
6个90%!深圳企业创新主力军地位越发稳固
搜狐财经· 2025-08-08 04:51
人工智能与算力基础设施 - 华为首次线下展出昇腾384超节点,实现业界最大规模384卡高速总线互联,资源调度效率显著提升[1] - 华为发布盘古Ultra MoE和盘古Pro MoE系列模型,验证国产AI基础设施自主创新能力[1] - 腾讯构建全链路技术架构,包括HCC集群、高速存储和星脉网络,支撑AI应用场景[2] 机器人技术创新 - 深圳星尘智能小央机器人实现0.1毫米重复定位精度,手臂末端速度达10米/秒,完成国家大剧院指挥演出[2] - 优必选人形机器人实现自主更换电池,兆威机电灵巧手应用于工业、医疗等场景[2] - 众擎人形机器人实现跳跃翻滚等全球首创功能[2] 智能制造与工业突破 - 荣耀智能工厂通过CMMM四级认证,每28.5秒下线一台手机,生产全球最轻薄折叠旗舰[3] - 大族激光高功率光纤激光器打破国外垄断[3] - 深圳2分钟可组装一台3D打印机,无人机从创意到量产仅需3个月[8] 软件与垂直领域AI - 金蝶为企业管理云SaaS全球领先,深信服、微众银行深度融入实体经济[3] - 深圳2600余家人工智能企业中,思谋科技、晶泰科技等成为机器视觉、AI制药领域垂类模型领头羊[3] - 北科瑞声、元象科技分别在智能语音和3D视觉领域领先[3] 研发投入与专利产出 - 深圳国家高新技术企业达2.5万家,密度12家/平方公里居全国第一[5] - 华为2024年研发投入1797亿元(营收占比20.8%),十年累计超1.24万亿元,拥有15万件全球专利[6] - 腾讯2024年研发投入707亿元,全球专利申请量超8.6万件[6] 产业链与创新生态 - 深圳1小时通勤圈内可配齐95%手机零部件,华强北提供硬件创业"一站式"供应链[8] - 河套深港合作区160个高端项目加速技术规模化落地[8] - 电子信息、人工智能等产业集群形成全链条能力,创新成本持续降低[8] 创新主体数据 - 深圳90%以上创新型企业为本土企业,90%以上研发资源集中于企业[10] - 2024年深圳独角兽企业42家,新晋13家占全国总量25%[10] - PCT国际专利申请量连续20年全国第一,百强企业贡献76%[6]
华为首个!重磅发布!
证券时报· 2025-06-30 12:37
华为开源大模型技术 - 公司宣布开源盘古70亿参数的稠密模型和720亿参数的混合专家模型(盘古Pro MoE 72B),并同步开源基于昇腾的模型推理技术 [1] - 此举是公司践行昇腾生态战略的关键举措,旨在推动大模型技术研究与创新发展,加速AI在千行百业的应用与价值创造 [1] 盘古Pro MoE 72B模型性能 - Pro MoE 72B模型参数量为720亿,激活160亿参数量,通过动态激活专家网络设计实现以小打大的优异性能 [3] - 该模型在Super CLUE 2025年5月排行榜上位居千亿参数量以内大模型排行并列国内第一 [3] 华为开发者大会2025发布内容 - 公司发布盘古大模型5.5,包含五大基础模型,分别面向NLP、多模态、预测、科学计算、计算机视觉领域 [3] - 同时发布基于Cloud Matrix384超节点的新一代昇腾AI云服务,单卡推理吞吐量达2300Tokens/s [3] 盘古Ultra MoE模型 - 公司推出参数规模高达7180亿的盘古Ultra MoE模型,是全流程在昇腾AI计算平台上训练的准万亿MoE模型 [4] - 发布该模型架构和训练方法的技术报告,披露众多技术细节 [4] 全栈国产化成果 - 盘古大模型基于昇腾云的全栈软硬件训练而成,实现从硬件到软件、从训练到优化的全流程自主可控 [4] - 在集群训练系统性能上实现业界领先,完成国产AI基础设施自主创新能力的验证 [4] 行业应用成果 - 盘古大模型已在30多个行业、500多个场景中落地,覆盖政务、金融、制造、医疗等多个领域 [5] - 五大盘古行业思考大模型(盘古医学、盘古金融、盘古政务、盘古工业、盘古汽车)同步上线 [4] 开源战略意义 - 开源盘古模型有助于开发者基于国产算力平台开发大模型技术,扩展昇腾生态 [5] - 吸引更多垂直行业以盘古大模型为基础打造智能化解决方案,推动大模型赋能千行百业 [5]
华为首个!重磅发布!
证券时报· 2025-06-30 12:12
华为开源盘古大模型 - 公司宣布开源盘古70亿参数的稠密模型和720亿参数的混合专家模型(盘古Pro MoE 72B),并同步开源基于昇腾的模型推理技术 [1] - 此举是公司践行昇腾生态战略的关键举措,旨在推动大模型技术研究与创新发展,加速AI在千行百业的应用与价值创造 [1] 盘古Pro MoE 72B性能表现 - 开源的Pro MoE 72B大模型参数量为720亿,激活160亿参数量,通过动态激活专家网络设计实现以小打大的优异性能 [3] - 该模型在Super CLUE 2025年5月排行榜上位居千亿参数量以内大模型排行并列国内第一 [3] 华为大模型技术进展 - 公司在2025年华为开发者大会上发布盘古大模型5.5,包含五大基础模型面向NLP、多模态、预测、科学计算和计算机视觉领域 [4] - 会上还发布基于Cloud Matrix384超节点的新一代昇腾AI云服务,单卡推理吞吐量达2300Tokens/s [4] - 5月30日公司推出参数规模高达7180亿的盘古Ultra MoE模型,并发布相关技术报告 [4] 昇腾生态与国产化突破 - 盘古大模型基于昇腾云全栈软硬件训练完成,实现国产算力+国产模型全流程自主可控 [5] - 公司在集群训练系统性能上实现业界领先,完成从硬件到软件、从训练到优化的全栈国产化和全流程自主可控闭环 [5] 行业应用与落地 - 公司坚持"不作诗,只做事"战略,为千行万业提供智能化解决方案 [5] - 盘古大模型已在30多个行业、500多个场景中落地,覆盖政务、金融、制造、医疗等多个领域 [5] - 公司同步上线五大盘古行业思考大模型(医学、金融、政务、工业、汽车) [5] 开源战略意义 - 开源举措有助于更多开发者基于国产算力平台开发大模型技术,扩展昇腾生态 [7] - 开源将吸引更多垂直行业以盘古大模型为基础打造智能化解决方案,推动大模型更广泛赋能行业 [7]
华为开源盘古7B稠密和72B混合专家模型
观察者网· 2025-06-30 10:38
模型开源与生态战略 - 公司正式开源盘古70亿参数稠密模型和盘古Pro MoE 720亿参数混合专家模型,并发布基于昇腾的模型推理技术 [1] - 此举是公司推进昇腾生态战略的关键举措,旨在推动大模型技术研究创新和AI行业应用 [1] - 盘古Pro MoE 72B模型权重和基础推理代码已上线开源平台,盘古7B相关模型将于近期上线 [1] - 公司计划首先开源盘古72B MoE模型,其次可能向高校开源小模型 [2] 模型性能与技术优势 - 盘古Pro MoE大模型在720亿参数、激活160亿参数情况下,性能可媲美千亿级模型 [1] - 该模型在SuperCLUE 2025年5月排行榜中位列千亿参数以内大模型国内第一 [1] - 盘古72B被专家称为"兼顾性能与推理成本的黄金尺寸",适合行业AI改造 [1] - 公司推出7180亿参数的盘古Ultra MoE新模型,全流程在昇腾AI计算平台训练 [2] - 盘古718B Ultra MoE万卡集群预训练MFU达到41%,实验室达45% [3] - CloudMatrix384超节点训练MoE大模型MFU超过50% [3] 技术架构与优化 - 昇腾超节点采用全对等高速互联架构,通过系统工程方法实现计算、内存、通信的极致优化 [3] - 结合昇腾特点的亲和设计和数学算法创新,实现超级并行 [3] - 欧拉操作系统优化升级将支持资源池化管理与调度,提升训练效率和推理性能 [3] 产品升级与服务 - 公司发布盘古大模型5.5,升级NLP、CV、多模态等五大基础模型 [3] - 基于CloudMatrix 384超节点的新一代昇腾AI云服务全面上线 [3] 生态建设与兼容性 - 昇腾算力能够训练世界一流大模型,具有训练高效率、推理高性能、系统高可用特点 [2] - 第三方模型可做到Day0迁移和一键部署到昇腾平台 [2] - 昇腾生态正在逐步完善,包括对业界主流生态的兼容 [2]
华为,重大发布!
新华网财经· 2025-06-20 20:17
盘古大模型进展 - 盘古大模型5.5发布,在自然语言处理、多模态等5大基础模型全面升级,加速行业智能化[1] - 发布盘古医学、金融、政务、工业、汽车五个行业自然语言大模型,6月底正式上线[1] - 盘古大模型已在30多个行业、500多个场景中落地,覆盖政务、金融、制造、医疗等多个领域[1] - 推出参数规模高达7180亿的盘古Ultra MoE模型,全流程在昇腾AI计算平台训练[1] 盘古Ultra MoE技术突破 - 采用Depth-Scaled Sandwich-Norm架构和TinyInit小初始化方法,实现超过18TB数据的长期稳定训练[2] - 使用EP loss负载优化方法,保证专家负载均衡并提升领域特化能力[2] - 采用MLA和MTP架构,使用Dropless训练策略,平衡模型效果与效率[2] - 在昇腾CloudMatrix 384超节点上打通大稀疏比MoE强化学习后训练框架关键技术[3] 训练性能提升 - 预训练系统加速技术迭代升级,万卡集群预训练MFU由30%提升至41%[3] - 盘古Pro MoE大模型参数量720亿,激活160亿,性能媲美千亿级模型[3] - 在SuperCLUE 2025年5月排行榜上,盘古Pro MoE位居千亿参数量以内大模型国内并列第一[3] 鸿蒙6发布 - 鸿蒙6操作系统首次亮相,带来全新互联和智能体验[4] - HMAF鸿蒙智能体框架赋能应用和元服务智能化升级[4] - 鸿蒙生态进入加速阶段,超30000个应用及元服务在开发中,覆盖近20个行业[5] - 注册开发者数量突破800万,生态面临百万级人才缺口[5] 行业影响 - 证明在国产AI算力平台(昇腾)上能高效训练国际顶尖水平的超大规模稀疏模型[4] - 实现从硬件到软件、从训练到优化的全栈国产化和全流程自主可控[4]
刚刚,华为盘古大模型5.5问世!推理、智能体能力大爆发
机器之心· 2025-06-20 19:59
华为盘古大模型5.5发布 - 华为在HDC 2025开发者大会上发布盘古大模型5.5版本,其NLP能力比肩国际一流模型,并在多模态世界模型方面实现全国首创[3] - 新版本包含五大基础模型,分别面向NLP、多模态、预测、科学计算、CV领域,推动行业数智化转型[4] - 盘古系列模型坚持"不作诗,只做事"理念,从1.0到5.5版本持续深耕行业应用,获得市场广泛认可[2] NLP领域三大核心模型 盘古Ultra MoE - 7180亿参数的MoE深度思考模型,达到准万亿级别,基于昇腾全栈软硬件协同打造[9][10] - 采用Depth-Scaled Sandwich-Norm架构和TinyInit小初始化方法,实现10+T token数据的长期稳定训练[12] - 具备高效长序列、高效思考、DeepDiver、低幻觉等核心能力,在知识推理等领域榜单位列前沿[13] 盘古Pro MoE - 72B A16B模型,在SuperCLUE榜单千亿参数量以内模型中并列国内第一[16][18] - 针对昇腾硬件特性优化设计,在300I Duo芯片上实现每秒321 token吞吐量,800I A2芯片上达1529 token/秒[21][23] - 采用分组混合专家MoGE算法,解决跨芯片负载不均衡问题,吞吐效率领先同规模模型15%以上[22][23] 盘古Embedding - 7B级小模型在学科知识、编码、数学和对话能力方面优于同期同规模模型[27] - 通过渐进式SFT和多维度奖励强化学习提升推理能力,优化长序列处理达100万token上下文[29][32] - 采用自适应快慢思考合一技术,根据问题难度自动切换模式,整体推理效率提升高达8倍[35][37] 其他领域创新 预测大模型 - 采用业界首创triplet transformer统一预训练架构,提升跨行业泛化性和预测精度[47] 科学计算大模型 - 与深圳气象局合作升级"智霁"模型,首次实现AI集合预报,减少单一模型误差[47] CV大模型 - 发布300亿参数视觉大模型,支持多维度泛视觉感知分析,构建工业场景稀缺样本库[47] 多模态大模型 - 推出世界模型为智能驾驶等构建数字物理空间,可生成训练数据降低路采成本[47] 深度研究能力 - 推出开放域信息获取Agent盘古DeepDiver,7B模型实现接近超大模型效果[41] - 通过合成交互数据和渐进式奖励策略优化,5分钟内完成10跳复杂问答并生成万字报告[42][43] - 增强模型自主规划、探索、反思等高阶能力,提升在科学助手等场景的应用效果[39][44]
华为,重大发布!
证券时报· 2025-06-20 18:40
盘古大模型5.5发布 - 盘古大模型5.5在自然语言处理、多模态等5大基础模型全面升级,加速行业智能化 [1] - 发布盘古医学、金融、政务、工业、汽车五个行业自然语言大模型,6月底正式上线 [1] - 过去一年已在30多个行业、500多个场景中落地,覆盖政务、金融、制造、医疗等关键领域 [1] 盘古Ultra MoE模型技术突破 - 推出参数规模达7180亿的盘古Ultra MoE模型,全流程在昇腾AI平台训练 [1] - 采用Depth-Scaled Sandwich-Norm架构和TinyInit小初始化方法,实现18TB数据长期稳定训练 [2] - 创新EP loss负载优化方法,提升专家负载均衡和领域特化能力 [2] - 使用MLA和MTP架构,结合Dropless训练策略,平衡模型效果与效率 [2] 训练方法升级与性能提升 - 在昇腾CloudMatrix 384超节点上打通大稀疏比MoE强化学习后训练框架 [3] - 预训练系统MFU从30%提升至41%,通过自适应流水掩盖、内存优化等关键技术 [3] - 盘古Pro MoE模型以720亿参数量实现媲美千亿级模型的性能,位列SuperCLUE榜单国内第一 [3] 昇腾平台全栈国产化意义 - 证明国产昇腾平台可高效训练国际顶尖水平的超大规模稀疏模型 [4] - 实现硬件到软件、训练到优化的全流程自主可控闭环 [4] 鸿蒙6操作系统生态进展 - 鸿蒙6首次亮相,带来更低时延和更开放AI能力 [4] - HMAF鸿蒙智能体框架赋能应用智能化升级 [4] - 生态加速发展,超30000个应用及元服务在开发中,覆盖20个行业 [5] - 注册开发者突破800万,面临百万级人才缺口 [5]
经济日报:让人工智能跑出中国速度
快讯· 2025-06-13 07:03
人工智能领域中国进展 - 中国在人工智能领域取得显著突破 DeepSeek火爆全球 回击"中国做不出一流大模型"的论断 [1] - 华为推出参数规模高达7180亿的全新模型盘古Ultra MoE 全流程在国产昇腾AI计算平台上训练 证明国产算力能训练世界先进大模型 [1] 中美人工智能竞争格局 - 中美被视为人工智能发展第一梯队 美国在核心技术、资本投入和生态成熟度等方面更具优势 [1] - 部分观点认为中美人工智能差距扩大 但实际呈现"美强中快"动态变化 中国凭借应用创新、数据规模和政策驱动快速追赶 [1] - DeepSeek成功证明中国在大模型领域走出"低成本、高性能"创新之路 [1]
让人工智能跑出中国速度
经济日报· 2025-06-13 06:06
人工智能领域中国进展 - DeepSeek火爆全球 回击"中国做不出一流大模型"的论断 [1] - 华为推出参数规模7180亿的盘古Ultra MoE模型 全流程在国产昇腾AI计算平台训练完成 [1] - 中美人工智能竞争呈现"美强中快"动态变化 中国凭借应用创新、数据规模和政策驱动快速追赶 [1] - 中国在大模型领域走出"低成本、高性能"创新之路 [1] 算力竞争现状 - 算力是人工智能竞争重要战场 决定算法创新空间 [2] - 美国在核心算法、框架和先进算力领域占据优势 [2] - 国产算力在市场占有率、性能优化、生态成熟度等方面有待提高 面临技术封锁 [2] - 华为通过数学补物理、叠加和集群技术提升系统性能 达到世界先进计算水平 [2] - 国产算力有望实现从"可用"到"好用"的跨越 [2] 中国人工智能产业体系 - 中国构建全栈自主技术链条 缩小与世界顶尖水平差距 [3] - 昇腾算力平台训练效率高、推理性能好、系统运行稳定可靠 [3] - 中国人工智能专利全球最大 核心产业规模近6000亿元 企业数量超4700家 [3] - 算力规模全球前列 建成钢铁、煤炭等高质量行业数据集 [3] - 培育出竞争力强的通用大模型和行业模型 登上全球主流开源社区下载量榜首 [3] 未来发展重点 - 国产算力需在高端芯片架构、集群通信效率、软件生态等方面继续优化 [3] - 中国制造业增加值占全球比重约30% 是发展人工智能重要优势 [4] - 需在基础研究、生态构建、场景落地持续投入 才能跑出中国速度 [4]
昇腾万亿大模型验证国产AI基础设施!科创板人工智能ETF(588930)现涨0.54%,实时成交额突破3200万元
每日经济新闻· 2025-06-04 10:44
科技公司AI模型突破 - 头部科技公司推出参数规模高达7180亿的全新模型盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型 [1] - 盘古Pro MoE大模型参数量为720亿,激活160亿参数量,通过动态激活专家网络设计实现媲美千亿级模型的性能表现 [1] - 在SuperCLUE 2025年5月排行榜上,盘古Pro MoE位居千亿参数量以内大模型排行并列国内第一 [1] 科创板人工智能板块表现 - 6月4日A股市场人工智能板块表现占优,科创板人工智能指数成分股中多只股票涨幅超过2%-3% [1] - 科创板人工智能ETF(588930)过去20个交易日资金净流入1.37亿元,市场热度较高 [1] - 科创板人工智能ETF跟踪的指数布局30只科创板人工智能龙头,覆盖AI全产业链,前五大成份股合计权重47% [2] 国产AI产业优势 - 国产AI基础设施自主创新能力得到验证,为中国人工智能产业发展提供支持 [1] - 中国拥有全球领先的数字科技人才储备,2023年占全球总量的17%,是美国的1.5倍 [2] - 中国公司在AI陪伴应用领域展现出产品力、技术迭代和市场拓展方面的独特优势 [2]