公司产品结构与财务表现 - 公司主营业务为全栈高性能GPU芯片及计算平台研发设计销售 产品包括训推一体系列(曦云C500 C550)和智算推理系列(曦思N100 N260)[3] - 2024年训推一体系列收入721亿元 占主营业务收入97% 其中曦云C500(含板卡服务器)收入占比61% 曦云C550占比36%[4][5][7] - 2025年1-3月训推一体GPU板卡毛利率56% 较2024年63%有所下降 智算推理系列GPU板卡毛利率6% 较2024年10%下降[4][5] - 产品交付形态以GPU板卡为主 2025年1-3月板卡类收入占比97% 服务器类收入占比降至0.32%[19][21] 市场竞争地位分析 - 全球GPU市场由英伟达(2024年数据中心产品收入占比89%)和AMD(2024年数据中心产品收入占比49%)寡头垄断[6][9] - 国内竞争对手包括华为海思 燧原科技 昆仑芯等ASIC/DSA架构企业 以及寒武纪(2024年云端产品收入占比99%)海光信息等通用架构企业[1][6] - 公司产品在单卡性能层面对标英伟达A100 互连技术MetaXLink达到英伟达H200水平 但软件生态注册用户仅15万人 与英伟达数百万CUDA开发者存在差距[30][31] - 2024年国内人工智能训练推理芯片市场中 公司产品覆盖率低于国际厂商 在互联网企业客户开拓进度滞后于部分国内友商[23][29] 技术研发与产品迭代 - 人工智能芯片迭代周期通常为2年 公司用3年实现两款芯片流片量产 曦云C500于2024年2月量产 下一代曦云C600于2025年7月回片[10][11] - 自主研发MXMACA指令集 包含600条计算指令和800条渲染指令 产品兼容CUDA生态 支持降低客户迁移成本[15][30] - 核心优势在于完全自主掌握GPU IP 指令集和架构 能快速响应客户技术需求 国产供应链布局领先[27][28] 行业发展与市场需求 - 全球人工智能算力需求激增 IDC预测国内训练算力年复合增速50% 推理算力年复合增速190%[33][34] - 训练芯片在AI服务器中价值占比73% 推理芯片价值占比25% 公司曦云C系列主要面向训练场景[33] - 云端智算将以通用型GPU架构为主流 端侧场景将出现专用型计算芯片作为补充 形成云边端一体化生态[35] - 地缘政治因素推动国产替代进程 为国内GPU厂商创造发展空间 公司产品已应用于国家人工智能公共算力平台和运营商智算平台[15][32] 商业化进展与客户结构 - 产品已赋能教科研 金融 交通 能源 医疗等行业 获得多个智算中心客户认可[15][27] - 互联网企业客户仍优先采购国际产品 国产GPU多集中于推理场景 训练场景导入缓慢 due to 测试周期长和生态薄弱[23][29] - 客户采购驱动因素包括产品性能 CUDA兼容性 集群稳定性以及供应链安全考量[15][26] 未来产品规划 - 主力产品持续聚焦曦云C系列 同时布局"新一代人工智能推理GPU研发及产业化项目"应对推理市场需求增长[33] - 坚持GPU板卡为主要交付形态 通过PCIe板卡 OAM模组等多形态产品满足不同组网和散热需求[21][28] - 图形渲染GPU产品线已规划研发 进一步完善产品矩阵覆盖计算和渲染场景[36]
刚刚,沐曦回应问询!