Workflow
壁仞BR100
icon
搜索文档
国产GPU的大时代
36氪· 2025-12-22 09:05
文章核心观点 - 国产GPU行业在AI算力需求驱动和国产替代主题下,资本市场情绪高涨,相关公司上市后市值飙升,但公司普遍处于巨额亏损和早期商业化阶段,当前估值已严重偏离基本面 [1][18] - 摩尔线程、沐曦、壁仞三家主要国产GPU公司技术路径和商业化策略差异显著,但均在2025年迎来订单和商业化的拐点,产品开始被市场接受并应用于实际场景 [6][21][27] - 尽管面临生态薄弱、技术差距等挑战,但在中国AI产业链的协同支持下,国产GPU正逐步通过千卡/万卡集群解决方案在智算中心、大模型训练等关键领域实现落地应用 [14][23][24] 资本市场表现与估值 - 沐曦股份科创板上市首日开盘暴涨超568%,市值突破3000亿元,中一签可获利约30万元 [1] - 摩尔线程与沐曦市值合计超6000亿元,但流通盘仅约5%,网下配售被机构重仓,相当于为市值加了杠杆 [1][21] - 采用PS估值法,摩尔线程和沐曦的市销率分别高达300多倍和150多倍,远超科技成长股常规的10-20倍区间,估值已完全偏离正常价值逻辑 [18][19] - 市场高估值由AI算力国产替代的宏大叙事、稀缺的流通筹码以及寒武纪等先例带来的乐观情绪共同驱动 [21] 公司财务与经营状况 - 三家国产GPU公司均处于大额亏损状态:摩尔线程2025年前三季度亏损7.24亿元,沐曦亏损3.46亿元,壁仞2025年上半年亏损16.01亿元 [2] - 摩尔线程2025年上半年营收超过7亿元,远超2022-2024年营收总和,显示商业化进入新阶段 [11] - 壁仞2025年上半年营收为5.87亿元,规模小于摩尔线程和沐曦 [17] - 摩尔线程与沐曦的产销率均已超过100%,且明显好于2024年,反映商业化加速 [21] - 摩尔线程早期营收主要依赖经销商,目前90%已实现直销,显示项目对接能力提升 [22] 技术路径与产品对比 - **摩尔线程**:追求全功能GPU,覆盖图形渲染、AI计算、科学计算等,路径最接近英伟达从游戏到AI的发展历程 [6][7] - 桌面显卡S80对标英伟达RTX 3060,但实际游戏性能仅与AMD R7核显相当 [9] - 算力卡S5000在带宽、显存、算力上表现不错,支持主流计算精度,可作为英伟达H100的替代品用于AI大模型推训 [9][11] - 发布AI训推一体芯片“华山”和高性能图形渲染芯片“庐山”,其中“华山”性能介于英伟达Hopper和Blackwell架构之间 [4] - **沐曦**:核心团队出身AMD,聚焦数据中心高性能计算,不涉足游戏显卡 [6][14] - 曦云C500系列算力卡单卡算力达英伟达A100水平,支持FP32到INT8全精度混合计算,并已走通千卡集群解决方案 [14] - **壁仞**:偏爱“暴力计算”,追求极致算力 [6][16] - 首款旗舰通用GPU BR100采用数据流并行+Chiplet+台积电N7工艺,晶体管数量达770亿个,接近英伟达H100的800亿个 [16] - 官方宣称FP16/BF16算力大于1000 TFLOPS,INT8算力大于2000 TOPS,FP32算力超越英伟达A100/H100一个数量级 [16] - 拥有光跃LightSphere X超节点技术,通过光互连实现灵活、高可靠的GPU互联,支持大规模集群 [24] 商业化进展与客户 - **摩尔线程**:客户涵盖互联网企业、AI公司、算力服务商、运营商等,并适配了飞腾、海光等国产CPU及麒麟、统信等操作系统 [22] - 2025年上半年,前两大客户R和J贡献收入占比分别为56.63%和30.91%,但客户续费率低,营收依赖新增大单 [22][23] - **沐曦**:通过集成商实现落地,客户包括超讯通信、新华三等 [25][26] - 产品累计销量超过2.5万颗,应用于国家级人工智能公共算力平台、运营商智算平台等项目 [24] - 与联想合作推出DeepSeek一体机,积极将产品打造成行业“标准件” [25] - **壁仞**:客户主要为大型运营商和智算中心,产品用于大模型推训、科研和商业应用 [23] - 已在中国电信落地千卡集群,可实现连续训练30天不中断,千亿参数模型断点续训时间小于5分钟 [23] - 推理卡壁砺110E以1.3倍于主流方案的算力密度和70%的能耗节省,在文生图、语音识别等场景快速渗透 [16] 行业生态与挑战 - 沐曦的MXMACA软件栈截至2025年10月22日注册用户及客户仅15万人,网络API调用1300多万次,生态规模与英伟达CUDA差距巨大 [16] - 摩尔线程上市募资80亿元后,公告拟使用不超过75亿元闲置资金购买理财,引发市场对其研发投入进度的争议 [4] - 商汤科技高管表示,国产GPU早期难用,但如今成本逐步降低,在长期跑同类型任务时已成为一个可行选择 [27] - 根据弗若斯特沙利文预测,2029年中国算力总规模将达3442.89 EFLOPs,年均复合增长率40.0% [19]
围观!预算2100万GPU服务器别样标书
是说芯语· 2025-11-18 15:57
采购项目概况 - 某985高校发布总预算2100万+的GPU服务器采购需求,计划采购13台服务器 [1] - 采购核心逻辑从传统“参数堆砌”转向“实用性”与“适配性”,重点关注国产化、实测性能和模型兼容性 [1][3] - 采购清单包括10台标准GPU服务器和3台高密度GPU服务器(单台搭载≥16张GPU卡) [4][8] 技术规格要求 - 服务器CPU要求采用国产x86架构,配置≥2颗处理器,单颗基础主频≥2.7GHz,核数≥64核,线程数≥128 [6][8] - 标准服务器要求配置≥8张国产AI加速卡,单卡显存≥96GB,整机FP16算力≥2.2 PFLOPS [6] - 高密度服务器要求单台配置≥16张GPU卡,整机HBM显存容量≥1400GB,GPU卡间互联带宽≥700GB [8] - 网络配置要求支持IB和RoCE联合组网,标准服务器需配备≥4*400G光口网卡,高密度服务器需配备≥1*双口200G卡 [6][8] 性能与兼容性测试 - 要求服务器支持CUDA生态,需现场演示通用AI相关主流Cuda Samples算子的兼容能力 [8][9] - 高密度服务器需在BF16精度下运行DeepSeek-V3 671B或DeepSeek-R1 671B模型推理服务,在256/256输入输出场景下TPOT≤50ms时,承载≥32并发,单机生成吞吐≥600 Tokens/秒 [8] - 同时要求运行QWEN3-235B-INT8模型,在256/256输入输出场景下TPOT≤100ms时,承载≥512并发,单机生成吞吐≥4700 Tokens/秒 [9] 采购趋势变化 - 趋势一:从“指标比拼”转向“模型实测”,高校直接将DeepSeek、Qwen等主流大模型作为测试标准,要求算力从理论性能落地为实用价值 [10] - 趋势二:从“N卡封闭生态”转向“国产兼容生态”,标书明确国产化导向,同时要求兼容现有成熟软件生态,降低科研机构迁移成本 [10] - 趋势三:从“硬件采购”转向“算力体系建设”,采购目的是搭建AI算力支撑体系,厂商需提供从硬件部署到模型优化的全链条服务 [11] 国产算力厂商机遇 - GPU领域海光DCU、壁仞BR100、沐曦MX1系列已具备技术积累,部分产品算力指标接近主流N卡 [11] - CPU方面海光3号、飞腾2000+、鲲鹏920等产品凭借稳定性能成为高校服务器常用选择 [11] - 软件生态上海光DCU已实现对PyTorch、TensorFlow等主流框架兼容,壁仞科技通过完善工具链降低CUDA迁移成本 [12]
易观分析:2025年中国AI算力基础设施发展趋势洞察报告
搜狐财经· 2025-08-29 23:44
中国AI算力基础设施现状总览 - 国家顶层布局以“东数西算”工程为核心,在8地建设国家算力枢纽,规划10大数据中心集群,配套多项政策构建“全国一张网”格局 [5] - 截至2024年全国在用算力中心机架规模达830万标准机架,算力总规模超280 EFLOPS(全球第二),其中智能算力90 EFLOPS占比超30%,较2019年增长近13倍(年均增速约90%) [7] - 区域协同形成东部聚焦低时延业务、西部承接后台计算的多层算力网络 [9] 发展环境驱动因素 - 政策层面国家夯实顶层设计,地方明确智算建设目标(如上海2027年智算规模200 EFLOPS),聚焦自主创新与绿色节能 [12] - 技术层面AI芯片性能突破,液冷技术降低PUE(先进智算中心PUE≤1.2),高速互联与软件定义技术实现算力池化调度 [17] - 产业层面生成式AI引爆需求,大模型训练/推理带动算力消耗激增,应用从互联网(占比超50%)向金融、制造、医疗等传统行业渗透 [19] - 商业化层面算力供给转向平台化服务与生态协同,按需租赁等模式降低中小企业门槛 [21] AI算力基础设施发展进程 - 探索期(~2019年)聚焦数据中心与云计算,AI算力服务于基础机器学习 [29] - 市场启动期(2020-2022年)GPT3发布(千亿级参数),疫情加速线上化催生算力需求 [32] - 高速发展期(2023-2028年)2023年为“AI算力增长元年”,生成式AI推动算力需求向超大规模集群跃迁,国产化与绿色化成为主流 [34] - 应用成熟期(2029年~)算力基础设施化,“算力即服务”普及,市场寻求量子计算等创新 [34] 核心驱动因素 - 大模型迭代参数量从十亿级跃升至万亿级,中国大模型数量占全球36%,带动算力指数级需求 [35] - 政策与资本联动“东数西算”撬动超2000亿元投资,国资主导基金聚焦AI芯片与算力服务 [35] - 产业应用规模化推动互联网、金融、制造等行业智能化升级,工业与能源场景化智算需求成为新动能 [36] - 长尾算力释放通过分布式调度技术整合闲置GPU/TPU,提升设备利用率(如高校闲置节点对外服务) [37] - 云化调度技术通过容器化、弹性伸缩与标准化计费实现算力即取即用,扩大用户群体 [38] 2025年关键趋势 - 自主可控算力加速突破,先进地区明确国产化指标(如上海2027年自主可控算力占比超70%),国产AI芯片性能逼近国际水平 [39] - 绿色算力成硬性约束,新建大型数据中心PUE需≤1.3,超大型智算中心以PUE≤1.2为标准,液冷技术节能30%+,新一代国产AI芯片单位算力能耗降低25% [41][42] - 跨区域算力互联深化增加国家级骨干直联点(现有26个),扩展骨干网带宽实现算力自由流动,西部富余绿色算力支援东部优化供需 [44][45] - 智算云平台“双轨并行”,综合型平台提供全链条服务降低AI研发门槛,垂直型平台聚焦特定领域适配场景化需求 [46] - LLM+知识库催生新需求,部署知识增强模型所需智算能力为基础LLM的2~3倍,推动垂直领域智算中心建设 [48] - 算力云化加速普惠,2024年智能算力服务市场增速80%,云厂商推出GPU租赁等产品,整合高校闲置节点提升全社会算力利用率 [49][50] 利益相关方建议 - 政府层面加强区域算力网络规划,推进全国统一调度平台建设,对绿色算力与自主技术研发给予资金/税收优惠,开放公共数据释放需求 [51] - 企业层面供给方打造高品质算力云平台开发行业定制化方案,需求方将算力纳入战略规划优先通过云租赁替代自建 [52] - 园区与枢纽层面打造智算产业集群配套绿色能源与高速网络,创新运营模式避免资源闲置 [53] - 生态层面联合芯片、服务器、云平台企业攻关关键技术,推进高校-企业合作培养专业人才,组建产业联盟制定算力标准 [54]