InfiniBand网络
搜索文档
云巨头,为何倒向英伟达?
半导体行业观察· 2026-02-19 10:46
Meta与英伟达的AI算力合作 - 公司近期与英伟达达成大规模AI系统交易,这是双方已知的第三起巨额合作,交易规模远超上一次,对英伟达而言价值至少数百亿美元,原始设计制造商还能获得额外收益[2] - 尽管公司一直致力于自研AI芯片(如MTIA项目)并收购RISC-V厂商Rivos,但仍向英伟达投入巨额资金,采购整系统、GPU、NVSwitch互联芯片并扩展InfiniBand网络[3] - 此次合作涉及采购数百万片英伟达Blackwell与Rubin GPU,部分部署在自有数据中心,另一部分(未披露比例)将从英伟达的云合作伙伴处租赁算力[7] - 初期部署将以GB300系统为主,优先面向推理任务,可能附带少量训练[8] - 合作还包含英伟达所称的“首个大规模纯Grace部署”,推测指的是Grace-Grace超级芯片,双方正在研究如何部署纯Vera (Grace) 算力,并有望在2027年大规模落地[8][9] 公司AI算力战略的演变与选择 - 当AI算力需求足够紧迫时,公司愿意放弃自家开放计算项目(OCP)的设计方案,转而采用英伟达的方案,前两起案例及本次新案例均体现了这一点[2] - 公司最初并不想大量采购英伟达GPU,但因英特尔Ponte Vecchio GPU延迟、AMD MI250X供货不足,最终选择英伟达A100 GPU搭建其研究超级计算机(RSC)[4] - 该RSC系统为2000节点,搭载4000颗AMD CPU与16000颗英伟达A100 GPU加速器,合同于2022年1月签订并当年部署[5] - 2022年3月,公司计划投资A100与H100加速器,打造总算力超过50万片H100等效算力的集群舰队,包括两套各搭载24576颗GPU的基于Grand Teton平台的集群[5] - 为紧急补齐AI算力缺口,公司于2022年5月与微软达成协议,在Azure云上采购基于NDm A100 v4实例的虚拟超算资源[5] - 公司近期试图降低对英伟达依赖,推出自研MTIA v2推理加速器,并与AMD合作设计“Helios”机架方案,其密度为英伟达Oberon机架的一半[6] - 本次合作公告中未提及InfiniBand,表明公司已做出长期选择[8] 合作规模与财务影响估算 - 假设合同为逐年放量,总规模达到200万到300万颗GPU[11] - 若全部采用GB300算力集群,单套GB300 NVL72机柜成本超过400万美元,采购200万到300万颗GPU的总价值大约在1100亿到1670亿美元之间[11] - 公司希望尽可能少租算力,因为四年周期内,租赁GPU成本是直接购买的4~6倍,且无法利用其重金建设的自有数据中心[11] - 租赁算力属于运营支出,不计入资本支出预算,公司2026年的资本支出预算预计为1250亿美元[12] 行业背景与公司定位 - 在超大规模云厂商与大模型厂商中,公司定位独特:不仅为搜索加入AI能力、打造通用大模型,还高举开源大旗,并运营庞大的高性能集群作为推荐引擎[3] - 公司推荐引擎系统需要CPU与加速器紧密耦合,英伟达的Grace-Hopper超级芯片正是瞄准这类场景设计,且公司拥有大量此类设备[3] - 所有超大规模云厂商与云服务商都希望拥有自研CPU与XPU,包括公司在内,有传闻称公司还在与谷歌洽谈租用TPU算力,并最终希望在自有系统中用上自研TPU[12]
瞄准英伟达,国产算力产业走向“闭环”
36氪· 2026-01-09 20:39
文章核心观点 国产算力产业在资本市场表现活跃,多家核心公司成功上市或推进IPO,标志着产业进入快速发展与资本化新阶段[1] 同时,行业竞争焦点已从硬件参数比拼转向大规模集群的稳定性、软件生态的易用性及商业落地的性价比[3] 通过硬件互连技术的突破、存储芯片的自主化、计算架构的开放解耦以及软件生态的积极构建,国产算力产业已初步形成从底层硬件到上层应用的生态闭环,具备了应对外部挑战和把握市场机会的能力[17] 资本市场动态与公司进展 - **天数智芯**于2026年1月8日在港股上市,公开发售获超400倍认购,显示资本市场热情高涨[1] - **摩尔线程**于2025年12月5日登陆科创板,上市首日股价一度上涨468.78%,总市值突破3055亿元[1] - **沐曦股份**于2025年12月17日登陆科创板,上市首日涨幅达692.95%,市值站上3300亿元[1] - **长鑫科技**于2025年12月30日递交科创板招股书,披露2025年前三季度营收达320.84亿元,2022至2024年主营业务收入复合增长率超70%[1][6] - **长存集团**于2025年9月25日完成股份制改革,估值达1600亿元,刷新半导体独角兽纪录[1] 硬件竞争焦点:万卡集群与互连技术 - 行业竞争新标尺转向“万卡集群”的稳定性、软件生态易用性及商业落地性价比[3] - **中科曙光**发布scaleX万卡超集群,由16个scaleX640超节点互连,实际部署10240块AI加速卡[3] - 万卡集群面临指数级增长的故障概率挑战,系统可靠性面临严峻考验[3] - 集群核心突破在于采用国产首款400G原生RDMA网络,以解决高速数据传输瓶颈,其规格指标和实测稳定性已可对标英伟达当前量产产品[4][5] - 未来技术挑战在于物理极限,铜缆传输距离随速率提升急剧缩短,行业需向硅光技术发展以突破极限[5] 存储芯片自主化进展 - **长鑫科技**作为中国最大DRAM设计制造一体化企业,产品线覆盖DDR4到DDR5、LPDDR5X,其首款国产DDR5产品速率达8000Mbps[6] - **长存集团**在NAND Flash领域凭借Xtacking架构实现技术突围[7] - DRAM及衍生的HBM是决定GPU性能上限的核心要素,NAND Flash则是底层存储基础[6][7] - 2025年下半年以来,全球存储颗粒(DRAM/NAND)供应压力巨大,国产化尚无法完全解决全球性供需失衡,导致云厂商采购策略前置[13] 计算架构开放与生态协作 - 行业共识从“全产业链通吃”转向“分层解耦、各司其职”[9] - **海光信息**开放其HSL高速互连总线协议,实现了海光CPU与各家GPU的异构互联,拉通了CPU与GPU[8] - **光合组织**秘书长指出,大规模算力系统已非单一品牌独角戏,协议的打通是关键[7] - 这种技术解耦与开放架构,旨在构建更开放的生态,避免厂商各自为战导致的生态割裂与用户适配成本高企[11] 软件生态构建与迁移策略 - 在英伟达CUDA生态主导下,开发者切换至国产平台面临巨大代码重构与学习成本[10] - **摩尔线程**策略是从个人开发者抓起,发布“MTT AIBOOK”AI算力本实现开箱即用,并推出代码生成大模型MUSACode,声称CUDA到MUSA代码自动化迁移可编译率达93%[10] - 在企业级市场,云服务商承担“屏蔽差异”职责[11] - **优刻得**作为云服务商,向下适配3到5家主流的国产芯片,通过虚拟化和统一调度屏蔽底层硬件割裂,统一管理异构算力[11][12] - **紫光计算机**看到本地化价值,推出带前置可插拔硬盘仓的AI工作站,以应对网络延迟、隐私风险及海量数据交换效率问题[12] 应用落地、客户选择与市场风向 - **中国科学院高能物理研究所**已开始采用国产算力设施进行AI训练和科学计算,评价其性能“完全够用”,并与芯片厂商进行联合调试优化[14] - 国内互联网大厂态度变化,从直接采购国际主流芯片转向希望拥有更多话语权和接受更开放的架构[14] - **海光信息**推出定制化产品,允许大厂将特殊需求写入芯片,以建立深层绑定[14] - 行业认为2026年是Agent(智能体)元年,其对算力的消耗是指数级增长,算力依然短缺,问题在于供需错配而非总量过剩[15] - **DeepSeek**等国产大模型的爆发反向定义硬件标准,如采用FP8量化策略,促使芯片厂商优化底层计算库以支持特定计算格式[15][16] 产业链闭环与应对挑战的能力 - 面对美国可能放宽英伟达H200芯片出口限制的传闻,行业强调国内政企客户对供应链安全有刚性考量[17] - 国产算力产业链已形成闭环:从**长鑫科技**、**长存集团**的存储底座,到**中科曙光**、**海光信息**的计算与网络集群,再到**摩尔线程**、**天数智芯**适配的终端应用[17] - 过去几年,中国算力产业已初步形成紧密咬合的生态闭环,具备了进一步直面挑战的能力[17]