Workflow
傅里叶的猫
icon
搜索文档
Memory的超级大周期
傅里叶的猫· 2025-09-30 20:19
市场现状与价格趋势 - 存储芯片市场呈现上行趋势,野村证券称之为“前所未有的超级周期”,由DRAM、HBM和NAND三重周期驱动 [2] - 上游资源涨价已传导至成品端,eMMC、UFS普遍大幅调涨,LPDDR4X因原厂暂停报价且计划大幅涨价而看涨情绪升温 [8] - 三星和SK海力士自今年4月起逐步减少DDR4产能,转向更高利润的DDR5、LPDDR5和HBM,直接导致DDR4系列价格暴涨 [8] - 美光将2025年服务器总出货量增长预期上调至约10%,高于此前中等个位数预期,受AI agents增长及传统服务器工作负载增加推动 [9] - TrendForce指出,受HDD供给短缺影响,云端服务供应商将存储需求转向QLC Enterprise SSD,预计Q4 NAND Flash合约价平均上涨5-10% [10] 涨价核心驱动因素 - AI与数据中心需求爆发:2026年传统服务器资本支出预计增长20-30%,带动DDR4/DDR5内存需求增长约50%,企业级SSD需求近乎翻倍 [14] - NAND市场因HDD供应短缺和AI存储需求激增,预计2026年位元出货量同比增长超50% [14] - 价格与利润率跃升:DRAM营业利润率预计从当前的40-50%升至2026年的近70%,NAND利润率将从盈亏平衡点跃升至30-40% [14] - HBM混合均价预计2025-2026年保持15%以上年增长,将贡献SK海力士75%的营业利润 [14] 近期需求爆发的根本原因 - AI业务从“积累期”迈入“高渗透期”,业务渗透率从20%-30%提升至30%-40%,用户规模大幅扩张 [18][19] - 以豆包为例,DAU从年初的1000万-2000万增至近4000万,传统互联网产品加速AI重构,用户与AI交互频次显著增加 [19] - AI技术逻辑从“快思考”升级为“慢思考”,引入思维链和外部agent协同,单次报告生成的token消耗从此前的约3000token增至3万以上,增长7-10倍 [18][20] - 海外头部模型全面转向多模态,处理图片、视频等非文本数据产生更多存储需求 [20] - 互联网大厂启动AI基础设施重构,构建“热-温-冷”分层存储体系,集中采购DRAM和SSD,直接转化为大量订单 [21] 行业前景与周期判断 - 由AI需求驱动的“超级周期”预计至少持续到2027年,但可能在2028年出现下行转折 [23] - 美光预计2026年行业DRAM供应将趋于紧张,全球存储芯片尤其HBM供需不平衡将加剧,2026年HBM产能已基本锁定 [9] 英伟达相关动态与影响 - SK海力士、三星与英伟达就HBM3E 12Hi和HBM4的定价谈判尚未最终敲定,谈判局势正向DRAM厂商倾斜 [25] - 英伟达要求HBM4速度需突破10Gbps,三星、美光、SK海力士均具备供应能力,对整体HBM市场影响有限 [26] - 英伟达CPX方案将推动Rubin平台对GDDR7的大规模采用,为GDDR7市场带来显著增量,但可能短期内对HBM4需求形成压制 [27] - 英伟达研发HBF方案,利用大容量堆叠NAND替代HBM来提升系统成本效益,优化存储资源配置 [28]
万亿的OpenAI,涨疯的Memory和新出炉的DeepSeek
傅里叶的猫· 2025-09-29 23:11
万亿的OpenAI - 英伟达与OpenAI的合作涉及四个领域:持续推进微软Azure数据中心建设、与甲骨文及软银合作搭建OCI算力设施、支持CoreWeave的算力需求、以及助力OpenAI自建AI基础设施[2] - OpenAI预测到2029年公司营收将达到1250亿美元,并计划斥资1万亿美元在全球建设数据中心以满足20GW以上计算能力需求,每GW成本预计高达500亿美元[3][4] - OpenAI计算能力储备将超过得州数据中心的13倍以上,支持下一代AI所需的能源规模相当于为超过1300万美国家庭供电,相当于17座核电站级别的电力需求[3][4] - 英伟达计划向OpenAI投入高达1000亿美元用于建设由10GW英伟达系统驱动的超级数据中心,该设施相当于400万到500万台英伟达GPU,总成本预计达5000亿至6000亿美元[4][5] - CoreWeave等基础设施提供商与OpenAI签署了价值65亿美元的协议,使其总合作金额达224亿美元,微软也宣布将在英国投资300亿美元增强AI基础设施[4] 涨疯的Memory - 服务器生意因DDR涨价导致预留利润空间被吃掉,需与客户重新谈价,DDR5和NAND Flash价格因AI基础设施建设需求推动而上涨[6][10] - 2025年4月开始三星和SK海力士逐步减少DDR4产能转向DDR5、LPDDR5和HBM,9月闪迪和美光宣布存储产品价格上涨10%-30%[10] - 2025年服务器DRAM ASP预计全年同比增长18%,2026年预计同比增长36%;2025年NAND ASP预计全年同比增长15%,2026年预计同比增长31%[11][13] - 2025年DDR4 64GB RDIMM价格从139美元上涨至251美元,全年涨幅29%;DDR5 64GB RDIMM价格从253美元上涨至278美元,全年涨幅7%[12] - 2026年DDR5 64GB RDIMM价格预计从295美元上涨至360美元,全年涨幅30%,DDR5渗透率预计从90%提升至92%[12] - 随着推理需求增加,Memory需求将持续增长,此轮涨价可能并非短期现象[14] 新出炉的DeepSeek - DeepSeek V3.2-Exp实现对华为、寒武纪芯片的Day 0级别适配,暗示存在深度联合开发基础,夯实了国产化三层架构根基[18] - 从V3.1到V3.2的迭代周期仅耗时1个月,展现出高效开发节奏,按此进度V4有望在不久后推出[19] - 团队开源V3.2版本的CUDA算子,同时引入TileLang新编程范式,采用"成熟方案+新兴探索"组合保障开发者体验[21] - V3.2通过引入稀疏注意力机制实现算力利用效率优化,官方同步宣布API服务价格下调50%,延续"高性能+低成本"开发理念[22] - 在各项评估指标上V3.2-Exp表现大多与前版相当,Codeforces测试分数提高75分,BrowseComp-zh提升2.9分,但HMMT测试下降2.5分[29] - DeepSeek为V3.2-Exp提供多种内核实现:TileLang内核适合研究用途,DeepGEMM针对生产环境优化,FlashMLA专注于稀疏注意力性能[31][32] - V3.2-Exp代表一种中间实验步骤,目前尚未准备好用于所有部署,但在结构化长文件推理如代码任务上显示出有前景的方向[34]
超节点技术与市场趋势解析
傅里叶的猫· 2025-09-29 00:00
超节点领域的合作与方案 - 下游CSP大厂主要找服务器供应商定制整机柜产品 服务器厂商和国产GPU厂商也在规划自己的超节点机柜 但以NV方案为主[4] - 国内主流超节点方案包括腾讯ETH-X、NV NVL72或其变形、华为昇腾CM384、阿里磐久 这些已在市场推广或有客户购买 字节规划大模型以太网创新方案 以博通Tomahawk为主 还未推广 海光方案多为传统刀片式服务器 无类似创新方案[4] - ETH-X是腾讯开放生态 与博通、安费诺等电缆和PCIe厂商合作 主要推广方包括壁仞、壁仞华创和腾讯下游云公司 在甘肃庆阳数据中心有合作 使用博通Tomahawk作为交换机 PCIe switch处理GPU流量 安费诺处理静态通信 中航光电设计液冷散热[5] - 字节方案由华擎研发 与腾讯类似但GPU卡不同:腾讯用燧原S60、L600及未来卡 字节用寒武纪和自研ASIC卡 两者适配天数、沐曦、摩尔线程等国产GPU 但主GPU各有侧重[5] - 互联网大厂自研方案与华为384、海光96卡、摩尔跨柜方案本质不同在于应用偏向:CM384偏训练和大模型计算 腾讯ETH-X偏推理 字节大模型整机柜偏训练和高性能计算[5] - 服务器厂商需具备交换机和服务器开发能力 与博通、NV、国产GPU厂商有关系 在AI服务器8卡、16卡、32卡方案有市场占有度 才能进入CSP选型 目前入选供应商有华勤、华三、超聚变 浪潮和锐捷作为备用 海光独立生态[5] 市场占有率与供应商格局 - 超节点方案还未大规模占有市场 在传统AI服务器(8卡、16卡)中 浪潮占有率最高 其次H3C 再是宁畅、华勤 国产开放生态中 昇腾达80%-90%[6] - 从9月16日起 CSP大厂包括BAT被强制不能采购NV的合规卡 明年或后年国产卡需达30%-40% 目前比例约9:1和8:2 互联网厂商每年被约谈 但海外卡采购仍放大[6] - 字节今年海外:国内=8:2 明年升至6:4 阿里找华勤等在海外代做NV方案 已招标提供海外数据中心 阿里、字节、腾讯通过下游云公司代建计算中心 非直接持有 代建后签3-5年租赁协议[6] - 中兴通讯2025年高层调整 新郭总目标在阿里、字节占份额 目前在阿里AI服务器从末尾升至20%-25% 联想因盈利考核 在CSP份额低 字节10% 阿里腾讯个位数 2024-2025价格战参与低[6] - 阿里AI服务器份额:浪潮33%-35% 华勤23% 宁畅和华三各18% 通用服务器:浪潮30% 中兴27% 华勤18% 华三15%[7] - 腾讯AI服务器:华勤40% 浪潮23% 华三18% 通用:浪潮35% 超聚变30% 宁畅15%[7] - 字节AI和通用:浪潮和宁畅各35% 宁畅AI30%、通用28% H3C AI15%、通用18% 联想10% 英业达和富士康各5%[7] 厂商竞争与二线格局 - 浪潮在成本和报价竞争激进时总拿第一份额 最具竞争力 第二第三竞争不明朗 阿里中是中兴、华三、华勤 华勤成本弱但高层决策以份额为主 盈利次之 数据业务盈利率降[8] - 腾讯AI服务器研发标多给华勤 技术30%、报价50%、质量20% 故份额高 通用中超聚变主攻腾讯 报价商务积极 华勤份额基本0 字节浪潮和宁畅默契 第一第二[8][9] - 大厂浪潮优势:在字节2019自研ODM起步时支持最大 技术供应服务商务占优 在阿里腾讯靠报价[9] - 二线互联网厂商需求小 无规则 主流供应商不参与 美团只华三和超聚变合作 京东直接采买超聚变和浪潮 只有浪潮和超聚变等成本强厂商占比例 美团基本浪潮和超聚变份额[9] - 二线GPU厂商找服务器厂商共研超节点 因无华为海光生态优势、销售人员少、对玩法不熟 服务器厂商有渠道 二线GPU可借其客户生态 国际厂商有供应品牌优势 客户认可规范GPU[9] - 华为UBB模式互联和海光HL总线协议只限各自生态 非开放 目前CPU无强制 大家是否用华为或海光CPU不确定[9] - 国产服务器发展慢 AI生态迭代国外领国内一年 互联网领行业一年 国外800G刚批量 国内2026Q4兴起 行业2027年[9] 采购与自研芯片 - 腾讯阿里能买时偏NV卡 阿里平头哥:NV=3:7 字节NV:国产=7:3(前8:2) NV限购时 以租代购和带采解决开支需求 资本开支用不完时 有趋势挪到国产[10] - 阿里平头哥3.0对标A100 80% 字节ASIC推理对标H100 65%-70% H100更训 百度昆仑芯未详 平头哥4月前代工台积电 4-6中断、7恢复8停 后中芯国际 海外三星 合作伙伴浪潮和华擎[10] - 超节点趋势:国外业务模型数据千万级 单节点不满足、时延高 故扩8卡到64卡增算力减时延 国内未铺开 未来推理若数据增长单节点不足 或有大规模需求[10] - 国产GPU合作:浪潮和中兴主 沐曦华三华勤 燧原开放 超聚变负责 摩尔线程H3C浪潮多[10] 经济与技术方面 - 以华勤为例 AI服务器净利率1-2点 大厂毛利率7-8点 通用毛利率1-2% 无净利率 通用规模小 牺牲成本占市场 成本强厂商净利率最好5点[11] - 未来AI超节点后 净毛利升 从自控物料入手:单机100万 自控10万 低毛净 整柜两三百万 自控压上游价 增利润 加软件方案 提升附加值[11] - 软件方案:1000万超节点 软件增三四十万利润 若供应商能力足、CSP评估费用低于自研 由供应商做 主要担运维管理[11] - 超节点CPU比例升:至少16节点 每节点2CPU 共32 以384方案:2CPU+4GPU 与72方案(18节点36CPU)区别大 铜缆比例增 核心厂商安费诺和立讯[11]
聊一聊AI ASIC芯片
傅里叶的猫· 2025-09-29 00:00
文章核心观点 - AI ASIC作为专用芯片,在AI推理时代凭借高能效、低成本和软硬件协同优势,成为大厂应对算力需求爆发和降低TCO的关键路径 [2][4][5][6] - AI推理需求随模型能力提升和Token消耗快速增长而爆发,推动AI ASIC市场进入高速增长期,AMD预计2028年全球市场规模达1250亿美元 [9][10][11] - 海外云服务厂商自研AI ASIC已形成成熟模式,以谷歌TPU为代表,通过与博通等设计服务商合作实现快速迭代和商业化 [16][17][20][21] - 国内AI云市场集中度提升推动头部云厂商自研AI ASIC需求,百度、阿里等公司产品已进入规模化应用阶段,国产ASIC产业链迎来战略机遇 [24][25][26][27][28] ASIC与GPU技术对比 - ASIC与GPU架构相似但定位不同:ASIC为特定场景定制,采用脉动阵列等架构优化矩阵运算,实现高能效和低功耗;GPU需兼顾图形渲染等通用场景,基于冯诺依曼架构存在存储瓶颈 [4] - 谷歌TPU v5能效比为英伟达H200的1.46倍,在BERT推理中每瓦性能提升3.2倍;亚马逊Trainium2训练成本降40%,推理降55%,10万卡集群可节省12亿美元初始投资 [4] - ASIC优势源于3D堆叠优化算力密度、DVFS降低闲置功耗、HBM3e内存突破带宽瓶颈(达1.2TB/s) [4] 大厂自研ASIC动因 - 核心驱动力为降低TCO:自研可规避外采芯片的厂商利润,英伟达FY2025毛利率75.5%、净利率57%,数据中心芯片利润约582亿美元 [6][8] - 应对内部AI需求爆发,实现软硬件协同优化,如谷歌TPU整合TensorFlow实现极致性能 [5] - 减少外部依赖,保障供应链安全 [5] - 自研投入包括设计团队收购(如亚马逊3.5亿美元收购Annapurna Labs)、外部服务商NRE费用及IP采购,规模起量后单颗芯片研发成本显著摊薄,谷歌2023年TPU超200万颗,年研发20亿美元,单颗摊薄1000美元 [7][8] AI推理需求增长 - 推理收入模型为(价格/token)×(吞吐量, tokens/秒),硬件性能直接决定token生成速度,低成本高效的AI ASIC在推理场景优势显著 [9] - ChatGPT C端周活跃用户截至2025年7月达7亿,占全球成年人10%,OpenRouter统计显示API Token日消耗量从2024年9月不足0.5T升至2025年8月近5T,一年内翻近10倍 [10] - OpenAI于2025年9月成为博通定制AI ASIC第四位客户,订单近百亿美元 [10] AI ASIC产业链环节 - 产业链分为前端(需求定义、架构设计)和后端(设计实现),云厂商多与设计服务商合作,定制芯片包括计算、存储、网络IO和封装四部分IP [13] - 国际设计服务商以博通、Marvell为主导,提供完整IP解决方案;国内主要参与者包括芯原股份、翱捷科技、灿芯股份 [14][16][28] - 关键IP包括处理器IP(如CPU/GPU)、接口IP(如SerDes)、内存IP(如HBM),SerDes技术直接影响Die-to-Die及芯片间通信效率,是AI算力关键瓶颈 [14][33] 海外云厂商自研案例 - 谷歌TPU迭代至第七代Ironwood,支持主动检索和协作推理,提供4614 TFLOPS FP8算力、192GB HBM3e内存、7.3TB/s带宽,SuperPod支持9216颗芯片互联 [18][20] - 博通作为核心服务商,2024年AI ASIC收入122亿美元,2025前三季137亿美元,其优势包括完整IP体系(21000专利)、多代TPU设计经验、3.5D SOIC封装技术、高速互连与CPO技术 [21][23] - 谷歌TPU成功源于架构创新(脉动阵列)、系统级思维(TPU Pod集群)、与博通合作降低风险和成本 [20] 国内ASIC发展现状 - 2025年上半年中国企业级大模型日均总Token消耗达10.2万亿,环比增长363%;中国AI云市场2025年规模预计518亿元,2025-2030年CAGR 26.8% [24] - 市场格局集中,CR5超75%,头部云厂商阿里云(占比35.8%)、火山引擎(14.8%)、华为云(13.1%)等均布局自研AI ASIC [24] - 百度昆仑芯第三代P800已部署万卡集群,中标中国移动10亿元集采大单;阿里平头哥PPU关键指标超英伟达A800,签获16384张卡订单;字节自研训练+推理芯片预计2026年前量产 [25][26] 国内ASIC服务商分析 - 芯原股份为国内第一设计IP厂商,拥有6类处理器IP及1600+数模混合IP,5nm系统级芯片一次成功,未来增长点来自AI ASIC、AIGC芯片等 [29][31] - 翱捷科技第一大股东为阿里巴巴,2025上半年芯片定制及IP授权服务收入约1.44亿元,通过创新架构为系统厂商提供合规ASIC [29][32] - 灿芯股份第一大股东为中芯国际,主打28nm及以上成熟制程,优化高速接口IP以适配AI推理场景 [29][32]
阿里的磐久超节点和供应链
傅里叶的猫· 2025-09-27 18:14
阿里磐久超节点技术架构 - 采用双64 GPU超节点设计 每个计算节点配置4颗自研GPU 上下各16个计算节点 总计128个GPU [4][6] - 64个GPU为一组scale up单元 华为CM384包含384颗昇腾910C 英伟达NVL72包含72颗GPU [6][7] 互联技术对比 - 英伟达NVL72采用Cable Tray互联方式 Compute tray与Switch Tray通过线缆连接 使用NVLink私有协议 [8] - 华为CM384通过多机柜组成超节点 昇腾服务器与交换机采用线缆互联 [10] - 阿里采用无背板正交互联技术 计算节点横向放置 Switch节点纵向放置 直接插接无PCB中介 降低信号损耗 [12][14] 电光互联方案 - 英伟达NVL72的scale up使用铜连接 避免光互联带来的成本与功耗上升 [15] - 华为CM384采用全光互联 NPU与光模块比例达1:14 整系统需6912个400G光模块 导致高功耗与高成本 [15] - 阿里超节点在64 GPU组内scale up采用电互联(PCB/铜缆) ALink Switch间使用光互联 具体光模块数量未披露 [18][19] 系统性能参数 - 华为CM384系统算力达300 PFLOPS(BF16密集) 超越英伟达NVL72的180 PFLOPS 但系统功耗达559,378W 是英伟达145,000W的3.9倍 [21] - 华为HBM带宽1,229 TB/s 是英伟达576 TB/s的2.1倍 但能效比劣于英伟达(1.87 W/TFLOP vs 0.81 W/TFLOP) [21] - 阿里超节点功耗超300kW 介于英伟达与华为之间 未公布算力参数 [22] 生态与兼容性 - 阿里超节点宣称支持多厂商GPU/ASIC 但需兼容ALink私有协议 实际推广存在难度 [23] - 阿里自研GPU可兼容CUDA生态 构成当前阶段竞争优势 [24] 硬件互联架构 - 英伟达GB200与Grace CPU通过NVLink-C2C直连 [26] - 华为GPU/CPU均连接至UB Switch [25] - 阿里采用独立计算节点设计 GPU与CPU通过PCIe互联 连接线隐藏在机箱背部 [28][30] 服务器供应链分析 AI服务器集成 - 浪潮占据33%-35%市场份额 华勤占23% 某企业并列第三占18% [34] - 通用服务器领域浪潮占30% 中兴通讯占27% 华勤占18% 新华三占15% [34] - 中兴通讯目标夺取浪潮市场份额第一地位 [34] 液冷解决方案 - 高澜占30%份额 英维克占30%-40% 申菱环境占20%-30% [35] - 科华数据新进入液冷白名单 预计2026年业务扩张将稀释头部企业份额 [35] 光模块供应 - 华工科技为阿里云核心供应商 份额超25%-30% [35] - 光迅科技在400G光模块市占率30%-40% 800G模块已批量供货 采用JDM合作模式 [35] - 中际旭创与航锦科技等企业分食剩余份额 [35] PCB板技术升级 - 超节点主板层数达24-30层 超低损耗材料占比超60% 单卡价值量从900元升至1900元 [36] - 沪电股份为主力供应商 AI服务器PCB收入占比达35% 高端板毛利率超35% [36] - 沪电股份与深南电路合计占50%-60%份额 其余由国内主流PCB厂商分担 [36] 服务器电源供应 - 中恒电气与欧陆通为核心供应商 覆盖主要供应量 提供浸没式液冷集中供电电源 [37] - 科华数据新进入阿里UPS白名单 有望成为第三大供应商 此前已在腾讯占据较大份额 [37]
微软的新液冷技术、阿里加大资本开支
傅里叶的猫· 2025-09-24 20:37
微软微流控液冷技术 - 微软开发微流控技术的新型液冷方案 从晶圆层面而非芯片封装层面集成液冷 技术激进但量产可行性未知 [1][3] - 英伟达研发微通道盖板技术 将冷板与芯片封装集成 技术仍处于研发阶段 [3] - 英伟达Rubin可能推出液冷新方案 具体细节未明确 [4] 阿里云资本开支与AI算力投入 - 阿里在云栖大会宣布追加资本开支 在原有3800亿基础上进一步增加投入 [7][9] - 新增资本开支将重点投向AI芯片领域 持续看好国产AI算力发展 [10] - 阿里与海光信息成立合资公司 共同建设11万颗算力芯片的大型集群 海光持股50% 合作从业务协同升级为资本绑定 [11] AI行业发展趋势与投资规模 - AI聊天机器人成为人类发展史上渗透率增速最快的功能之一 [12] - AI模型Token消耗量每2至3个月翻倍 需求快速扩张 [12] - 全球AI领域过去一年投资总额达4000亿美元 未来五年累计投入预计突破4万亿美元 [12] - 通用人工智能目标是将人类从80%重复性工作中解放 超级人工智能可催生超级科学家/工程师推动科技创新 [12] 海光芯片技术进展与应用 - 阿里云2025年Q2已采购海光深算三号DCU支撑通义千问API服务 原计划采购小几万张GPU卡 需求可能进一步增加 [13] - 海光GPU应用从私有云扩展至公有云 覆盖线上大模型一体机等场景 [13] - 海光BW 1000 GPU在FP64精度性能达30 TFLOPS 为国产芯片唯一达到该精度产品 对标英伟达H100 FP32性能60 TFLOPS FP16性能480 TOPS 配备64GB HBM2E显存 适用于超算、汽车碰撞模拟、材料研发等高精度计算场景 售价可能高于10万元 [13] - 海光发布HSL技术 通过异构卡调度提升生态友好度 重点优化CPU高速内存技术 对标英伟达Arm架构Grace CPU与GPU组合 [14] - HSL技术采用开源互联协议 实现跨厂商GPU兼容 解决内存一致性问题并提升CPU-GPU连接效率 推动生态开放 关键落地依赖互联网头部客户采纳 [15] 行业资源与生态 - 英伟达潜在供应商名单在知识星球发布 包含全面数据 [16] - 知识星球每日更新行业信息、投行数据及分析报告 并整理至网盘持续同步 [17] - 提供国产GPU卡资源 性价比高 需通过微信联系并备注姓名与行业 [19]
分析一下英伟达这1000亿的影响
傅里叶的猫· 2025-09-23 10:41
英伟达与OpenAI投资协议 - 英伟达计划通过部署10吉瓦AI数据中心方式向OpenAI投资1000亿美元 首阶段将于2026年下半年上线并使用Vera Rubin平台[1][3] - 投资形式为硬件基础设施部署而非直接现金注入 形成资金闭环循环机制[3][4] 英伟达战略动机 - 锁定OpenAI作为AI领军企业的芯片需求 防止其转向Google TPU或AMD MI系列等竞争对手产品[4] - 从芯片供应商转型为AI基础设施战略投资者 可能通过股权或回报机制分享OpenAI收益[8] - 构建"资金循环"模式:英伟达提供资金 OpenAI用于采购英伟达硬件 确保供应链主导权[4] AI芯片行业竞争格局 - 国际厂商芯片迭代速度激进 年均推出1-2款新产品 英伟达Blackwell B100/B200配置HBM3E 192-288GB内存[9][11] - AMD MI300X配置HBM3 192GB内存 MI325X升级至HBM3E 256GB 2025年MI350/355X将达HBM3E 288GB[11] - Google TPU v5p配置HBM2E 95GB内存 Ironwood(TPU v7)升级至HBM3E 192GB[11] - Amazon Trainium2配置HBM3 96GB内存 Trainium2 Ultra达HBM3E 96GB[11] - Meta MTIA 2配置LPDDR5 128GB内存 MTIA 3升级至HBM3E 216GB[11] 中国AI资本开支趋势 - 中国主要互联网与电信企业资本开支总额从2022年1130亿美元增长至2027E2390亿美元[14] - 字节跳动资本开支从2022年80亿美元增至2027E330亿美元 阿里巴巴从60亿美元增至180亿美元[14] - 腾讯从50亿美元增至140亿美元 华为从50亿美元增至120亿美元[14] - 预测阿里巴巴可能将3年3800亿投资计划扩展至5年1万亿(年均2000亿)字节跳动可能达年2500亿规模[14]
存储市场上行趋势
傅里叶的猫· 2025-09-22 23:35
存储器价格预期 - LPDDR5合约价涨幅上修至6-8% LPDDR4暴涨40-50% NAND Flash合约价涨幅预期升至15% 2026年第一季度传统淡季依然看涨 [4] - NAND和DDR均处于上行周期中 [5] - NAND价格在特定季度出现显著波动 例如某季度环比增长19% 另一季度增长13% 还有季度增长6% [6] 供给侧变化 - 海外原厂战略转向明确 持续退出部分产能 DDR4/LPDDR4产能因资源倾斜至DDR5/HBM等高端产品而缩减 [8] - DDR5/HBM产能利用率持续打满 新增产能在2025年底前有限 NAND产能利用率低于80% 无大规模扩产计划 供给弹性严重不足 [8] 需求端驱动因素 - 存储器下游需求中手机 PC 服务器占比超80% 服务器占比约30% [9] - AI应用从训练侧向推理侧/边缘侧扩散 驱动移动设备LPDDR5x 通用服务器DDR5 HBM及企业级SSD需求爆发式增长 [9] - 北美云厂商加大AI数据中心投入 存储池扩容与升级HDD→SSD 为企业级SSD及高性能DRAM带来持续需求增量 [10] 与2016-2018行情对比 - 相同点包括产品价格短期内飙升 原厂减产 暂停报价等操控手段 涨价节奏由三星 海力士 美光等巨头主导 [11] - 不同点在于需求驱动内核 本轮是AI应用从训练向推理与边缘侧延伸催生的结构性爆发性需求 不仅量增更追求存储性能带宽速度 直接拉动HBM 高性能DDR5 PCIe5.0/6.0 SSD等高端品类 AI服务器单机存储搭载量是传统服务器的3-5倍 [13] - 供给调整逻辑不同 本轮巨头战略性地将产能永久性转向技术壁垒和利润更高的HBM DDR5等产品 主动收缩并逐步淘汰DDR4/LPDDR4等旧制程产能 导致传统领域出现永久性供给缺口 [14] - 行情持续性根基不同 本轮由AI技术革命驱动 是十年维度的产业趋势 数据中心为应对HDD短缺交期拉长至52周以上而加速向SSD迁移 进一步巩固需求韧性 [15] Bernstein观点 - NAND短期涨价驱动因素是AI推理需求提升叠加HDD短缺2022年起HDD供应商资本支出保守交货周期长达1年 CSP转向企业级SSD替代带动NAND需求激增 供应商惜售买家提前囤货价格上涨从eSSD蔓延至消费级市场供应商报价涨幅10%-30%实际成交2025Q3-Q4环比涨中至高个位数 [18] - 2025年ASP预计小幅下降10% 2026年增长13% 但2026年四季度起价格将因新供应入市回落 需求若持续终将扩产设备订购到产能释放需6-9个月预计2025年底-2026年初启动资本支出2026年下半年新供应落地 [18] - 持续看好HBM和DRAM市场 2026年HBM位出货量同比增长53% 成本下降超预期高增长可消化竞争压力供应商均能实现增长 [19] - NVIDIA将HBM4速度要求从8Gbps提升至10-11Gbps 三星4nm基片+1cnm DRAM片 SK海力士12nm基片可满足需求美光因采用内部平面DRAM工艺基片难以达标 [19] - 三星施压SK海力士将HBM3E价格降20%但HBM4溢价支撑混合ASP持平 三星2026年HBM份额预计提升SK海力士美光仍能受益于市场扩张 [19]
周末谷歌OCS持续发酵
傅里叶的猫· 2025-09-21 20:05
文章核心观点 - OCS(光交换机)技术目前处于起步阶段,主要由谷歌规模化应用,其核心优势在于高带宽、低时延、低功耗,特别适合AI超节点网络等特定场景[5][10][17] - 谷歌通过全链条垂直整合,将OCS用于互联TPU集群,在AI训练和推理效率上形成了相对于英伟达GPU网络的差异化优势[5][6] - 随着AI超节点规模扩大,OCS市场空间将从当前约6亿美金、1.5万台用量,增长至2030年超过20亿美金、至少5万台,远期若技术突破有望替代部分电交换机市场[11][17][18] - OCS相比CPO(共封装光学)具有更强的兼容性,能直接实现跨厂商GPU互联,更适合国内GPU生态分散的现状[16][17] OCS技术发展阶段与现状 - OCS在数据中心领域处于起步阶段,目前仅谷歌实现规模化采购,其他大厂如微软、英伟达、Meta等处于测试阶段[5][7] - 谷歌自2017年开始探索OCS,2023年进入规模应用,其3D Torus架构用48台128端口OCS互联4096个TPU,TPUv7已支持9216个TPU互联[6][7] - 当前OCS市场应用规模不足1.5万台,市场规模约6亿美金[11] 主要厂商应用场景与规划 - 谷歌将OCS用于Spine交换机层面,替代传统电交换机,发挥其低时延、低功耗优势,规避切换不灵活的短板[10] - 英伟达从Coherent采购硅基液晶OCS方案,用于数据中心应急网络互联,核心诉求是提高故障恢复能力,切换速度秒级即可满足[8] - 微软评估Momentum的MEMS和Coherent的硅基液晶两种方案,探索范围包括AI数据中心和DCI(数据中心互联)网络[9] - 英伟达和微软被认为是最可能跟进规模化采购OCS的厂商,因已找到明确适配场景[8][9] OCS技术路线与优劣比较 - MEMS(微机电系统)方案由Momentum等推动,谷歌目前采用,性能均衡但存在运动部件老化问题,可靠性相对较弱[12] - 硅基液晶方案由Coherent主导,全固态无运动部件,可靠性高寿命长,受英伟达、微软青睐,预计明年出货量超1万台[13] - 压电陶瓷方案由Polatis主导,性能最强、损耗最低、切换速度最快,但成本高昂且难以降低[13] - 新兴技术包括IPhoenix的硅光波导方案,时延毫秒级且成本低,但端口扩展面临技术挑战[14] 产业链与国内厂商参与 - 国内厂商如无锡德克利参与光波导结构开发,并为谷歌下一代OCS光机模组提供定制支持[14] - OCS核心零部件如微透镜、光隔离器等可由国内光器件上市公司供应,具备定制开发能力,能向Momentum、Coherent甚至谷歌供货[15] - MEMS芯片等核心部件国内有厂商具备制造能力,一片成本约3000美金,单台OCS需两片,成本达6000美金[15] 市场前景与增长驱动 - 预计到2030年OCS市场规模将超20亿美金,用量从1.5万台增长至至少5万台[11] - 远期若切换时延从毫秒级突破至微秒/纳秒级,OCS有望替代部分电交换机,占据30%市场份额即30万台级别[11][18] - AI超节点网络是核心增长驱动力,目前AI网络已占OCS应用50%以上,未来三年占比可能超80%[17] - 超节点规模扩大对时延要求苛刻(1微秒以内),时延每增加1微秒GPU利用率下降1%-2%,OCS低时延优势正好解决此痛点[18] OCS与CPO技术对比 - OCS是全光交换机,光信号传输和交换无需光电转换;CPO是光传输加电交换,需进行光电转换[16] - OCS在scale up场景兼容性更强,基于物理层光通道切换,与GPU接口协议无关,能实现跨厂商GPU互联[17] - 国内GPU生态分散,协议不统一,OCS相比CPO是更开放、灵活的选择,无需定制化适配[17]
聊一聊空心光纤
傅里叶的猫· 2025-09-20 19:26
光缆市场概况 - 中国光缆市场总销量达2.7亿芯公里 芯公里为行业单位 指一公里光缆中所有纤芯长度总和 [5] - 需求主体为通信运营商 中国移动占据最大份额 高铁 公路 石油石化 煤矿等基础设施领域及系统集成商也贡献需求 [5] - 市场活跃得益于基础设施持续升级和扩容 "光进铜退"政策推进老旧线路替换 通信网络从24芯升级到432芯需求增加 数据流量快速增长推动新项目上马 [5] - 长飞光纤光缆公司2024年销售额120亿元 90%来自光纤业务 海外市场贡献35%收入 [5] 光纤技术演进 - G652B单模光纤市场占比超90% 价格持续下降至每芯公里20元 [6] - 厂商转向高端产品避免低价竞争 包括低损耗 大有效面积的G654E光纤和空芯光纤 [6] - G654E光纤自2015年推广 全球销量达200万芯公里 价格从最初十几倍降至普及水平 [6] - 空芯光纤代表更前沿技术方向 [6] 空芯光纤技术优势 - 核心中空 内部充满高纯度氩气 光模拟空气传播接近光速 [7] - 相比传统光纤传输损耗降低50% 速度提升50% 非线性问题减少1000倍 色散更低 信号更稳定 [7] - 高带宽 低延迟场景表现出色 支持400G 800G及未来1.6T 3.2T传输需求 [8] - 研发始于2016年英国南安普顿大学 2019年进入试点 2022年微软收购Lumenisity公司用于数据安全场景 [8] - 国内长飞光纤光缆公司全球领先 2024年6月与中国电信合作建成620公里传输线路 与中国移动在深圳到东莞建设800G实验网 [8] - 国内使用量约1000芯公里 市场快速扩展 [8] 应用场景与市场前景 - 适合AI数据中心 金融交易专线等对延迟和带宽要求极高场景 [8] - AI训练超算中心可提升10%至30%训练效率 节省时间和电费 [8] - 数据中心互联中几十公里中距离传输为强项 实验损耗低至0.05dB/km 商用环境0.08dB/km 远低于普通光纤0.14dB/km [8] - 海底光缆为潜力巨大应用场景 因对低延迟 高带宽和抗干扰能力要求高 [8] - 微软预测2025年全球产能约1万芯公里 2030年增至100万芯公里 [9] - 价格从10万元降至1万元时市场规模有望翻10倍达百亿级别 [9] - AI领域渗透率仅千分之一 若提升至1%市场空间极为可观 [9] 成本与技术挑战 - 2025年国内空芯光纤每芯公里价格3万到3.6万元 普通单模光纤仅20元 相差近2000倍 [10] - 30多公里线路使用空芯光纤总造价超600万元 普通光纤仅需十几万元 [10] - 生产工艺复杂 拉丝过程对玻璃管精度要求极高 充氩气时易影响传输效果 [10] - 熔接过程对湿度敏感 专用熔接机价格几十万元 检测断点误差较大 [10] - 行业标准尚未统一 国际电信联盟仅提供实验室规则 产业配套如熔接机 OTDR和收发模块价格居高不下 [10] - 单盘长度仅20-47.5公里 远低于普通光纤100公里 影响施工效率和成本 [10] 产业公司竞争力 - 长飞掌握PCVD VAD MCVD三大预制棒技术 生产灵活性强 良率高 废品率低 [11] - 产品衰减率从0.1dB/km降至0.05dB/km 远超行业标准 [11] - 2024年6月获得空芯反谐振技术国际专利 量产能力增强 已向广东移动 广东电信等客户供货 [11] - 全球能生产空芯光纤厂商屈指可数 日本古河使用上一代技术损耗控制较差 康宁仅停留实验室阶段未工业化 [11] - 长飞海外收入占比35% 产品单价高 未受美国单模光纤关税影响 [11]