傅里叶的猫
搜索文档
CPU逻辑回归?
傅里叶的猫· 2026-04-21 21:15
客户开始疯狂采购 CPU,以至于 Intel 不得不把原本给 PC 的产能紧急调配到服务器芯片上,甚至提 高了 2026 年的资本开支。从 2023 年 ChatGPT 发布以来,整个行业的钱都在往 GPU 上砸,CPU 市场基本是平的,现在突然转向。 早期的 AI 应用很简单:你问一个问题,模型给你一个答案。这个过程主要靠 GPU 做矩阵运算,CPU 只是负责把数据喂给 GPU,然后把结果传回来。所以那时候,一个 CPU 可以服务 8 个甚至 12 个 G PU, CPU 的需求自然上不去。 在今年年初那段时间,市场上就都在炒CPU回归的逻辑了,主要就是因为Agent的兴起,对CPU的需求 激增,导致CPU一度涨价。但当时国内CSP的云服务中,CPU的整体利用率并不是非常高,而且CPU 的涨价幅度也比较温和。 但随着这段时间Openclaw和其他AI Agent的广泛应用,CPU短缺已经开始加剧了。 但Agentic AI不再只是回答问题,而是要"做事"。 举个例子:你让 AI 帮你规划一次旅行。它需要先搜索目的地信息,然后查询航班,对比酒店价格,查 看天气预报,可能还要调用你的日历看你什么时候有空,最后综 ...
报名倒计时一周!超节点大会核心演讲企业&主题全公布
傅里叶的猫· 2026-04-16 19:26
文章核心观点 2026年超节点峰会聚焦于AI算力与高速互联技术,旨在通过汇聚34家产业标杆企业及专家,深度解读AI算力、高速互联、数据中心、先进封装及散热技术等领域的前沿趋势与实战经验,共同探索产业发展新机遇[3] 峰会概况 - 峰会定于2026年4月23-24日在中国上海举行,主题为“AI算力与高速互联技术应用与前瞻”[3] - 已有**34家**产业标杆企业正式确认出席并登台演讲,包括曙光信息、字节、浪潮、华勤、长电、联想、中兴、华鲲振宇等头部公司[3] - 峰会内容聚焦AI算力、高速互联、数据中心、云计算及产业落地等核心领域[3] AI算力与芯片技术 - **三维存算一体(3D-CIM)推理芯片**:为解决AI大模型时代的算力瓶颈、高功耗及数据带宽受限等问题,微纳核芯推出基于**RISC-V+存算异构架构**的3D-CIM技术,提供RV-CIM扩展指令集和全栈软件生态,旨在绕开CUDA垄断,实现自主可控[4] - **国产GPU互联**:聚焦Agent时代算力需求,剖析现有GPU架构痛点,阐述国际和国内GPU互联技术在低时延、高带宽等方面的创新突破[14] - **开放解构超节点(ODS)架构**:由中国移动云联合英特尔等伙伴提出,并于2025年推出业界首款产品,该架构实现网络协议开放、硬件解耦、弹性扩展及互联效率优化,是支撑超大规模MoE模型训练与推理的关键底座[6] 高速互联与光模块技术 - **光模块技术演进**:光模块传输速度正从**400G**迅速升级至**1.6T**,未来**3.2T/6.4T**也将推向市场,随之而来的功耗与发热问题日益严峻[10] - **光芯片地位提升**:随着AI算力集群迈向超节点规模,光芯片正从“配角”变为算力的“刚需”,演讲将剖析高端光芯片的供需困局及技术重构[8] - **光铜协同互联**:针对万卡乃至十万卡集群GPU利用率低下的问题,超节点互联作为提升利用率的网络技术有望大规模部署,需要在不同场景下因地制宜选择铜缆或光缆方案[13] - **高速互联芯片**:国产高速互联“芯”力量关注**400G/800G oDSP**如何赋能超节点[15] - **光互连技术进展**:从OFC2026会议看高速光互连技术进展,会议以AI、CPO等为核心热点[27] 先进封装与集成技术 - **先进封装挑战**:AI驱动下,**Chiplet**、**CoWoS**、**OIO**、**CPO**等先进封装结构面临翘曲、材料、工艺等多因素的技术挑战,其中CoWoS工艺迭代约10年,大尺寸封装良率仍在改善,更先进的OIO、CPO尚在迭代中,未大量量产[11] - **3D集成系统**:3DIS集成系统先进封装通过垂直堆叠、高密度互连、低延迟高带宽三大技术要点,破解AI算力瓶颈[17] - **光电混合集成**:硅光芯片与先进封装深度融合是支撑AI超算实现高效算力传输与低耗互联的核心技术底座[18] - **封装可靠性**:超大尺寸AI Chiplet先进封装在AI训练推理、数据中心等领域快速爆发式增长,同时带来了新的板级应用工艺可靠性挑战[15] 散热与液冷技术 - **散热范式跃进**:AI算力爆发推动散热技术从风冷向液冷范式跃进,传统风冷已难以满足高功耗GPU的散热需求[19] - **液冷成为必选项**:液冷技术已成为AI发展的“必选项”,相变浸没式液冷技术是超高密度AI大集群的关键[20] - **液冷方案多样化**:行业正突破液冷关键技术,构建冷板与浸没融合方案,以提升散热效率、降低PUE,支撑高密度智算中心部署[19] - **企业液冷实践**:包括中兴通讯、联想、曙光数创、华勤、英业达等多家公司将在会上分享其液冷技术解决方案、产品及研发进展[5][19][20][21][23] 数据中心与算力基础设施 - **数据中心架构重塑**:生成式AI与大模型普及正深刻重塑数据中心架构,从服务器、网络、存储到冷却方式均需变革[25] - **算力底座重构**:作为智能算力产品与解决方案提供商,公司整合**CPU、GPU、NPU、FPGA**等多种计算单元,动态分配最优算力资源以实现计算效率最大化[25] - **超节点服务器影响**:以超节点架构为核心的算力集群正推动智算数据中心向高密度、集约化发展,电力架构向**高压直流(HVDC)** 与**SST固态变压器**演进,并通过绿电直连实现算电协同,从“能耗黑洞”向“绿色算力引擎”转型[29] - **超节点解决方案**:面向互联网、运营商、金融等行业的大模型推理场景,提供高性能、高可靠、易部署的AI智算能力,满足通用风冷机房部署[24]
大国算力重器就位,AI4S产业链堵点通了!
傅里叶的猫· 2026-04-16 19:26
文章核心观点 - AI4S(科学智能)正引发科研范式变革,其核心在于像AlphaZero一样“发现未知”,而非重复已知[2] - AI4S产业链发展的关键瓶颈在于缺乏能打通“通智超融合”算力需求与上层应用的“枢纽”[3] - 郑州国家超算互联网节点投入使用的6万卡科学智能集群,通过全精度覆盖、存算传协同及搭载科学大模型平台,为AI4S产业提供了确定性的算力底座,有望驱动产业链价值重心从“交付算力”向“交付科研成果”转移[4][8][9] AI4S的范式变革与算力需求 - AI4S代表科研范式从基于已知理论仿真(如AlphaGo)转向模型自主探索未知(如AlphaZero),去年诺贝尔化学奖和物理学奖是对此变革的背书[2] - AI4S对算力需求极其“分裂”,需同时满足FP64双精度科学计算、低精度AI训练及通用任务调度,即“通智超融合”[2] - 过去国内科研机构算力来源分散(超算中心、公有云),数据来回倒腾导致效率极低[2] AI4S产业链的痛点与断点 - 产业链分为三层:底层算力基础设施、中层技术解决方案、顶层行业应用[3] - 产业发展的核心痛点是缺乏能将三层打通的“枢纽”,底层算力分散,中游模型训练难以调动足够高精度算力,下游应用方难以直接获得成果[3] 6万卡科学智能集群的关键设计 - 实现**全精度覆盖**,从FP64到FP4,同一套硬件可同时支持分子动力学模拟(FP64)和AI训练(FP16),使中下游无需自行适配算力[6] - 通过**存算传三级协同**解决大规模集群数据读取瓶颈,系统可用性达**99.99%**,保障了数万卡规模下科研任务的极致稳定性[7] - **搭载OneScience科学大模型平台**,作为集群的“操作系统”,中游公司可快速部署模型,下游实验室可数小时内完成大模型开发[8] - **6万卡**级别的专用集群及配套平台软件,为AI4S产业铺设了标准化、规模化的“高速公路”[8] 对产业商业模式与未来发展的影响 - 算力足够便宜和好用后,AI4S应用层将迎来爆发,产业链价值重心从“交付算力资源”升级为“交付科研成果”[9] - 商业模式随之改变,算力不再仅是成本项,而是能直接参与成果分成,商业想象空间扩大[9] - 此轮AI4S热潮与互联网创业不同,其核心是“靠算力换发现”,6万卡集群的落地为行业提供了最基础的确定性[9]
盘点AI 热潮中被提前预定的产能
傅里叶的猫· 2026-04-10 22:22
文章核心观点 AI基础设施竞赛的胜负关键已从算法先进性转向对关键零部件产能的争夺,整个供应链正经历前所未有的产能紧张,多个关键环节的产能已被提前锁定至2027-2028年,这构成了全面的供应链危机 [1][3] 一、台积电CoWoS先进封装产能瓶颈 - CoWoS是AI芯片生产中最严重的瓶颈之一,产能扩张速度远跟不上需求 [4] - 台积电CoWoS产能从2024年底的每月3.5万片晶圆增长至2025年底的8万片(涨幅超过一倍),2026年底目标为11.5万至13万片,2027年预计达14.5万片 [4] - Nvidia一家就锁定了台积电2025-2026年超过60%的CoWoS总产能,产能已售罄至2026年底并持续预订到2027年,Google的TPU也因CoWoS产能不足而未达预期 [4] - 台积电正通过建设新设施(如嘉义、台南的AP7、AP8及亚利桑那州产能)和外包部分工序来应对,但2026-2027年的紧张局面难缓解 [4][5] - 根据JPM报告,整体CoWoS年消耗量预计从2023年的134k片晶圆增长至2027年的1850k片晶圆,年增长率从2024年的161%逐步降至2027年的59% [7] 二、台积电N3与N2晶圆制造产能争夺 - 台积电的N3(3nm)和N2(2nm)制程是晶圆制造的瓶颈 [8] - 2026年,AI相关需求已占据接近60%的N3产能,到2027年预计将占据86%,几乎完全挤出智能手机和CPU订单 [8] - 所有主要AI加速器(Nvidia Rubin、Google TPU v7/v8、AWS Trainium 3、AMD MI350X)在2026年集中向N3迁移,造成前所未有的产能压力,主要客户的先进制程产能已被预订到2027-2028年 [8] - 台积电N2制程于2025年第四季度量产,初始产能为每月9万至10万片晶圆,Apple已锁定2026-2027年超过50%的早期N2产能 [9] - 台积电N3的利用率在2026年和2027年预计保持在120%和110%以上,通过超额排产榨取产能 [9] 三、高带宽内存(HBM)产能完全锁定 - HBM是所有瓶颈中最严重的环节,三大厂商(SK Hynix、Samsung、Micron)的2026年HBM产能已完全售罄,订单已排到2027-2028年 [12] - 主要云厂商和GPU巨头通过长期合同锁定了100%的2026年HBM4产能,极端短缺预计到2028年才会缓解 [12] - HBM价格飙升:HBM3E模块售价约60-100美元,而同等容量DDR5 DRAM仅需5-10美元;HBM3E的2026年合同价格上涨近20%;普通DRAM合同价格在2026年第一季度飙升90-95%后,第二季度预计再涨58-63% [13] - HBM产能挤压普通DRAM:HBM与DDR5晶圆产能转换比为3:1,2026年HBM占据约23%的DRAM晶圆产能 [13] - OpenAI的Stargate项目与Samsung和SK Hynix签署意向书,将供应每月90万片DRAM晶圆,预计消耗全球DRAM产出的40% [14] 四、Lumentum的EML激光器供应短缺 - Lumentum控制全球50-60%的EML(电吸收调制激光器)供应,目前供应短缺约30%,所有产能被长期协议锁定至2027年 [16] - Coherent的订单与出货量之比(Book-to-bill)超过4:1 [16] - 2026年3月,Nvidia对Lumentum和Coherent进行了20亿美元的战略投资,包括多年供应协议和产能权利 [16] - Lumentum 2026财年第二季度营收6.655亿美元,同比增长65%;第三季度指引接近8亿美元,同比增长近85%;非GAAP运营利润率扩大至25.2%,毛利率从2024年的30%多提升至42.5% [16] - 技术路线方面,Lumentum在2026年3月推出了1.6T DR4 OSFP可插拔收发器,行业正向1.6T过渡,并已在开发3.2 Tbps收发器 [17] 五、ABF基板材料供应紧张 - ABF是Ajinomoto开发的半导体层间绝缘材料,在高端AI服务器和HPC级FC-BGA基板中占据主导地位,市场份额常被引用为96% [18] - AI芯片迭代推动基板尺寸和层数增加,导致ABF基板供应在2026年迅速收紧,覆铜板交付周期已延长至24周或更长,基板价格每季度上涨3-7% [18][19] - 主要基板制造商大规模扩产:Ibiden批准了2026-2028财年总计约5000亿日元(33亿美元)的资本支出计划;Unimicron将2026年资本支出提高至创纪录的340亿新台币 [19] - 2026年3月,英国基金Palliser Capital成为Ajinomoto前25大股东之一,并要求ABF材料价格上涨超过30% [20] 六、变压器供应危机 - 美国近半数计划于2026年上线的数据中心项目面临延迟或取消风险,约12 GW容量中仅约5 GW(约三分之一)在积极建设 [23] - 高功率变压器交付周期从2020年前的24-30个月延长至2026年的长达5年,而AI数据中心部署周期通常在18个月以内 [23] - 现代AI数据中心功耗可超过100 MW每设施,部分园区目标达1 GW集群;Micron在新加坡的晶圆厂可能需要500台变压器,超过任何单一制造商年产量的两倍以上 [23] - 美国对中国供应链依赖度高:从中国进口的高功率变压器从2022年的不到1500台跃升至2025年的8000多台 [24] 七、燃气轮机成为新瓶颈 - 燃气轮机从订购到收货需要6年,到2028年后的近期建设窗口将无法再下新订单 [25] - 相对于2019年,燃气轮机价格预计到2026年底将上涨195% [26] - 主要科技公司大举投资天然气发电:Microsoft宣布建设70亿美元的天然气发电厂,初始发电量2500 MW;Google合作建设933 MW天然气发电厂;Meta在路易斯安那州投资270亿美元建设总计超7.46 GW的天然气发电设施 [26][27] 八、T-Glass玻璃纤维布短缺 - T-Glass是PCB制造的关键材料,其短缺正在扼制CoWoS基板的供应,即使有晶圆和封装产能,基板材料短缺也会限制最终产出 [29] - 覆铜板的交付周期已延长至关键细分市场的24周或更长,基板价格持续每季度上涨3-7% [30]
三星电子营收再超英伟达
傅里叶的猫· 2026-04-08 21:27
文章核心观点 - 存储器行业正经历由AI驱动的结构性变革,其核心驱动力是HBM需求的爆发式增长,这导致传统DDR内存产能被挤压,引发供需严重失衡和价格超预期上涨 [5][6] - 行业商业模式因“增强型长期供应协议”的普及而改变,有望显著削弱行业周期性,带来更稳定可预测的现金流 [9][10] - 三星电子是此轮行业变革中的关键受益者,其在英伟达供应链中的地位以及存储器业务的爆发,使其业绩和未来现金流预期极为亮眼 [2][4][11] 三星电子的业绩与市场地位 - 2026年第一季度营收133万亿韩元,已超过英伟达,营业利润57.2万亿韩元,营业利润率高达43%,远超市场预期 [4] - 不仅是英伟达全层级存储的核心供应商,更独家代工英伟达的LPU(采用三星N4工艺),在英伟达Rubin平台上的综合价值量已超过台积电 [2][3] - 有机构预测,三星电子可能成为2027年营业利润最高的公司,超过英伟达、谷歌、苹果、微软等科技巨头 [5] 存储器价格与利润率的超预期增长 - 2026年第一季度DRAM价格环比上涨88%(其中DDR上涨97%),NAND闪存价格环比上涨84%,涨幅几乎是市场预期(30-50%)的两倍 [5] - 价格暴涨推动三星存储器业务利润率达到历史性高度:DRAM业务营业利润率从上一季度的56%跃升至78%,NAND闪存业务利润率从25%飙升至67% [7] - 对于SK海力士,UBS预计其2026年全年营业利润率将达到80.5%,2027年进一步提升至83.4% [7] HBM需求引发的结构性供需变化 - AI大模型爆发驱动HBM需求井喷,而HBM与传统的DDR内存共享同一套生产设备和产能 [6] - 到2026年底,HBM将占用约500k wpm(每月晶圆)产能,相当于整个DRAM行业产能的25%;到2027年底,这一比例将进一步上升至31%,对应690k wpm产能 [6] - 传统DDR内存的可用产能因此急剧萎缩,但服务器、PC、手机等传统需求并未消失,导致供需缺口被撕开,且这种产能转移是长期结构性现象 [6] - UBS指出,DRAM的供应不足将持续到2027年第四季度,是至少持续两年的结构性短缺 [6] 行业商业模式的根本性转变 - “增强型长期供应协议”正在重塑行业,供应商与云计算巨头和大型OEM签订更稳固的长期合约,锁定未来几年供应量并设定价格区间,甚至包含预付款机制 [9] - 针对超大规模数据中心客户,未来可能有超过50%的DDR出货量被固定在这类长期协议中 [10] - 这种变化意味着存储器行业的周期性波动可能被显著削弱,价格和利润率的波动范围收窄,为投资者带来更稳定可预测的现金流 [10] 行业公司产生的惊人现金流 - UBS预计,三星电子2026年自由现金流将达到205万亿韩元,2027年高达385万亿韩元 [11] - 按公司承诺的50%现金流回报政策,2026年将有92万亿韩元、2027年将有181万亿韩元用于股票回购和特别分红 [11] - 对于SK海力士,UBS预计其2026年股权自由现金流收益率将达到21.6%,2027年高达40.5% [11] 本轮行业上行周期与以往不同的核心原因 - AI对高性能存储器的需求强度和持续性,超过了PC时代和移动互联网时代 [14] - HBM对传统DDR产能的挤压,创造了一种新的动态供需平衡机制,即使传统需求回落,HBM增长也能吸收释放的产能 [14] - 长期供应协议的普及从机制上降低了厂商盲目扩产的风险 [14] - 存储器在AI中的重要性空前提升,使存储器厂商的议价能力显著增强,客户为确保供应稳定愿意接受更有利供应商的条款 [14]
AI 时代的产能争夺战
傅里叶的猫· 2026-04-08 00:01
博通-谷歌-Anthropic的三方合作 - 合作核心是一份延续至2031年、覆盖未来四代TPU芯片开发与供应的长期协议,锁定了未来五年的AI基础设施 [4] - 协议第一层为定制芯片的独家绑定:谷歌设计TPU架构,博通负责芯片制造,Anthropic获得长期算力访问权,预计在2027年获得约3.5吉瓦(GW)的下一代TPU算力 [5] - 协议第二层为网络设备的全栈供应:博通包揽谷歌下一代AI机架所需的交换机、网卡、光模块等全套网络设备,实现芯片与网络的双重绑定 [6] - 协议第三层为收入承诺的长期保障:协议包含谷歌对博通的收入承诺,Jefferies估计可能高达2000亿美元量级,并同时覆盖谷歌内部使用和外部客户(如Anthropic)的工作负载 [7] - 此次合作模式与博通-苹果射频芯片供应协议类似,后者自2016年签订后经历了四次续约和扩容,订单规模与技术依赖持续加深 [7][8] - 此次合作使三方共赢:博通获得了长达五年的收入确定性并打消了市场对谷歌自研芯片的担忧;谷歌确保了AI芯片供应链的稳定与技术领先,并为谷歌云找到了新增长点;Anthropic获得了支撑爆炸式增长所需的稳定算力保障 [9] - 此次合作反映了AI行业面临的普遍产能紧缺问题,涉及从晶圆厂、先进封装到数据中心电力与散热系统的整个产业链,提前锁定产能成为在AI竞赛中保持节奏的关键 [10][11] - 协议中包含收入承诺的原因是各方都需要确定性:博通需确定性规划产能,Anthropic需确定性规划业务增长,谷歌需确定性规划云服务 [11] Anthropic 如何超越 OpenAI - OpenAI与Anthropic选择了不同的商业化路径:OpenAI凭借ChatGPT在消费市场取得现象级成功,全球周活跃用户达8000万,但95%的用户为免费用户,导致高推理成本下“用户越多、亏得越多” [12] - Anthropic选择了“企业优先”路径,约80%的收入来自企业级应用,客单价高且收入稳定,占据企业LLM市场32%的份额,而OpenAI为25% [12] - Anthropic的企业客户增长迅速:十个首次购买AI工具的企业客户中有七个选择Anthropic,超过1000家企业每年在其平台上花费超过100万美元,财富10强中已有8家是其客户 [12] - Anthropic的AI编程工具Claude Code是重要的营收引擎,占据AI编程工具市场54%的份额,年收入已突破20亿美元,从零到十亿美元仅用六个月,而竞争对手Cursor达到此里程碑花了一年多 [13] - 开发者群体高度认可Claude Code:71%经常使用AI代理的开发者将其作为首选工具 [14] - Anthropic采用多供应商算力策略,同时使用AWS Trainium、谷歌TPU和英伟达GPU进行模型训练和推理,这带来了灵活性、议价能力以及风险对冲的优势 [15][16][17] - 与博通-谷歌的深度合作是其多供应商战略的延伸,旨在通过长期协议锁定关键算力,同时保持战略灵活性 [17] - 企业客户更偏爱Anthropic的原因在于其更注重可靠性与可控性:Anthropic通过Constitutional AI保证输出安全可控,提供企业级SLA保证服务稳定,定价透明且可签长期合同,并设有专门的企业支持团队,这更符合企业客户对数据隐私、服务稳定性及定价可预测性的核心需求 [18]
假期盘点:Citrini的战区实地考察与反驳、产能吃紧的PCB&载板
傅里叶的猫· 2026-04-06 21:26
霍尔木兹海峡通航状态与投资影响 - 霍尔木兹海峡当前并非全面封锁,而是由伊朗革命卫队实施“收费站”式的定向管控与审批通行模式,获得伊朗批准的船只可安全通过[3] - 市场普遍认知(海峡完全关闭、船只不敢通行)与实际情况存在差异,公开AIS航运数据严重失真,每天约有一半实际通行船只未被追踪[3][7] - 海峡通航量已从冲突低谷的日均2-5艘,回升至4月初的日均15-18艘,两天可完成此前一周的通行量[3] - 希腊、中国、印度、日本、法国、土耳其等国船只已陆续获批通行,仅美国及亲美船只被严格限制,呈现“冲突不停、通航回升”局面[3] - 伊朗建立标准化通行审批与收费体系,船东需提交背景信息,审核后通过现金、加密货币或解冻海外资产“付费”以获得通行许可[4] - 伊朗的战略目的是确立对霍尔木兹海峡的实际主权与管控权,效仿土耳其海峡管理模式,将自身塑造为全球能源通道的理性管理者,同时将美国刻画为秩序破坏者[4] - 伊朗刻意保持克制,约束胡塞武装不封锁曼德海峡,以保留关键地缘筹码,用最低风险实现最大地缘影响力[4] 基于海峡局势的投资机会 - 投资逻辑需抛弃“海峡全开/全关”的二元思维,转向交易“冲突持续升级 + 通航逐步恢复”的复杂现实,布局受结构性影响的资产[5] - 油轮板块因全球船队老化、制裁收紧、运距拉长,运费将长期维持高位,存在确定性机会[5] - 美国石化企业因中东炼化设施损毁严重(供应恢复需近9个月),凭借低成本原料将持续受益[5] - 远月原油期货因市场过度定价短期冲击,其合约隐含长期风险溢价,存在机会[5] - 欧洲与日本的能源独立、国防军工资产,因美国安全保障弱化,各国将加大能源自主与国防开支,形成长期结构性利好[5][6] PCB及载板产业上游材料供应 - 上游关键材料呈现全面供不应求并开启涨价周期[11] - HVLP4铜箔受良率不稳影响,预计2026-2027年月度供需缺口分别达48%和43%,三井、古河等厂商已启动涨价[11] - 高阶PCB钻针因板材升级使用量增至传统6倍以上,高规格产品报价大幅提升,行业毛利率维持40%-50%,紧缺态势延续至2027年[11] - LowDK玻布、T-Glass同步缺货,全年涨价幅度预计20%-40%[11] - 石英布受LPX Rack需求拉动,预计2027年供需缺口超60%,成为战略级紧缺物资[11] PCB及载板产业中游与载板环节 - IC载板(特别是ABF载板)预计2025年仍供过于求,但从2026年起快速转为供不应求,缺口在2027年、2028年将分别扩大至26%、46%[12] - AI芯片面积持续攀升、欧美大客户争抢产能加剧供给紧张,欣兴、南电、景硕等头部载板厂稼动率满载,订单能见度已延伸至2028年,报价具备持续上调空间[12] - PCB中游高阶产能同样吃紧,行业格局迎来洗牌,具备东南亚海外产能、擅长HLC高多层板的厂商(如金像电、胜宏)优先获得GPU、ASIC大订单,快速跻身AI供应链一线[13] - 800G、1.6T高速交换机需求爆发,带动高阶交换机板单价与材料规格同步升级,进一步强化产业链高景气[13] PCB产业链产能布局与传导逻辑 - 主要PCB大厂正积极在东南亚(泰国、马来西亚、越南等)及韩国、美国等地建设海外产能,以HLC(高多层板)和HDI技术为主,服务Nvidia、Google、Amazon、Meta等大客户[14] - 本轮AI驱动的PCB与载板行情呈现明确的传导顺序:上游材料强于载板、载板强于中游PCB[14] - AI需求旺盛导致多个细分产业供不应求,供应链稳定的公司优势更大[15]
VPU中的六边形战士,安谋科技发布“玲珑”V560/V760 VPU IP
傅里叶的猫· 2026-04-02 23:08
文章核心观点 - 安谋科技正式发布新一代VPU IP“玲珑”V560/V760(代号“峨眉”),该产品定位为高端AI视频处理IP,旨在填补市场空白,并已在服务器、视频转码等领域获得首批客户授权,预计2026年量产 [1] - 在AI视频爆发背景下,VPU正成为产业升级的核心算力底座,以解决传统CPU/GPU在视频处理中功耗高、效率低、成本贵的问题 [2] - 新产品凭借极致的性能、全面的功能与灵活的架构,被喻为VPU领域的“六边形战士”,旨在满足云、边、端全场景的严苛需求,并为AI视频产业发展注入动力 [1][2][3] 行业背景与市场趋势 - 全球正迈入“超高清视频+AI”深度融合时代,视频数据已成为数字经济最主要的信息载体,其数据流量占比已超过80%且持续攀升 [2] - 视频应用场景广泛,涵盖消费端(高清直播、短视频)、工业端(智能监控、机器人视觉)以及前沿领域(AI服务器、智能驾驶) [2] - 传统通用处理器(CPU/GPU)在视频编解码任务中存在短板,专门用于视频处理的VPU因此跃升为支撑AI视频应用的“核心算力底座” [2] 产品发布与定位 - 发布产品:“玲珑”V560/V760 VPU IP,产品代号“峨眉” [1] - 产品定位:面向AI应用的新一代VPU IP,是公司“All in AI”战略下的集大成之作,标志着在AI视频处理技术上的重大突破 [1][2] - 市场进展:已在服务器、视频转码等关键领域完成首批客户授权,相关产品预计2026年陆续量产 [1][16] 产品核心特性与技术优势 - **性能领先**:采用创新的多核多格式编解码融合可编程处理架构,单核支持4K60FPS编码或8K30FPS解码,性能领跑行业 [3] - **画质与码率双优**:集成先进的CAE(内容感知编码)技术,同等码率下编码质量平均提升20%,同等质量下视频码率平均降低20%,特定场景下码率最大可降低80% [5][8] - **高鲁棒性**:具备强大错误处理能力,在丢包率高达20%的极端网络环境下仍能稳定解码 [8] - **低延时**:通过条带级编解码控制技术,显著降低编解码延时,赋能实时交互体验 [8][14] - **高安全性**:支持TrustZone内容保护机制,并提供高级Mosaic功能,实现视频画面的智能区域遮挡与隐私保护 [6] - **高兼容性**:驱动层面全面支持Linux、Android、Windows、RTOS等主流操作系统,硬件层面支持多OS并行与虚拟化应用 [8] - **灵活可配置架构**:采用积木式堆叠技术,允许客户根据具体应用场景按需组合、配置IP功能模块,支持敏捷开发与快速迭代 [7][9][10] 产品性能提升数据 - **单核解码性能提升100%**:相较上一代产品实现性能飞跃 [8] - **多核并行度高**:能够轻松承载8K超高清视频的实时编解码任务 [8] - **编解码质量与码率优化**:同等视频码率下,编码质量平均提升20%;同等编码质量下,视频码率平均降低20%,特定典型场景下最大可降低80% [5][8] 应用场景与生态覆盖 - **Edge AI(边缘智能)**:应用于智能手机、AI PC、智能电视、手持摄像设备、边缘服务器、线上会议终端等,在保证极致视频体验的同时降低系统功耗和芯片面积 [11] - **Physical AI(物理智能)**:应用于智能驾驶、智能座舱、服务机器人、工业视觉等场景,支持多操作系统并行与虚拟化,增强系统集成灵活性与安全性 [12] - **Cloud AI(云端智能)**:应用于数据中心、视频转码、AI服务器、云游戏等场景,提供高性能、高吞吐量、低延时的视频处理能力,支撑云端大规模视频任务 [13] - **全场景覆盖**:产品实现了对Edge AI、Physical AI、Cloud AI三大核心领域的全场景覆盖,构建完整的AI视频处理生态闭环 [10] 市场认可与商业化进展 - 已成功完成在服务器、视频转码等关键应用领域的首批客户授权 [16] - 相关客户的产品预计将于2026年陆续实现量产,标志着产品从实验室走向生产线 [16] - 公司强调将提供高质量交付与全生命周期支持,与客户紧密合作推动产品快速落地 [16] 公司战略与未来展望 - “玲珑”系列产品代号均以中国山峰命名,寓意团队合作与长远发展 [16] - 公司将继续秉持技术创新与开放合作理念,以“玲珑”系列VPU为核心,持续构建“深度感知、全局最优”的AI VPU技术体系 [16] - 未来技术将朝AI端到端视频编码技术路径加速演进,进一步拓展“AI+视频”在智慧城市、智能制造、智慧医疗、智慧交通等领域的应用边界 [16] - 公司旨在以硬核的芯片IP实力,为AI时代的视频处理提供坚实的底层支撑,推动产业算力革命与体验升级 [17]
云算力涨价潮:当GPU从贬值预期走向供不应求
傅里叶的猫· 2026-04-02 23:08
一、Michael Burry的预言失效与市场反转 - 2025年11月,“大空头”Michael Burry基于GPU生命周期仅2-3年的逻辑看空英伟达,认为旧卡将随新品推出而迅速贬值[2] - 然而市场在4个月后给出相反答案:H100 GPU的一年期租赁价格从2025年10月的价格暴涨至2026年2月的2.35美元/小时/GPU,涨幅高达40%[5] - 服役近4年的H100供不应求,所有GPU类型的按需租赁容量完全售罄,到2026年8-9月的新增产能已被预订一空,甚至出现以14美元/小时/GPU的价格购买AWS p6-b200现货实例以及续约至2028年的情况[5][7] - 市场反转的核心原因是其低估了Agent AI的爆发速度及其对算力需求的根本性重构[7] 二、Agent AI重构算力需求 - 2026年初“龙虾热”(以Claude Code为代表的Agent应用爆发)标志着从Chatbot时代进入Agent时代,带来了使用模式的根本性转变[8] - **Token消耗量级跃升**:Chatbot时代单次对话消耗500-2,000 tokens,而Agent时代单个任务消耗80,000-150,000 tokens,增长达40-75倍[9][10] - **消耗暴增的三大机制**: 1. **多轮推理循环**:采用“推理→行动→反思”循环,每次循环都需重新调用大模型[11] 2. **长上下文记忆**:每次请求需携带完整上下文和历史记录,导致token消耗量级跃升[11] 3. **多模态内容爆炸**:处理截图等任务,单次截图可能消耗4,000-5,000 tokens[11] - **标志性案例与市场验证**: - Claude Code预计到2026年底将占全球日代码提交量的20%以上[13] - Anthropic的ARR(年度经常性收入)在单个季度内从90亿美元飙升至250亿美元,增长近3倍[13] - 中国市场:中国每日token消耗达140万亿(工信部数据),其中字节跳动单家日消耗在2026年3月达100万亿,较2025年12月的63万亿增长近60%[14][15] - **行业需求判断**:预计全年算力需求增长30-50%,B端落地时间从传统预期的12个月缩短至6-9个月,预计Q3左右将看到较多落地案例[15] 三、GPU租赁价格上涨的双重逻辑 - **全球市场:供应链成本螺旋式上升与高ROI支撑** - 2026年初AI供应链经历“定价末日”,组件成本快速上涨[18] - LPDDR5内存价格同比上涨约4倍,DDR5内存价格同比上涨约5倍[19] - AI服务器涨价幅度超过了底层组件成本的增幅,OEM为管理利润风险以超过成本增幅的水平重新定价[18][19] - 需求侧因AI工具的投资回报率(ROI)达5-10倍而相对非弹性,即使价格上涨用户仍愿付费,支撑价格上行[18][20] - **中国市场:主动的客户筛选策略** - 云厂商涨价核心目的是筛选客户,而非单纯转嫁成本,旨在淘汰低质量用户、锁定付费客户[21] - 短期原因:预判B端需求将在Q3明显提升,进行前瞻性定价[23] - 深层原因:验证付费意愿,区分高价值用户与低价值用户[24] - 国内云厂商AI算力输出中仅约20%的负载或tokens量对外产生收入,大部分为内部使用[22] - **涨价的分层结构与长期性** - 涨价并非针对所有客户,主要针对中小型客户和新签客户,大客户长协价格相对稳定[28] - 市场力量转移至供应方(Neoclouds和Hyperscalers),可协商更有利的条款[28] - 行业共识为此轮涨价是持续1-2年的周期,而非短期波动[28] 四、市场格局重塑 - **聚合平台的利润困境**:自持算力比例低(如低于40%)的轻资产模型聚合平台,在涨价环境下若无法将成本传导至上游或扩大规模,将面临显著利润压力[30] - **大厂的自持算力战略转向**:大型云厂商正大幅提高自持算力比例,如阿里云部署大量自研PPU,字节跳动进行自研芯片并购买大量国产芯片[31] - 核心逻辑是通过优化架构(如Prefill和Decode分离)在长期TCO上实现成本下降[32] - 需求旺盛延长了GPU的经济使用寿命,提高了Neocloud的投资资本回报率(ROIC)[32] - **火山引擎的战略两难**:在主要云厂商涨价背景下,火山引擎若坚持不跟涨,是切入大B市场的窗口期;但长期低价不可持续,最可能路径是在重点行业保持价格竞争力,在其余行业跟进涨价[33] 五、GPU涨价周期的持续驱动力 - **驱动力一:B端需求尚未释放**:Agent应用向B端的传导预计在Q3左右看到较多落地案例,企业级产品已就绪,待安全问题解决后将积极采用[35] - **驱动力二:ROI的持续验证**:使用AI工具的ROI达5-10倍,需求曲线相对非弹性,为推高GPU租赁价格提供了强大力量[37][38] - **驱动力三:新增产能被快速消化**:直到2026年8-9月上线的所有容量已被预订,Blackwell交付周期也延长至6-7月[39] - 关键问题在于新增算力可能仍无法满足激增的token需求[39] - 供应紧缩和价格上涨促使Neoclouds抢先确保更多硬件,形成进一步收紧供应并推高价格的正反馈机制[39] - **综合结论**:基于上述驱动力,GPU租赁价格更可能继续上涨而非下跌[39]
从HBM到SSD:被严重低估的AI存储长周期逻辑
傅里叶的猫· 2026-04-01 23:40
文章核心观点 - 当前AI存储需求被市场低估,尽管近期存储板块出现回调,但AI驱动的存储需求长周期依然强劲,其根本原因在于AI应用(尤其是多模态和Agent应用)对高速存储(如SSD)的消耗量远超传统认知,且AI正从根本上改变存储行业的商业模式和增长逻辑[1][3][13][14] AI用户对存储的需求测算 - 一个日均消耗1000万tokens的AI重度用户(Power User),每天会产生50到100GB的SSD存储需求,计算链条包括:40MB纯文本、30GB向量索引、会话状态、Agent日志及三副本复制[4] - 一个日均消耗100万tokens的普通用户,存储需求约为12GB,是重度用户的十分之一[5] - 并发用户的需求增长并非完全线性,因系统可通过“共享仓库索引”优化,但优化空间有限,特别是当应用从单一Agent转向多Agent协作时,存储压力会快速累积[5] - 编程类Agent(如Claude Code)因同时调用多个Agent(写代码、审查、测试、优化),其存储消耗远超普通对话应用[5] 多模态应用带来的存储挑战 - 从文本到音频,存储需求增长10倍;从音频到视频,再增长100倍;一分钟视频内容的存储体积是同等时长文本的10000倍[6] - 多模态应用(如截图分析、AI视频生成、自动驾驶)产生的数据体积庞大且均为需要快速读取的“热数据”[6] - 在AI推理场景下,所有需要实时响应的数据都必须存放在SSD上,无法使用价格低廉但速度慢的机械硬盘(HDD),HDD仅适用于冷归档数据[7] AI系统的存储层级结构 - **第一层 HBM**:最顶层,直接焊接在GPU上,最贵、最快、容量最小,用于存储模型权重,例如一颗H100 GPU有90GB HBM[8] - **第二层 DRAM**:服务器内存,容量是HBM的4到5倍,用于存储KV Cache等“短期记忆”[9] - **第三层 SSD**:容量从1TB到15TB不等,是“长期记忆”的主力存储,用于RAG知识库、用户历史会话、Agent状态等[9] - **第四层 HDD**:仅用于训练数据归档和冷备份,在推理环节基本不出现[10] - 一个万亿参数模型以INT4精度运行时,大致需要500GB HBM、700到800GB DRAM以及5TB SSD,以实现每秒1000 tokens的推理速度[10] - DeepSeek的engram和Google的TurboQuant等技术试图通过数据迁移或压缩来优化存储占用,但可能面临杰文斯悖论(效率提升导致总消耗增加)[10] 行业级存储需求预测与市场影响 - 根据JPM数据,预计2026到2027年,全球超大规模云服务商的SSD需求将达到200到300 EB(艾字节)[11] - 这200到300 EB需求构成包括:训练检查点占50%到60%,RAG数据湖占10%到15%,其余为数据复制备份及增长最快的多模态推理状态[12] - AI在存储市场中的占比将急剧提升:DRAM市场中AI需求占比将从2023年的9%升至2026年的37%和2028年的53%;NAND闪存市场中AI需求占比将从2023年的2%升至2026年的32%和2028年的41%[13] - 2024到2028年,AI DRAM市场的价值总规模(TAM)年复合增长率预计为105%,远高于非AI DRAM的51%[13] - 供给端存在约束,包括晶圆厂物理空间限制、HBM良率挑战、Agent应用爆发可能带来超预期需求,以及物理AI(机器人、自动驾驶)的存储需求远超软件AI[13] 存储行业商业模式的重构 - AI正推动存储行业从大宗商品模式向定制化解决方案模式转型,HBM、SOCAMM、eSSD等产品需要与客户深度绑定、联合设计[14] - 这种转变有望提升存储厂商的利润率中枢,熨平行业周期波动幅度,并重构行业的估值体系[14]