傅里叶的猫
搜索文档
美银存储模型更新:DRAM 现货价格走弱
傅里叶的猫· 2026-02-01 23:52
美银存储行业模型核心观点 - 美银于1月31日更新了其存储行业分析模型,对2026年预测进行了核心调整 [2] - 在平均销售价格(ASP)上涨50%-60%的支撑下,预计全球DRAM销售额将从2025年的1340亿美元增至2026年的2620亿美元,同比增长95%;NAND销售额将从2025年的810亿美元增至2026年的1470亿美元,同比增长82% [3] - 美银将DRAM及NAND销售额预期上调20%-25%,主要因近期价格上涨后,上调了2026-2027年的ASP预期 [8] - 美银预计存储行业的多年增长周期(超级周期)具备可持续性,但预计2026年第二季度至下半年ASP将维持稳定,2027年则会出现低于10%的价格回调 [7] DRAM市场近期动态与价格走势 - 本周DRAM现货价格在过去4-5个月的持续上涨后首次走弱,但将此视为行业硬着陆的早期信号仍为时尚早 [4] - 多家OEM表示,按当前现货价格计算的DRAM成本已超过其低端个人电脑、智能手机、平板电脑的产品售价,而通常DRAM成本占产品售价的比例应低于10% [4] - 部分内存模组厂商表示,若DDR4或DDR5价格回落至20-30美元区间,无论容量或规格,均有较强的追加采购意愿 [6] - 目前16Gb DDR5与8Gb DDR4单价已突破30美元,16Gb DDR4单价则处于70美元以上区间,而头部一级OEM获取的合约价格仍维持在每GB 10-20美元水平,现货与合约价格存在较大价差,现货价格料将向合约价格水平回归 [6] NAND市场近期动态与价格走势 - 受2025年上半年减产的滞后效应影响,NAND现货供应持续紧张,本周NAND现货价格进一步上涨,其中1Tb、512Gb规格涨幅达5%-6% [6] - 2025年NAND销售额仅实现低个位数增长,而在ASP同比上涨53%的驱动下,预计2026年NAND销售额将同比增长82% [8] 销售额与增长预测 - 美银预计,即便2024年、2025年全球DRAM销售额已分别实现86%、52%的同比增长,2026年预期仍将大幅增长95% [7] - 核心驱动因素包括:SK海力士的HBM业务及ASP强势反弹(DRAM与NAND ASP上调20%以上)、存储位出货量增速小幅提升、以及资本开支增加 [7] - 根据模型数据,预计2025年DRAM销售额为1338亿美元,2026年增至2615亿美元;NAND销售额2025年为811亿美元,2026年增至1474亿美元 [8] - 预计2027年DRAM销售额为2887亿美元,NAND销售额为1587亿美元 [8] 平均销售价格(ASP)预测 - 美银上调了ASP预期,预计2026-2027年DRAM ASP为6美元(以8Gb等效计算);NAND ASP为3.5-4.0美元(以256Gb等效计算) [8] - 根据模型数据,DRAM ASP从2024年的2.9美元,升至2025年的3.7美元,预计2026年达到6.1美元,2027年小幅回落至6.0美元 [8] - NAND ASP从2024年的2.6美元,略降至2025年的2.5美元,预计2026年大幅升至3.8美元,2027年回落至3.5美元 [8] 出货量与产能预测 - 预计DRAM位元出货量(以8Gb等效计)将从2025年的360亿个单位,增长至2026年的427亿个单位,2027年达到483亿个单位 [8] - 预计NAND位元出货量(以256Gb等效计)将从2025年的330亿个单位,增长至2026年的393亿个单位,2027年达到451亿个单位 [8] - 预计DRAM晶圆产能(300mm千片/月)将从2025年的1867千片/月,增长至2026年的2066千片/月,2027年达到2242千片/月 [8] - 预计NAND晶圆产能(300mm千片/月)在2025年为1706千片/月,2026年预计为1776千片/月,2027年达到1837千片/月 [8] 资本开支(Capex)预测 - 资本开支增加主要由HBM扩产及基础设施投资(晶圆厂土建、电力配套等)驱动 [7] - 根据模型数据,DRAM与NAND资本开支总额预计从2025年的735亿美元,大幅增长至2026年的973亿美元,2027年略增至978亿美元 [8] HBM(高带宽内存)市场展望 - HBM市场规模进一步扩大,一方面源于美国大型科技企业需求走强,另一方面得益于三星HBM4产品量产爬坡进展顺利 [7] - 美银预计2026-2027年,SK海力士在HBM领域的主导地位将持续保持,假设三星(按HBM销售额口径计算)市场份额为20%左右,而SK海力士则占据50%以上的HBM市场份额 [9] - 预计全球HBM总销量(以GB计)将从2025年的3.06十亿GB,快速增长至2026年的5.51十亿GB,2027年达到7.67十亿GB,2025-2028年预计复合年增长率(CAGR)为50% [10] - HBM占全球DRAM销量的比例预计将从2025年的25.8%,增长至2027年的27.2% [10] - 全球HBM平均ASP预计从2025年的11.3美元/GB,降至2026年的10.9美元/GB,2027年进一步降至10.3美元/GB [10] - 全球HBM总销售额预计从2025年的345亿美元,增长至2026年的599亿美元,2027年达到786亿美元 [10] - SK海力士在HBM位元市场份额预计从2025年的58%,降至2026年的48%;三星份额预计从2025年的22%,升至2026年的33% [10] 行业需求与供应影响 - 受DRAM供应短缺及存储成本高企影响,原始设备制造商(OEM)下调产量,但得益于AI服务器需求持续稳健增长,该因素对整体存储需求的影响仍较为有限 [7]
最稳定的Memory、液冷产业信息
傅里叶的猫· 2026-01-30 23:50
闪迪公司最新财务与业务表现 - 公司第三财季总营收达30亿美元,环比增长31% [1] - 公司第三财季毛利率达51.1%,环比提升21个百分点 [1] - 公司数据中心业务营收环比大增64%,占总营收的15% [1] - 管理层预计后续季度将完成更多超大规模云服务商的认证工作 [1] - 公司对FY3Q26的营收指引中点为46亿美元,每股收益指引为13美元,贴合市场高位预期 [1] NAND/SSD行业需求的底层逻辑 - 以存代算:存储成为AI推理关键使能器,通过KV Cache持久化降低算力消耗 [3] - Sandisk CEO提及token intensity在加速,并估算KV cache在2027年将带来额外75-100 EB需求,一年后翻倍 [3] - 数据生成主体改变:从人类生产转向模型自生成,不受物理边界限制 [3] - Sandisk提及数据增长因“数据温度上升”而加速,对应更多数据值得被持久化存储 [3][4] - 数据重用价值提升:LLM/RAG技术唤醒历史数据,使存储率从过去的1%大幅提升 [8] - 企业级SSD加速采用,数据中心预计在2026年成为NAND最大市场,带来高60s Exabyte增长 [8] - 相同语义密度下的数据通胀:数据从明文转为embedding、KV、多模态后,容量膨胀5-1000倍 [8] - Sandisk确认AI工作负载导致存储内容要求大幅提升,与数据通胀逻辑方向一致 [8] 行业趋势与定位演变 - 四大需求逻辑叠加,使SSD/NAND从冷存外设转变为持久化算力资产 [5] - SSD/NAND的增长与GPU/HBM解耦,正独立跑出其自身的Alpha增速 [5]
关于AI下半场的一些思考
傅里叶的猫· 2026-01-30 00:26
AI应用发展现状与挑战 - 近期涌现多种AI应用,如Manus、OpenCode、CoWork、Claud in Excel及ClawdBot,但实际效果未达预期炸裂程度 [1] - 以ClawdBot制作PPT为例,其通过为Python安装PPT库来操作,揭示了当前AI应用的核心问题:多数软件为人类视觉UI交互设计,对AI而言如同黑盒,AI不擅长“盯着屏幕找按钮”,需通过API或编程库等后门间接操作 [1] - 解决上述问题的潜在方案是模型上下文协议(MCP),理论上可使ClawdBot通过专门服务器直接调用软件底层接口,但目前MCP渗透刚起步,主要集中于开发工具、企业协同和数据管理领域,AI全面控制电脑处理日常任务仍需时间 [2] AI发展驱动存储需求激增 - 行业普遍看好未来AI应用机会,并认为AI应用将对存储产生巨大需求,涵盖服务器端与个人端 [2] - 海外多家存储原厂今年的产能已被预定,且有消息称需预定至2028年的产能,突显存储芯片紧缺现状 [2] 微软财报与战略重点 - 微软Azure云业务增长率达39%,但公司强调需求远超供给,该增长率实际受限于分配的产能,公司正疯狂扩张产能,仅一个季度就增加近1吉瓦的总容量,资本支出超出预期 [4] - 微软CEO纳德拉指出所有软件都在重写,并明确表示智能体就是新的应用 [5] - 纳德拉认为AI仍处于“早期扩散阶段”但已形成规模,是影响广泛GDP的初始阶段,并用“前几局”形容当前进展,同时强调微软已建立的AI业务规模超过了一些花费数十年才建成的大型特许经营业务,表明AI已成为实质性大规模收入来源且增长潜力巨大 [6] Meta财报与AI愿景 - Meta提出“个人超级智能”作为AI智能体的终极愿景,其核心是AI能深度理解用户个人语境,融合大语言模型与推荐算法,实现从“推荐内容”到“生成个性化内容”的跨越,并以智能眼镜为主要载体,在保护隐私前提下全天候协助用户 [7] - Meta CEO扎克伯格明确表示“我们现在看到agents真的开始work了”,并预计2026年将进一步加速,意味着公司已过“重建基础”阶段,即将进入产品密集交付期 [7] - 扎克伯格将AI眼镜的普及比作智能手机取代翻盖手机的转折点 [8] - 微软与Meta在财报电话会中均反复共同强调“Agent”这一概念 [9] 中国互联网巨头资本开支动向 - 字节跳动计划将全球资本开支从之前的1600-1800亿大幅增加至3000亿,其中一半在海外 [9] - 阿里巴巴据传也将增加资本开支 [11] - 腾讯在AI领域动作频繁,且擅长后发制人,市场关注其是否会跟进增加资本开支 [12]
突围AI和具身智能,港科大找了个深度队友——安谋科技
傅里叶的猫· 2026-01-30 00:26
合作背景与战略意义 - 安谋科技与香港科技大学签署合作备忘录,将围绕芯片IP设计、AI计算等关键方向开展深度合作[1] - 合作旨在聚焦芯片IP设计的创新突破,推动AI时代芯片IP设计的革命,为中国半导体产业的自主创新注入新活力[1] - 芯片IP是集成电路设计的核心要素和关键技术模块,其设计水平直接决定了AI产品的性能和竞争力[1][3] 合作双方优势 - 安谋科技是国内领先的芯片IP设计与服务提供商,拥有多年的技术积累和丰富的实践经验,其自主研发的芯片IP产品已广泛应用于智能终端、物联网、云计算等多个领域[3] - 香港科技大学在AI计算、芯片设计等领域科研实力突出,其科研团队在AI算法优化、芯片架构设计等方面有深入研究,尤其在AI与芯片IP的融合设计方面提出了多项创新理念和技术方案[3] 合作具体方向与内容 - 以AI计算需求为导向,开展芯片IP设计的协同创新[4] - 针对物理AI领域对高算力、低延迟的要求,联合研发新型芯片IP架构,优化指令集设计,提升芯片IP的并行计算能力和数据处理效率[4] - 在边缘与端侧AI领域,聚焦低功耗核心挑战,研发低功耗、高性能的芯片IP解决方案,通过优化电路设计和采用先进功耗管理技术,在保证性能的同时降低功耗[5] - 探索芯片IP的模块化设计,提高其兼容性和可扩展性,以适应不同类型的边缘AI应用场景[5] - 针对基础设施领域,联合攻关高性能、高可靠性芯片IP的核心技术,提升算力密度和稳定性,优化芯片IP与软件系统的协同性能,为AI计算中心提供支撑[5] 知识产权与成果转化 - 双方将建立完善的知识产权共享与保护机制,明确合作研发成果的知识产权归属[6] - 将通过专利申请、技术许可等方式,加强知识产权布局和运营,提升合作成果的市场价值,推动芯片IP技术的产业化应用[6] 合作展望与行业影响 - 合作旨在打造更具竞争力的芯片IP产品,推动中国芯片IP设计行业的发展[6] - 合作将推动芯片IP设计技术的创新突破,提升中国半导体产业的核心竞争力[6] - 未来双方将持续深化合作,推出适应AI时代需求的创新产品和解决方案,为中国智能计算“芯”生态建设提供支撑,助力中国在全球半导体产业竞争中占据有利地位[6]
AI链依旧强劲
傅里叶的猫· 2026-01-28 21:28
AI基础设施增长的三大核心瓶颈与相关公司业绩 - AI数据中心扩张面临三大核心瓶颈:台积电的CoWoS先进封装产能、存储芯片(Memory)产能以及电力供应 [2] - 这三个瓶颈对应的公司最新财报业绩表现非常强劲 [3] 台积电与ASML:先进制程与设备需求 - ASML第四季度新增订单额达132亿欧元,几乎是市场预期的两倍,创历史新高,其中EUV订单贡献突出 [4] - 存储芯片客户订单占比首次超越逻辑芯片,截至2025年底积压订单达388亿欧元,为未来业绩提供强支撑 [4] - 2026年预计营收中位数为365亿欧元,同比增长约12%,第一季度业绩指引优于市场预估,毛利率保持稳定 [4] 存储芯片:海力士业绩与技术进展 - 海力士2025年第四季度营收32.83万亿韩元,环比增长34%,同比增长66% [5] - 第四季度营业利润19.17万亿韩元,环比增长68%,同比增长137%,营业利润率高达58% [5] - 第四季度净利润15.25万亿韩元,同比增长90%,净利润率46% [5] - 2025年全年营收97.1万亿韩元,同比增长47%,营业利润47.2万亿韩元,同比激增101% [5] - 业绩增长核心得益于DRAM和NAND产品价格大幅上涨、出货量稳步增长以及AI相关高附加值产品的推动 [5] - 2025年3月全球首次供应HBM4样品,9月完成业界首个量产体系搭建,全年HBM营收同比翻倍以上 [6] - DRAM方面,1cnm工艺DDR5正式量产,并基于1bnm 32Gb开发出业界最大容量256GB DDR5 RDIMM [6] - NAND领域完成321层QLC产品开发,下半年以eSSD为核心的需求复苏带动年度NAND营收创历史新高 [6] - 在HBM4进展方面,三星进展最快,下个月可在NV和AMD量产,海力士和美光经历了重新设计,但美光与海力士的差距比在HBM3和3e时小了很多 [6] - 2026年,服务器市场将成为核心增长引擎,受AI服务器及普通服务器高配置化驱动,DRAM需求预计增长20%以上,NAND需求增长10%以上 [7] - PC和移动端需求可能受成本上涨、消费情绪疲软影响而低于行业平均 [7] - 公司计划加速M15X产能最大化,推进多个Fab工厂建设,2026年资本支出将显著增长,并持续推进先进工艺转换,拓展AI内存与存储产品组合 [7] 电力供应:GE Vernova业绩与行业展望 - GE Vernova第四季度营收109.6亿美元,同比增长4%,每股收益13.39美元,均超市场预期 [8] - 全年营收381亿美元,同比增长9% [8] - 在燃气轮机与电网设备需求爆发的推动下,公司积压订单创1500亿美元历史新高 [8] - 燃气轮机订单规模从33吉瓦提升至40吉瓦,设备订单积压和产能预留协议增至83吉瓦 [8] - 全年自由现金流达37亿美元,现金余额近90亿美元,支撑了36亿美元的股东回报 [8] - 管理层上调了2026年营收与自由现金流指引,明确公司正处于能源转型最佳赛道,将受益于全球电气化与AI驱动的电力需求浪潮 [8] - 全球燃机产业链景气度高涨,核心资源大厂订单排至2028-2029年,产业链内公司订单饱满,能见度基本可见于2028年及以后 [9] - 本轮北美缺电周期预计远不止于2028年,产业链公司的远期合理市值及成长空间可按2028年20-30倍市盈率评估 [9] - 国内的燃机逻辑需关注在海外有产能的燃气轮机和HRSG(余热锅炉)企业 [10]
AI应用加速破圈,电力题材新闻频出
傅里叶的猫· 2026-01-27 21:29
AI应用与电力:2024年持续大题材 - 核心观点:AI应用与电力是2024年将持续受到关注的两大投资主题,不断有破圈应用出现,且电力被视为AI规模化的核心瓶颈 [1] AI应用产业 - AI应用的产业拐点已至,尽管此前因监管因素出现回撤,但这一观点保持不变 [3] - ClawdBot是一个全天候运行的开源AI代理员工,其核心定位是通过部署在用户本地硬件(如Mac mini或RTX 4090)上实现完全的隐私保护与系统掌控权,摆脱对云端平台的依赖 [3] - ClawdBot被视为能执行实操任务的自动化引擎,可处理邮件与日程管理、自主市场研究及视频剪辑等高级领域,并通过与WhatsApp或Telegram等聊天工具集成,让用户通过对话驱动AI在本地执行复杂自动化工作 [3] - ClawdBot本身并未包含新技术,已有类似工具(如agent zero)能完成更强任务,但ClawdBot因接入聊天工具而获得更佳用户体验,从而出圈 [5][6] - 当前ClawdBot面临的最大风险是安全问题,有观点认为其通过底层接入设备、将屏幕录屏传到云端的方式极不安全 [6] AI应用对CPU的需求 - AI发展前期模型训练以GPU为核心,CPU仅起协调作用;而AI推理环节对CPU依赖性显著提升,需要CPU完成任务调度与数据准备以保障GPU高效运转 [7] - AI智能体的出现进一步放大了CPU的需求价值,其执行工具调用、多轮数据查询等工作流的速度和频次远高于基础推理,更依赖CPU处理以实现自主化运行 [7] - 近半年,AI从训练向推理转型、智能体能力建设推进,叠加疫情期间部署的远程办公服务器CPU已达五年使用周期且性能无法适配新工作流,共同推动传统服务器CPU需求激增 [8] - 这一需求变化成为英特尔近两个季度需求大涨的核心动因,其因产能不足无法承接全部新增订单 [8] AI应用对存储(Memory)的需求 - ClawdBot作为本地AI生态的一环,会驱动用户升级更高容量、更高寿命(TBW)的消费级SSD,因其24小时不停执行任务会缩短NAND的消耗和更换周期 [9] - 在服务器端,随着推理需求提升及AI工具日活跃用户(DAU)增加,SSD的使用也会持续提升 [9] - 当前存储超级周期的核心驱动力是需求逻辑,包括以存代算、AI数据生成转变、数据重用价值提升和数据通胀 [9] - SSD正从“存储层”向“半内存层”迁移,未来技术路线中GPU将与SSD直接通信 [9] - 美光在新加坡的新厂投资240亿美元,核心聚焦高带宽闪存(HBF)等先进NAND技术研发,深度绑定英伟达的技术路线,旨在解决下一代AI计算中企业级SSD带宽不足的问题 [11] - 此次投资彰显了对长期结构性需求的预判,其10年投资周期与2028年下半年启动晶圆量产的规划,指向2030年代的市场需求 [11] - 按行业每150亿美元资本开支支撑月产10万片晶圆的基准测算,240亿美元投资将带来每月15-20万片的新增产能,近乎翻倍美光当前每月16-20万片的NAND产能 [12] - 新厂量产周期长,2028年底才启动生产,实际有效产能可能推迟至2029-2030年,因此未来2-3年对全球NAND供应无影响,当前供需紧平衡状态将持续 [12] 电力需求与基础设施 - 全球大型油田承包商贝克休斯计划在2025-2027年三年内,将数据中心设备订单目标翻倍至30亿美元,以满足AI爆发带来的电力需求增长 [13] - 公司计划在2027年上半年将其NovaLT天然气涡轮机产能提升一倍 [13] - 公司CEO预计到2040年发电量将翻一番,但指出2026年的石油需求可能相对疲软 [13] - 为应对传统业务下滑,贝克休斯正将业务重心向数据中心和液化天然气领域倾斜,这一多元化布局帮助其抵消了下滑并在表现上超越同行 [13] - 美国环境保护署(EPA)的新规提高了燃机部署要求,为保证充足供电量,北美热回收蒸汽发生器(HRSG)成为各类燃气电站的刚需,导致其短期需求显著提升、价格快速上涨 [15][16]
GPU vs ASIC的推理成本对比
傅里叶的猫· 2026-01-26 22:42
文章核心观点 - AI芯片的竞争核心已从单纯性能比拼转向“性价比”的较量,特别是推理阶段的成本控制成为关键指标,直接影响AI应用的商业化落地和芯片厂商的市场份额[5][6] - 高盛通过构建“推理成本曲线”分析,量化了GPU与ASIC两类芯片的竞争态势,为理解技术路线优劣和行业竞争提供了清晰框架[5][6] - 短期内英伟达凭借其产品迭代速度、CUDA软件生态及全栈式创新维持领导地位,但中长期ASIC凭借定制化在成本控制上的潜力不容忽视,而网络、内存、封装三大相邻技术的创新将成为打破竞争格局的关键变量[10][12][15][17][18] 一、推理成本成AI芯片竞争关键 - AI芯片的竞争焦点是“性价比”,推理成本控制是重中之重,关系到AI应用商业化可行性和芯片厂商市场份额归属[6] - 高盛通过对比英伟达、AMD的商用GPU与谷歌TPU、亚马逊Trainium等定制化ASIC,构建了跨周期推理成本曲线,显示各类芯片成本均呈下降趋势,但不同厂商降幅和竞争态势差异显著[6] 二、头部玩家的竞争态势与差距 (一)谷歌/博通TPU:快速追赶的有力竞争者 - 从TPU v6到TPU v7,其每百万token的推理成本下降了约70%,目前成本与英伟达旗舰GB200 NVL72相当甚至略有优势[9] - 谷歌已将TPU广泛用于内部工作负载(包括Gemini大模型训练),且Anthropic与博通签订了价值210亿美元的TPU订单,预计2026年年中交付[9] - 对于具备定制化开发能力的企业,TPU正成为英伟达GPU之外的重要选择[9] (二)英伟达:优势稳固的行业领导者 - 英伟达维持领导地位依靠两大核心优势:一是“上市时间”优势,保持年度产品迭代(如GB300 NVL72已出货,VR200 NVL72计划2026年下半年交付);二是CUDA软件生态构建的深厚护城河,客户迁移成本高昂[10] - 公司在研发投入上远超竞争对手,并通过Mellanox业务在网络领域占据强势地位,近期推出的上下文内存存储控制器展现了内存技术创新能力,这些优势使其加速器市场领先地位短期内难以被撼动[12] (三)AMD与亚马逊Trainium:暂处落后的追赶者 - AMD和亚马逊Trainium目前在推理成本竞争中处于落后位置,报告估算其代际成本降幅仅约30%,绝对成本明显不及英伟达GPU和谷歌TPU[12] - 市场亮点在于:AMD计划在2026年下半年推出基于MI455X的Helios机架解决方案,据称其训练和推理性能将对标英伟达VR200,并有望实现约70%的推理成本下降;亚马逊Trainium 3&4据传将修复Trainium 2的性能短板,性能有望显著提升[12] - 后续关键在于能否兑现技术承诺,通过产品迭代缩小差距,并争取更多超大规模云客户和主流AI企业的认可[13] 三、技术趋势 - 随着计算芯片接近掩模限制,未来AI芯片性能提升和成本下降将主要依赖网络、内存和封装三大相邻技术的创新突破[15] - 网络技术方面,通过扩展以太网提升系统带宽,实现更多GPU协同工作成为行业共识[15] - 内存技术方面,HBM与NAND闪存集成持续深化,英伟达的上下文内存存储控制器是典型案例,有效提升了训练和推理效率[15] - 封装技术方面,台积电的CoWoS技术已实现两颗GPU芯片封装整合,英伟达计划2027年推出的Rubin-Ultra将集成四颗GPU芯片,同时CPO和机架级高密度集成技术也在快速发展[17] - 英伟达和博通在这些技术领域已占据先发优势:博通凭借领先的以太网网络和SERDES能力成为AI网络核心受益者;英伟达通过全栈式创新在硬件、软件、网络、内存等多环节形成协同优势[17] 四、四大场景下的行业演化路径 - 高盛勾勒了AI行业未来发展的四大潜在场景,不同场景下GPU与ASIC竞争格局将呈现不同特征,但ASIC在各类场景中均有望获得不同程度的发展[18] - **场景一:企业与消费级AI应用普及有限**。若AI仅在编码、后台流程自动化等少数场景落地,行业资本支出将趋于温和,应用场景的稳定性将加速ASIC的采用[18] - **场景二:消费级AI持续增长,企业级AI进展有限**。训练市场重要性凸显,英伟达有望维持训练领域主导地位;随着工作负载逐渐静态化并集中于超大规模云厂商,ASIC市场份额将逐步提升[18] - **场景三:消费级AI增长,企业级AI温和渗透**。英伟达能凭借训练市场优势巩固地位,企业级市场增量需求将带来更多收入机会,ASIC也将在特定场景中稳步拓展[18] - **场景四:消费级与企业级AI全面强劲增长**。这是最乐观场景,随着多媒体模型、物理AI等应用扩展,LLM提供商和初创企业有望盈利,训练强度保持高位。英伟达将充分受益于训练市场的垄断地位,其“上市时间”和CUDA生态护城河进一步强化;ASIC虽能受益于工作负载规模扩大,但市场份额增长速度相对平缓[18]
CPU逻辑梳理
傅里叶的猫· 2026-01-26 22:42
文章核心观点 - 近期CPU市场受到关注,主要受AI发展驱动,特别是Agentic AI带来了增量需求,同时供给侧存在产能限制,共同推动了CPU涨价 [1][2][3] - 此次CPU涨价逻辑主要适用于AI场景,尤其是服务器端CPU,而主要用于信创的国产CPU与此轮涨价的直接关联性较弱 [2][4] - CPU产业格局正在动态演变,x86架构仍主导服务器和桌面市场,但AMD份额持续提升,ARM等非x86架构也在加速渗透 [8][9] CPU涨价逻辑更新 - **需求驱动因素**:AI发展是CPU需求的核心增量来源 [2] - **性能增量需求**:如DeepSeek的Engram等技术,通过将大量静态嵌入表从HBM转移到DRAM,可能提升对柜内/服务器内部CPU的性能要求,但不会直接增加CPU个数 [2] - **个数增量需求**:目前对CPU增量需求最大的是Agentic AI,其需要的是柜外CPU,这部分需求是增量的,且不受GPU配比关系影响 [2] - **供给限制因素**:产能紧张制约CPU供应 [2] - 台积电先进制程产能优先保障AI芯片,CPU主要使用的次高端制程产能分配受限 [2] - CPU生产所需的通用半导体设备(如检测设备)和耗材(如BT载板)供应紧张,间接影响CPU厂商的产能释放 [2] - **市场现状观察**:近期服务器端CPU出现涨价,市场分析需求端主要来自AI Agent,但同时4090/5090和Hopper等GPU也非常紧缺,具体需求爆发原因尚待确认 [3] - **涨价持续性**:目前服务器CPU虽有涨价,但拿货较为容易,未出现缺货现象,涨价能持续多久尚无法详细测算 [15] 国产CPU与涨价逻辑的关联 - 国产CPU若主要用于信创市场,而非AI场景,则与当前这波由AI驱动的CPU涨价逻辑不完全符合 [4] - 信创市场本身规模足够大,因此无需担心信创CPU的业绩表现 [4] CPU产业科普:分类与格局 - **按指令集分类**:CPU主要可分为复杂指令集(CISC)和精简指令集(RISC)两大类 [5] - **CISC(以X86为代表)**:指令系统庞大复杂,兼容性强,配套软件及开发工具成熟,在服务器、工作站和个人计算机等领域占据优势 [5][6] - **RISC**:包括ARM、MIPS、Alpha等架构,指令长度固定,设计相对简单 [5][6] - **ARM架构**:具有低功耗、小体积特点,在智能手机、平板电脑等移动终端市场占据主导 [5][6] - **MIPS架构**:设计简单、功耗较低,在嵌入式应用场景具有优势 [5][6] - **Alpha架构**:结构简单,易于实现超标量,适用于高主频计算 [6] - **按应用场景分类**:可分为服务器CPU、工作站CPU、桌面级CPU、移动端CPU和嵌入式CPU,各自在核心数、互联架构、可靠性、功耗及内存支持等方面有不同特征 [7] - **全球市场格局**:服务器与桌面级CPU市场仍由x86架构主导,但竞争激烈 [8][9] - 预计2025年,x86架构在全球服务器市场份额达70.35% [8] - 英特尔份额受到AMD侵蚀:在服务器CPU市场,英特尔份额从2018年的98%以上降至预计2025年的55.2%,而AMD份额预计将升至36.1% [8] - 在桌面CPU市场,2025年第三季度AMD在x86市场的份额达33.6%,环比提升1.4个百分点 [8] - 非x86架构加速突破:预计2025年ARM架构在服务器CPU市场的营收份额有望达到8.7% [9] - **国内市场格局**:英特尔与AMD合计占据约80%市场份额,处于主导地位 [9] - 华为、龙芯中科、海光信息和兆芯等国产CPU制造商正积极布局,逐步打破垄断 [9] - **信创市场格局**:第一梯队为华为鲲鹏和海光,市场份额分别为26.15%和20.24%,产品性能领先且单价较高;龙芯中科和飞腾在党政信创市场订单量较大,份额分别为3.88%和6.43% [13] - **主要国产CPU厂商产品参数**:列举了兆芯、华为、飞腾、龙芯中科、申威等厂商的部分CPU产品在指令集、核心数、频率、缓存、内存支持等方面的关键参数 [12]
北美缺电--HRSG产业逻辑梳理
傅里叶的猫· 2026-01-25 19:58
燃气内燃机与燃气轮机技术对比 - 燃气内燃机发电效率为42%-45%,主流品牌水平,高于单独使用的燃气轮机约30%的效率,但低于联合循环燃气轮机约50%+的效率[2] - 燃气内燃机全生命周期电价成本为3-4毛/度,基于北美天然气价格,其中燃料成本2-3毛,运维成本1毛,该成本低于单独使用的燃气轮机,略高于或接近联合循环燃气轮机[2] - 燃气内燃机单台功率主流区间为2-4兆瓦,最高可达4兆瓦,而燃气轮机单台功率为10-20兆瓦,能量密度高且尺寸与内燃机相近[2] - 燃气内燃机2026年产能已售罄,货期延至2027-2028年,2026年总交付能力约为1吉瓦,约5000台,美国主流燃气轮机品牌货期也已排至2028年,产能被数据中心预定一空[2] - 燃气内燃机典型应用为北美多数AI数据中心项目,如Meta、亚马逊相关项目,其核心优势是效率高、成本低、技术成熟、运维简单,核心劣势是单台功率低,大规模应用需多台组合[2] - 单独使用的燃气轮机核心优势是能量密度高、部署速度快、结构简单,核心劣势是效率低、成本高、燃料利用率低,暂无大规模数据中心主用案例[2] - 联合循环燃气轮机典型应用为马斯克孟菲斯Super X 10万卡集群,搭配联合循环提升效率,核心优势是效率大幅提升,余热利用充分,可制冷或产热,核心劣势是系统复杂、投资成本高,数据中心应用案例少[2] HRSG余热锅炉产业动态 - HRSG的刚需性源于燃气轮机主机产能稀缺与数据中心电力需求激增的矛盾,使用HRSG的联合循环方案相比不用HRSG的方案发电效率差别巨大[4] - 按北美工业电价及燃气轮机年度发电小时数测算,采用HRSG带来的年化经济性差距,单吉瓦规模高达数十亿美金,更重要的是能在有限的气电装机资源下发出更多电力,缓解北美缺电问题[4] - 美国环保署新规变化后,燃气轮机部署要求显著提高,为保证充足供电量,HRSG成为北美各类燃气轮机电站的刚需,产业端信息显示北美HRSG需求显著提升,价格快速上涨[5] - HRSG订单利润率在不同地区存在差异,北美地区在30%以上,欧洲为20%-30%,中东及非洲等新兴市场为15%-20%,国内为15%[5] - HRSG存在涨价预期,北美订单涨价幅度将超过15%-20%,乐观预期或达30%,中东订单涨价幅度初步预期在10%-15%左右,最终可能超过20%[5] 产业背景与需求驱动 - 北美地区持续存在缺电逻辑,燃气轮机主要大厂2028年的产能已被预订,供电缺口需要其他方式补齐,这是燃气内燃机发展的基本逻辑[2] - 数据中心对可持续供电的电力需求激增,与燃气轮机主机产能稀缺形成核心矛盾,推动了包括燃气内燃机和HRSG联合循环在内的解决方案需求[4]
AI芯片格局
傅里叶的猫· 2026-01-24 23:52
一、TPU的崛起与挑战 - Google TPU凭借对LLM的原生优化优势,正成为OpenAI、苹果等科技巨头的重要选择,逐渐打破英伟达GPU的垄断格局[3] - 从GPU生态迁移至TPU面临显著的技术适配挑战,包括数值表示和精度体系差异,模型转换过程复杂,根据参数量差异,复杂模型的转换周期可能长达一周[4] - 全球AI算力需求爆发式增长,TPU出现约50%的供给缺口,导致算力排队和项目延期,并将生产压力传导至核心代工方台积电[5] - TPU基于Google自研的JAX开源框架,与主流的CUDA生态不兼容,熟悉JAX的开发者占比极低,抬高了使用门槛[5][6] 二、TPU与AWS Trainium的对比 - Google TPU将矩阵和张量运算嵌入芯片硬件层面,在LLM规模化运行中具备显著效率优势,是OpenAI选择其作为推理核心的关键原因[7] - AWS Trainium未将矩阵运算模块集成于芯片本身,需依赖外部库和内存调用,导致单芯片效率受限,在大规模集群中累计效率损耗显著[7] - 在网络架构上,谷歌通过GKE在垂直扩展能力上突出;AWS凭借Elastic Fabric Adapter在水平扩展上有优势;英伟达在InfiniBand等技术上实现了横竖扩展的较好平衡[8] - AI芯片竞争已延伸至软件生态、网络架构等全栈协同,Google TPU的“芯片+框架+网络”闭环生态构成了核心壁垒[8] 三、Oracle的逆袭策略与风险 - Oracle凭借绑定美国政府政策和联合产业链伙伴囤积高端芯片,实现了“弯道超车”[9] - 根据美国临时规定,截至10月底,部分硬件厂商需优先供应政府机构,Oracle借此成为政府芯片采购核心伙伴,并联合CoreWeave、Nebius等近乎垄断了H200、B200等高端芯片的市场供给[10] - Oracle与OpenAI签订了未来4-5年价值3000亿美元的计算资源合作协议,通过算力转售赚取20%-25%的抽成[10] - Oracle缺乏自研LLM和成熟的数据中心运营经验,其AI业务与核心数据库业务脱节,商业逻辑高度依赖与Palantir的“数据+算力”互补合作[11] - 未来面临谷歌、微软等巨头的算力竞争加剧,以及若芯片产能缓解、政策红利消退,其资源垄断优势将快速弱化的挑战[12] 四、OpenAI的资金与商业困境 - OpenAI陷入“高投入、低产出”的资金困境,年营收约120亿美元,乐观估算年现金流仅60亿美元,但其总投入规模达3000亿美元级别,现金流无法覆盖需求[14] - 全球多地(欧洲、日本、澳大利亚、印度等)存在算力供给缺口,制约其全球化扩张[14] - LLM推理业务是其核心收入,但该业务毛利率乐观估计仅30%左右,净利率约25%,当前20美元/月的个人订阅价难以可持续盈利,需提价至40-50美元/月[15] - 相比谷歌拥有30亿日活用户的产品生态,OpenAI在企业级应用和云服务上布局薄弱,缺乏稳定落地场景,议价能力较弱[15] - OpenAI计划与博通合作研发专属TPU/NPU芯片,目标在12个月内启动部署,达成10GW级AI加速器容量,涉及百亿级美元订单,但该计划被行业认为不切实际,缺乏经验、资金和供应链资源[16] 五、大模型的未来发展方向 - 当前自回归式大模型出现性能增益边际递减问题,参数量扩大带来的性能提升收窄,而算力成本指数级增长[17] - “用AI生成的数据训练AI”的闭环模式可能导致数据质量劣化[17] - 电力供应不足已成为制约算力集群扩张的现实物理瓶颈,对英伟达的过度依赖导致全供应链承压[17] - 未来发展方向包括:1) 混合专家模型(MoE),通过任务分工降低算力成本并提升效率;2) 扩散模型,一次性生成整体语境以提升推理效率;3) 多模态与实体数据融合,拓展应用场景[18][19] - AGI短期内难以实现,大模型将回归工具属性,行业竞争焦点从“做出更强的模型”转向“更好地落地模型价值”[19]