Workflow
GB200
icon
搜索文档
海外及传媒年度策略:算力飞轮、多极模型生态与Agent化生产力
华安证券· 2025-12-17 13:30
核心观点 - 生成式AI正从依赖单一算力供应商的“算力飞轮”阶段,演进为“多极大模型生态”与“全栈Agent化”并行的新阶段 这标志着底层算力架构、上层模型格局以及应用层生产力工具均发生结构性重塑 [3][22] 算力与大模型格局 - **算力体系从单一走向多元**:从2024到2025年,算力体系从“单一GPU体系”转向多架构并行 预计到2026年,NVIDIA通过Blackwell/Rubin、GB200继续提升算力与互联能力 同时,AMD Instinct、谷歌TPU、亚马逊Trainium及中国自研加速芯片通过技术和市场博弈,推动全球芯片市场结构性重塑 [3][22] - **大模型格局呈多极化**:OpenAI、Gemini、Anthropic在多模态、长上下文、Agent工作流等方向保持领先探索优势 DeepSeek、Qwen、kimi、豆包、文心等则在成本、开源、本地化与行业定制上形成差异化竞争 [3][23] - **企业采购策略变化**:企业侧开始根据“算力成本 + 模型能力 + 数据资产”进行组合采购与多云部署 [3][23] AI服务器互联架构 - **互联架构升级**:从“板内PCIe+铜缆”迈向整仓级光互联与可重构网络 NVIDIA通过NVLink/NVSwitch将单柜72卡GPU构建为高度耦合、近似“逻辑大GPU”的计算单元,并探索硅光与CPO [4][24][25] - **开放互联方案兴起**:超大规模云厂商加速采用Ultra Ethernet、UALink、CXL 3.0 +SuperNIC等方案,分别解决Scale-out、Scale-up、内存及IO解构等不同瓶颈 [4][25] - **光电分工重塑**:光承担中长距承载与拓扑重构,电聚焦近距互连与协议处理 谷歌将OCS封装为高性能网络服务 [4][25] - **速率与散热演进**:800G为主流速率,1.6T有望在2026年加速渗透 AI数据中心液冷渗透率预计将从2024年的约14%快速提升到2025年的30%+ [4][25] AI存储超级周期 - **全品类存储进入高景气周期**:AI服务器迈向“算力+存力+带宽”架构,带动存储产业 [4][27] - **HBM**:12-Hi HBM3e成为Blackwell主力 HBM4有望在2026年后引入16-Hi堆叠 [5][28] - **GDDR7 & LPDDR6**:推理GPU、AI工作站及端侧设备进入带宽升级周期 [5][29] - **DDR5 & CXL**:服务器迁移至DDR5、单机容量提升 CXL商用打破CPU通道限制 [5][30] - **NAND/QLC eSSD**:向量数据库与多模态训练数据湖驱动QLC企业级SSD加速替代近线HDD,支撑NAND量价稳健增长 [5][31] 多模态与视频生成进入生产级 - **视频生成模型成熟**:谷歌Veo 3.1支持1080p高质量视频与原生音频,推理成本显著下降 快手的可灵O1以统一多模态底座实现文本驱动的生成与视频编辑一体化,强化多镜头一致性 [7][32][33] - **应用场景落地**:类似Veo 3.1与Kling的组合已经开始在广告、短剧、游戏过场中承担部分“生产角色”,重塑影视、自媒体与广告电商等内容供应链 [7][33] AI Agent商用化与生产力度量 - **AI Agent进入可度量商业化阶段**:Cursor在2025年11月年化收入突破10亿美元 Salesforce Agentforce + Data 360 ARR接近14亿美元,其中Agentforce单独ARR超5亿美元,同比增长超300% AI Agent从试用转入“订阅+席位扩容”阶段 [8] - **数据云与安全基础设施受益**:Snowflake FY26 Q3产品收入11.6亿美元,同比增长29%,其Agentic AI上线首月吸引1,200家客户试用 Datadog通过LLM Observability、Agent监控等成为企业运行大模型/Agent的“安全网”,驱动ARPU提升 [8] 应用层:广告、游戏与自动化重构 - **广告投放流程重塑**:Meta Advantage+、Google Ads生成式创意与AppLovin Axon 2.x重塑广告投放流程 AI大幅降低游戏与内容制作成本 [9] - **游戏行业焕发新生**:2025年前三季度游戏公司收入流水表现亮眼 腾讯的《三角洲行动》、网易的《第五人格》和《永劫无间》等代表产品拉动业绩增长 利润侧费用管控效果显著,新游上线未大幅拉动销售费用增长 2026年产品储备充分,AI在制作、营销、玩法等环节持续赋能 [9] - **端侧AI演进**:生成式AI和端侧模型能力提升,正推动智能终端从“硬件堆料”向“AI原生入口”演进 [9] 影视行业 - **2026年内容储备充足**:部分影视公司已储备较为充足的2026年影片pipeline,涵盖商业大片、系列化作品及多元题材,内容供给确定性和可持续性增强 [9][11] - **AI赋能创作**:图片及视频生成模型持续成熟,AI正逐步渗透至概念设计、分镜制作、特效生成与后期剪辑等核心环节 AI漫剧在降低制作成本、缩短生产周期方面已有所验证 [11] - **商业模式IP化**:影视内容正加速向IP化、系列化与生态化演进,部分核心IP已实现跨电影、剧集、动画、衍生品及线下场景的多元商业化 [11] 出版行业 - **估值与股息优势**:板块整体PE处于历史低位,叠加教材教辅业务的刚需属性,构筑安全垫 出版企业账期较好且资本开支极低,普遍具备长期维持稳定股息率的能力 [12] 港美股行情复盘与投资主线 - **2025年美股走势**:纳斯达克综指全年录得22%的年度涨幅 谷歌(+70%)与英伟达(+32%)显著跑赢大盘,成为核心动能 [38][40][41] - **2025年港股走势**:恒生科技指数录得30%的年度涨幅 阿里巴巴(+95%)、快手(+73%)、百度(+50%)、腾讯(+48%)及哔哩哔哩(+48%)显著跑赢大盘 [61][64] - **投资主线一:高确定性的CSP厂商及产业链**:算力供需存在结构性错配,头部云服务提供商(CSP)凭借巨额资本开支和供应链议价权构建高壁垒 从现金流看,主要CSP厂商OCF/CapEx占比处于50%-80%健康水位 云业务收入与CapEx投入能见度高,如微软与OpenAI签下2500亿美元订单,AWS与OpenAI签署380亿美元协议 [87][88][90][94][97] - **投资主线二:多模态AI应用元年**:2025年是关键年份,谷歌、OpenAI等密集推出具备商业落地能力的迭代版本,如Veo 3、Sora2等,推动视频生成进入生产级 [104]
谷歌本周审厂?液冷放量元年在即—2026年行业逻辑梳理及出海展望
傅里叶的猫· 2025-12-15 21:16
液冷产业相关介绍我们在前期文章反复提及,在此不过多赘述。本文章更多叙述2026年液 冷行业供需两侧逻辑/数据及国内厂商的出海机会展望。 千亿的液冷赛道 英伟达Rubin的液冷新方案? GB200 GB300液冷价值量拆解 需求侧 1、随着单AI算力卡及机柜功耗越来越高,风冷无法满足相应算力卡及机柜的散热要求,必须要上液 冷方案才能解决相应散热问题。(单柜功耗>35-40KW即无法上风冷) 2、北美缺电严重,液冷能显著降低PUE,大幅节约单位算力密度总能耗,缓解缺电导致的数据中心 项目推迟。(液冷方案PUE<1.2),不要小看这一点点的降低,数据中心的电费是非常夸张的,这 也是为什么国内很多数据中心都建在内蒙古、新疆等地的原因。 3、北美不少数据中心项目离经济中心或居民区域相对较近,液冷相对风冷散热方案能显著降低数据 中心机房噪音,促使数据中心项目落地进程加快,减少资金垫付财务成本 目前英伟达GB200及以上更高级机柜系列方案全面运用液冷散热方案;谷歌的TPU V7 及以上更高级 机柜系列方案全面运用液冷散热方案(此前TPU V3有尝试运用液冷方案,但当下量不大);Meta的 MTIA V2及以上更高级机柜系列 ...
以NV服务器分销商的身份分析H200的放开
是说芯语· 2025-12-09 14:37
美国放开H200的原因 - 英伟达努力劝说美国政府放开H200的主要原因是为了清理库存 库存主要集中在英伟达和代工模组厂商 而上游台系ODM厂库存极低 且因超微被美国商务部调查导致供应链提货能力不足 [3] - 美国市场的主流产品已转向B系列(如GB200 B200/B300) 依靠美国市场消化H200较为困难 中国市场成为关键的去库存目标 [4] - 美国数据中心面临电力供应紧张问题 Blackwell架构相比H100/H200更省电且能效比更高 未来H100/H200将逐步下架 这些旧型号设备在美国内部难以消化 最理想的处理方式是合法卖给中国以实现库存转移 [4] 中国对H200放开的态度 - 市场看法存在两极分化 一方认为国产AI芯片性能尚不及H200 大厂有需求 因此会同意放开 另一方认为同意放开等于自废武功 不利于国产芯片发展 并给予美国未来再次禁运的机会 [5] - 从经济性角度 没有禁掉H200的理由 其单卡性能(算力和显存带宽)高于国内AI卡 [6][7] - 许多旧代码基于Hopper架构 H200可以即插即用 深受大厂青睐 此前H200虽禁运但实际在国内已有流通 海关主要严查H20等阉割版 若美国放开后中国再禁掉显得不合理 [9] - 根据Bernstein分析 明年国产GPU产能不会大幅提升 到2027年提升才会比较大 表明目前对高端AI卡仍比较短缺 [9] H200放开对国产市场的影响 - H200对中国客户具有实际应用价值 目前国内云服务提供商主要用于训练 因为用于推理性价比不高 而国产AI芯片目前大部分用于推理场景 在推理中 国产GPU厂商可预先写好算子供客户直接调用 但在训练中需要客户自己编写算子 对硬件底层和软件易用性要求更高 此外 训练需要集群中所有卡协同工作 对集群互联和稳定性要求高 因此H200目前不与国产GPU卡直接竞争 对国内GPU卡影响不大 [10][11] - 由于内存价格翻倍上涨 即便H200模组降价1万美元 总体成本节省有限 经济性不会显著提升 [12] - 对于资本开支较大的几家云服务提供商 其上半年针对B系列的采购并不多 国内B系列保有量也较少 很多在等待性能相比H200提升很多的B300 [12] - 市场上关于H200放开的消息引发情绪波动和激烈讨论 但实际影响有限 真正决定走势的是政策取向、市场需求与资金状况 而非单纯的技术可用性 [14]
H200放开的理性分析
傅里叶的猫· 2025-12-09 10:50
美国放开H200的原因 - 英伟达努力劝说美国政府放开H200的主要目的是清理库存 库存主要集中在英伟达和代工模组厂商 而上游台系ODM厂库存极低 且因超微被美国商务部调查导致供货受限 整体供应链提货能力不足 [2] - 美国市场主流产品已转向B系列 如GB200或8卡机B200/B300 依靠美国市场消化H200库存较为困难 中国市场是关键 [2] - 美国数据中心面临电力供应紧张问题 Blackwell架构相比H100/H200更省电并支持液冷 能效比更高 未来H100/H200将逐步下架 这些旧型号设备若无法在美国消化 最理想的处理方式是合法卖给中国以实现库存转移 [2] 中国对H200放开的态度 - 国内舆论对H200放开看法两极分化 一方认为国产AI芯片性能尚不及H200 大厂有需求 另一方认为同意放开等于自废武功 不利于国产芯片发展 且给予美国未来再次禁运的机会 [3] - 从经济性角度 没有禁掉H200的理由 其单卡性能 主要是算力和显存带宽 高于国内AI卡 [4][5] - 许多旧代码基于Hopper架构 H200可即插即用 深受大厂青睐 且此前H200禁运期间 国内已有流通 海关主要严查H20等阉割版 若美国放开后中国再禁 显得不合理 [8] - 根据Bernstein分析 明年国产GPU产能不会大幅提升 到2027年提升才会比较大 表明目前对高端AI卡仍有较大需求 [8] - 领导层决策不仅基于经济角度 更多考虑政治因素 是否允许进口取决于中美关系走向 若双方关系缓和则放行可能性高 若继续博弈则可能拒绝以示强硬 需在经济发展与科技自主之间权衡 [11] H200放开对国产市场的影响 - H200目前主要被国内云服务提供商用于训练 而国产AI芯片大部分用于推理场景 两者应用场景重叠度有限 H200不直接与国产GPU卡竞争 对国产GPU卡影响不大 [12] - 在推理场景中 国产GPU厂商可预先写好算子供客户直接调用 省时省力 但在训练场景中 算子需客户自己编写 对国产GPU的底层硬件和软件易用性要求更高 同时训练任务对集群互联和稳定性要求也更高 [12] - 由于内存价格翻倍上涨 即便H200模组降价1万美元 总体成本节省有限 经济性不会显著提升 [13] - 对于资本开支较大的云服务提供商 上半年针对B系列的采购并不多 国内B系列保有量也较少 很多在等待性能相比H200提升很多的B300 [13] - 市场消息引发情绪波动 但实际影响有限 真正决定走势的是政策取向、市场需求与资金状况 而非单纯的技术可用性 [14] 国内AI算力硬件供应链梳理 - 文章附带了国内谷歌供应链与英伟达供应链的上市企业梳理表格 涉及光模块/光学器件、服务器电源、液冷、变压器/SST系统等多个环节 列出了部分公司的出货产品、产品市占率、供货方式、毛利率及2026年订单预期等信息 [16] - 涉及的谷歌供应链公司包括光库科技、德科立、腾景科技、赛微电子、欧陆通、英维克、思泉新材、飞荣达、科创新源、金盘科技、伊戈尔、京泉华、四方股份等 [16] - 涉及的英伟达供应链公司包括英维克、思泉新材、科创新源、淳中科技、鼎通科技、麦格米特、京泉华、金盘科技、四方股份等 [16]
谷歌 TPUv7:业界 “重量级巨头”,不容忽视中英
2025-12-01 08:49
涉及的行业或公司 * 人工智能(AI)芯片与硬件行业[4] * 云计算服务提供商(CSP)行业[36] * 谷歌及其TPU芯片、Google Cloud Platform(GCP)[4][8][36] * 英伟达及其GPU和CUDA生态系统[4][7][17] * 亚马逊及其Trainium芯片[4] * AI研究实验室/公司:Anthropic、Meta、SSI、xAI、OpenAI[9][20][33][45] * 供应链公司:博通、TeraWulf、Cipher Mining、Fluidstack[44][48][50] * 其他芯片设计公司:AMD[79] 核心观点和论据 * **谷歌TPU成为英伟达强劲竞争对手**:TPUv7 Ironwood在性能上已接近英伟达旗舰GPU,并在总拥有成本上具有显著优势[8][60][92][95] * 论据1:世界上最好的模型(如Gemini 3、Claude 4.5 Opus)主要在TPU上训练[4][8][20] * 论据2:TPUv7的理论峰值FP8算力为4,614 TFLOPS,内存带宽为7.3 TB/s,与GB200差距很小,但TCO低约44%[86][95][96] * 论据3:谷歌开始向外部客户(如Anthropic)大规模销售和租赁TPU,标志着其商业化战略的重大转变[9][20][36][44] * **系统架构优势比微架构更重要**:谷歌TPU的核心竞争力在于其大规模互连系统(ICI),而非单一芯片的峰值算力[8][60][62][131] * 论据1:TPUv7的ICI网络支持最大9,216个TPU的3D Torus集群,远超商用GPU集群规模(通常64/72 GPU)[131][202] * 论据2:采用光电路交换机实现网络拓扑的灵活重构和高可用性[164][165][166][203] * 论据3:即使历史上TPU芯片纸面规格落后,其系统级优化仍能实现与英伟达相当的效能[60][62] * **TPU提供显著的总拥有成本优势**:对于有能力优化的大型客户,TPU的每有效算力成本远低于英伟达解决方案[12][29][95][110] * 论据1:Anthropic通过GCP租赁TPU,估计TCO比GB300低约41%[99] * 论据2:OpenAI尚未部署TPU,但凭借竞争威胁已使其NVIDIA机队总效率提升约30%[12][30] * 论据3:TPU市场宣传的算力更接近实际可持续性能,而NVIDIA/AMD的峰值算力在实际负载中利用率较低(训练约30%)[103][107] * **对英伟达主导地位和"CUDA护城河"构成挑战**:TPU生态系统的成功可能削弱英伟达在AI计算领域的垄断[1][4][17][28] * 论据1:英伟达采取股权投资而非降价策略来维持其在高阶实验室的地位,反映了竞争压力[27][28] * 论据2:TPU软件栈虽不如CUDA易用,但对于像Anthropic这样拥有强大工程能力的公司并非障碍[104][105][106] * 论据3:报告指出,谷歌需要开源其XLA:TPU编译器等相关工具,才能使TPU生态系统真正成为CUDA的有力竞争者[15] 其他重要内容 * **Anthropic与谷歌的重大交易细节**:交易涉及100万个TPUv7芯片,总价值巨大[33][44] * 40万个TPUv7由Anthropic直接向博通购买,价值约100亿美元的成品机架[44] * 60万个TPUv7通过GCP租赁,估计合同价值420亿美元,占GCP第三季度积压订单增长(490亿美元)的大部分[44][45] * **数据中心电力成为关键瓶颈**:谷歌TPU部署速度受限于电力供应和漫长的数据中心供应商合同审批流程(长达3年)[46][47] * **"新云"和加密矿工的角色演变**:谷歌通过提供资产负债表外"欠条"信用支持,促使像Fluidstack这样的灵活"新云"提供商与转型AI的数据中心(如前加密矿场TeraWulf)合作,解决了GPU集群(4-5年寿命)与数据中心租约(15+年)期限不匹配的融资难题[48][51][53][55][56] * **谷歌TPU的定价和利润率策略**:即使加上谷歌的利润,外部客户的TPU TCO仍可能比英伟达GPU低30-41%,同时谷歌仍能获得可观的EBIT利润率(估算GCP-Anthropic交易首年EBIT利润率约37.5%-44%)[99][124][126][129] * **下一代芯片竞争**:报告预告将在付费部分比较英伟达的Vera Rubin与谷歌的下一代TPUv8AX/TPUv8X(代号Sunfish/Zebrafish)[1][16]
SemiAnalysis深度解读TPU--谷歌冲击“英伟达帝国”
硬AI· 2025-11-29 23:20
市场格局转变 - 2025年AI芯片市场处于微妙转折点,英伟达凭借Blackwell架构维持技术和市场份额的绝对领先,但谷歌TPU的全面商业化正对其定价权构成挑战[1][2] - OpenAI仅凭“威胁购买TPU”这一筹码,就迫使英伟达生态链做出实质性让步,使其计算集群的总拥有成本(TCO)下降约30%[2] - 谷歌正式从“云服务商”转型为直接向外部出售高性能芯片与系统的“商用芯片供应商”,Anthropic高达1GW的TPU采购细节曝光标志着这一战略转变[3] - 当谷歌愿意开放软件生态并提供金融杠杆时,英伟达高达75%的毛利率神话便不再牢不可破[3][7] 重大交易与商业模式创新 - Anthropic确认将部署超过100万颗TPU,此交易采用“混合销售”新模式,首批约40万颗最新的TPUv7 "Ironwood"由博通直接出售给Anthropic,价值约100亿美元[8] - 剩余60万颗TPUv7通过谷歌云进行租赁,估计这部分交易涉及高达420亿美元的剩余履约义务(RPO),直接支撑了谷歌云近期积压订单的暴涨[9] - 谷歌通过“资产负债表外”的信贷支持(IOU)解决AI基础设施建设的期限错配问题,承诺如果中间商无法支付租金,谷歌将介入兜底[16] - 这一金融工具打通了加密货币矿工与AI算力需求之间的堵点,构建了独立于英伟达体系的低成本基础设施生态[17] 技术优势与成本竞争力 - 谷歌TPUv7在成本效率上对英伟达构成碾压优势,从谷歌内部视角看,TPUv7服务器的TCO比英伟达GB200服务器低约44%[13] - 即便加上谷歌和博通的利润,Anthropic通过GCP使用TPU的TCO,仍比购买GB200低约30%[13] - 谷歌通过极致的系统设计弥补单芯片理论算力的不足,TPUv7采用更务实的设计哲学,通过更高的模型算力利用率(MFU)来提升实际产出[20] - 谷歌独步天下的光互连(ICI)技术利用自研的光路交换机(OCS)和3D Torus拓扑结构,允许单个TPUv7集群扩展至惊人的9,216颗芯片,远超英伟达常见的64或72卡集群[23][24] 软件生态战略调整 - 谷歌软件团队的KPI已发生重大调整,从“服务内部”转向“拥抱开源”,全力支持PyTorch Native在TPU上的运行[30][31] - 谷歌不再依赖低效的Lazy Tensor转换,而是通过XLA编译器直接对接PyTorch的Eager Execution模式,使Meta等客户可几乎无缝迁移代码到TPU[33] - 谷歌开始向vLLM和SGLang等开源推理框架大量贡献代码,打通了TPU在开源推理生态中的任督二脉[34] - 这一转变意味着英伟达最坚固的“CUDA护城河”,正在被谷歌用“兼容性”填平[36] 行业影响与竞争态势 - 除了Anthropic,Meta、SSI、xAI等顶级AI实验室也出现在了谷歌TPU的潜在客户名单中[10] - 面对谷歌的攻势,英伟达罕见地展现出防御姿态,其财务团队近期针对“循环经济”的质疑发布长文辩解,显示谷歌的攻势已触及英伟达的神经[10] - Gemini 3和Claude 4.5 Opus这两大全球最强模型均完全在TPU上完成预训练,这为TPU系统处理最高难度任务的能力提供了终极背书[26] - 谷歌在外部客户定价上需要“穿针引线”,但对Anthropic等旗舰客户仍能提供有竞争力的价格,同时保持比商品化GPU交易更优越的息税前利润率[92][93]
SemiAnalysis深度解读TPU--谷歌(GOOG.US,GOOGL.US)冲击“英伟达(NVDA.US)帝国”
智通财经网· 2025-11-29 17:37
行业竞争格局变化 - 谷歌TPU的全面商业化使英伟达在AI算力市场的定价权出现松动,其高达75%的毛利率面临挑战[1] - 谷歌从云服务商转型为直接向外部出售高性能芯片与系统的商用芯片供应商,Anthropic的采购标志着这一战略转变[1][4] - 谷歌TPU已获得包括Anthropic、Meta、SSI、xAI等顶级AI实验室的采购意向,客户名单不断扩大[4][29] 具体交易与成本优势 - Anthropic确认将部署超过100万颗TPU,交易总价值巨大,其中首批40万颗TPUv7由博通直接出售给Anthropic,价值约100亿美元,剩余60万颗通过谷歌云租赁,涉及剩余履约义务高达420亿美元[4][42] - 谷歌TPUv7在总拥有成本上对英伟达构成显著优势,从谷歌内部视角看,TPUv7服务器的TCO比英伟达GB200服务器低约44%,即便加上利润,外部客户通过GCP使用TPU的TCO仍比购买GB200低约30%[7][64][67] - 具体成本数据显示,GB200 NVL72每小时每GPU总成本为2.28美元,而TPU v7外部版本为1.60美元,TPU在每FP8 PFLOP的TCO上优势明显[66] 技术系统与架构优势 - 谷歌通过极致的系统设计弥补单芯片理论算力的不足,TPUv7采用3D Torus拓扑结构和自研光互连技术,单个集群可扩展至9,216颗芯片,远超英伟达常见集群规模[12][15][17] - 光路交换机技术允许动态重构网络拓扑,实现毫秒级故障绕过和高可用性,同时降低功耗和延迟[15][17][101] - 系统级优势使得TPU在实际模型训练中实现更高的算力利用率,有效FLOPs可能超过英伟达Blackwell[69][72] 软件生态战略调整 - 谷歌积极拥抱开源,软件团队KPI从服务内部转向支持外部,全力支持PyTorch Native在TPU上运行,降低开发者迁移门槛[19][20][141] - 通过XLA编译器直接对接PyTorch的Eager Execution模式,并向vLLM、SGLang等开源推理框架贡献代码,提升TPU在开源生态中的兼容性[20][145][146] - 软件生态的开放旨在填平英伟达的CUDA护城河,为外部客户提供更平滑的过渡体验[22][142] 金融与商业模式创新 - 谷歌创新性地提供资产负债表外的信贷支持,承诺为中间商的数据中心租金兜底,解决了AI基础设施建设的期限错配问题,打通了加密货币矿工与AI算力需求之间的堵点[9][43][46] - 这种“超大规模厂商兜底”的金融工具成为Neocloud市场的新融资标准模板,推动了行业增长[46][47] - 在定价策略上,谷歌通过平衡自身盈利和客户竞争力,即使作为外部供应商,其TPU交易的息税前利润率仍优于许多大型GPU云交易[79][80]
SemiAnalysis深度解读TPU--谷歌冲击“英伟达帝国”
华尔街见闻· 2025-11-29 13:07
行业竞争格局演变 - 谷歌TPU的全面商业化正对英伟达在AI算力市场的定价权和主导地位构成实质性挑战,其高达75%的毛利率神话面临松动[1] - 谷歌已从云服务商转型为直接向外部出售高性能芯片与系统的商用芯片供应商,Anthropic、Meta、SSI、xAI等顶级AI实验室均出现在其潜在客户名单中[1][4] - 英伟达面对竞争压力展现出防御姿态,其财务团队近期针对"循环经济"的质疑发布长文辩解,显示出市场攻势已触及公司神经[5] 重大商业交易分析 - Anthropic已确认将部署超过100万颗TPU,此笔交易采用极具破坏力的"混合销售"新模式[4] - 交易中首批约40万颗最新的TPUv7 "Ironwood"由博通直接出售给Anthropic,价值约100亿美元,博通作为联合设计方成为隐形赢家[4] - 剩余60万颗TPUv7通过谷歌云租赁,估算涉及高达420亿美元的剩余履约义务,直接支撑了谷歌云近期积压订单的暴涨[4] 成本效率与TCO优势 - SemiAnalysis模型数据显示,谷歌TPUv7在成本效率上对英伟达构成碾压优势[7] - 从谷歌内部视角看,TPUv7服务器的总拥有成本比英伟达GB200服务器低约44%[7] - 即便加上谷歌和博通的利润,Anthropic通过GCP使用TPU的TCO仍比购买GB200低约30%[7] - 具体数据显示,GB200 NVL72每小时每GPU总成本为2.28美元,而TPU v7对外部客户的成本为1.60美元,内部成本更低至1.28美元[8][65] 技术创新与系统设计 - 谷歌通过极致的系统设计弥补了单颗TPU在理论峰值算力上的不足,TPUv7 "Ironwood"在内存带宽和容量上已大幅缩小与英伟达旗舰芯片的差距[12] - 谷歌独步天下的光互连技术是其杀手锏,利用自研的光路交换机和3D Torus拓扑结构,构建了名为ICI的片间互连网络[15] - 该架构允许单个TPUv7集群扩展至惊人的9,216颗芯片,远超英伟达常见的64或72卡集群,并具备动态重构拓扑、高可用性和低功耗延迟的优势[16][17] 软件生态战略转变 - 谷歌已对TPU软件战略做出重大转变,从固守JAX语言转向全力支持PyTorch Native在TPU上的运行,以拆除阻碍外部客户采用的最大障碍[19][21] - 谷歌不再依赖低效的Lazy Tensor转换,而是通过XLA编译器直接对接PyTorch的Eager Execution模式,使Meta等客户可几乎无缝迁移代码至TPU[21] - 公司开始向vLLM和SGLang等开源推理框架大量贡献代码,这意味着英伟达最坚固的"CUDA护城河"正被谷歌用"兼容性"填平[21][23] 金融工程与商业模式创新 - 谷歌通过"超级云厂商兜底"的金融工具创新解决了AI基础设施建设中的期限错配难题,承诺若中间商无法支付租金将介入兜底[9] - 这一资产负债表外的信贷支持打通了加密货币矿工与AI算力需求之间的堵点,构建了一个独立于英伟达体系的低成本基础设施生态[9] - 在Anthropic交易中,谷歌提供了独特的变通方案,不直接租赁而是提供信用兜底,形成了新的行业融资模板[42] 性能验证与市场影响 - 全球最顶尖的两个模型——Anthropic的Claude 4.5 Opus和谷歌的Gemini 3,其绝大部分训练和推理基础设施都运行在谷歌的TPU上,这是对TPU系统处理最高难度任务能力的终极背书[17][24] - OpenAI仅凭"威胁购买TPU"这一筹码,就迫使英伟达生态链做出了实质性让步,使其计算集群的总拥有成本下降了约30%[1][36] - 行业研究机构强调,客户购买的TPU越多,节省的Nvidia GPU资本支出就越多,这已成为核心商业逻辑[26][36]
大族数控20251127
2025-11-28 09:42
公司概况 * 公司为大族数控[1] * 公司明确调整经营策略,将所有资源投入到AI场景中,尤其是集中在盛虹这一核心企业上[3] 核心业务与技术进展 * 公司在HDI和机械钻孔领域,现有产品GB200、GB300已占据主导地位,大规模量产几乎全部由公司提供[2][4] * 公司80%的收入来自于钻孔设备[14] * 面对M9材料(高纯度石英布,硬度极高)的加工挑战,公司采用超快激光技术,该技术不依赖高温原理,通过精细控制实现对超硬材料的轻松加工,并已在苹果产品中大规模应用超快激光切割蓝宝石[2][5] * 针对AI场景下PCB钻孔工艺复杂性增加(线路密度和板厚度提升,需要多次钻孔和备钻工艺)的问题,公司开发了新技术应对多层板机械钻孔挑战[2][4][11] * CCD备钻设备在AI场景中市场表现突出,售价和毛利率几乎是普通设备的两倍,预计占AI场景所需钻机数量的40%-50%[4][12] * 高价值CCD钻机在2025年第三季度销售量有明显提升,占比达到10%至20%之间,其收入约占公司总收入的10%左右[12][13] * 新进入PCB领域公司的激光技术目前尚未对现有市场格局产生显著影响,因缺乏对PCB工艺的深入理解且难以接触顶级客户[15] 发展战略与未来规划 * 公司未来发展战略以钻孔工序为主,同时拓展曝光、成型、压合和测试等产品线,目标是在AI场景中实现价值最大化[2][6] * 公司正通过产品结构和客户结构的变化,转型为高端设备供应商,生产技术要求更高的高端产品,并与全球顶尖客户合作[2][20] * 公司计划在高端市场使核心产品(如钻孔设备)占据主要份额甚至全部市场份额[6] * 公司与全球顶尖客户彭鼎(全球最大的高端产品制造商之一)的合作在2025年取得重要进展,特别是在超快激光钻机方面,未来希望进一步深化合作[19] 财务表现与市场预期 * 公司2025年以来业绩表现出色,无论是同比还是环比,都呈现出稳步提升的态势[3] * 公司当前毛利率约为50%,并计划维持这一水平,若客户批量采购可能会调整价格但仍保持高端定位[21] * AI市场带来的增量市场预计达到一两千万美元,随着技术难度提升,设备价值也会持续提升[22] * 到2030年,PCB的价值量预计将提升至1,000-2,000亿美元(2021年全球PCB价值为800多亿美元),AI产业将催生一个新市场,规模甚至可能达到原来市场的两倍[2][8] * 尽管资本市场存在泡沫论,但行业内并未看到投资收缩迹象,主要科技公司(如谷歌、Meta、微软)和PCB板厂(如盛弘)仍在加大投入,长期行业发展前景乐观[16][17] * 2025年前三个季度公司在AI产业的投资持续增长,表现出显著的增长趋势,预计其他公司将在2026年进入大规模量产阶段[18] 技术路线图与产能规划 * 在二氧化碳激光向超快激光的转换方面,预计2026年中进行超快激光量产[2][7] * 超快激光设备目前尚未大规模出货,仍以实验类设备为主,但预计在1.6T光模块大规模商用后,高阶HDA工艺对超快激光加工需求将增加[2][9] * 超快激光设备细分市场预计将在2025年取得批量订单,并在2026年上半年实现规模化生产[2][9] * AI场景下,PCB制造过程中钻孔工序的价值占比超过20%[10]
本周见证AI里程碑时刻!2026投资主线已定
搜狐财经· 2025-11-28 07:07
美联储政策预期 - 高盛研判12月FOMC会议降息25个基点无悬念,市场定价概率已飙升至85%附近[1] - 纽约联储主席威廉姆斯支持近期调整利率,核心逻辑为就业市场降温加剧下行风险且通胀上行风险已缓解,此观点与鲍威尔及多数投票委员高度一致[1] - 此次降息被视为一次明确的风险管理式"保险降息",政策焦点从通胀转向就业,因核心通胀已非常接近2%的目标[1] 就业市场状况 - 9月非农新增11.9万人看似超预期,但失业率升至4.4%,为四年来最高水平[2] - 高学历群体就业情况快速恶化,25岁以上本科及以上学历失业率从2022年低点上升至2.8%,涨幅高达50%[2] - 20-24岁高学历年轻人失业率升至8.5%,该群体占劳动力总量40%及全部劳动收入55%-60%,其就业问题将对美国消费引擎产生巨大冲击[2] 科技成长股投资逻辑 - 流动性预期改善将压低贴现率,为未来现金流集中在远期的科技公司带来估值重塑空间[3] - AI赛道除流动性宽松外,还受到已上升至国家战略高度的AI军备竞赛驱动[4] - 美联储宽松周期确认的流动性利好与AI国家战略竞赛的基本面驱动力,可能形成科技成长股的"戴维斯双击"场景[7] 美国国家级AI战略 - 美国于11月24日正式启动代号为"创世纪计划"的国家级AI战略,战略定位与"曼哈顿计划"、"太空竞赛"同级别[4] - 计划核心目标为整合17个国家实验室的超级计算机和科学数据集,打造国家级AI科研平台,目标将科研周期从数年压缩至数天,提升联邦研发投资回报率10倍以上[4] - 计划聚焦六大优先领域:先进制造与机器人、生物技术、关键材料、核能、量子信息、半导体[5] - 计划时间表紧迫,签署后60天内提交重大科技挑战清单,180天内建成平台原型系统,暴露其紧迫感和战略决心[5] AI产业端表现 - 英伟达25Q3营收570.06亿美元,环比增长22%,同比增长62%,季度环比营收增长创下纪录[6] - 新一代产品GB300出货量已超过GB200,贡献Blackwell总收入约三分之二,从2025年初到2026年底,Blackwell和Rubin两代平台预计将带来5000亿美元收入[6] - 谷歌发布Gemini 3通用模型和Nano Banana Pro专业图像生成模型,现象级多模态模型推升算力和存力需求[6] - 海外科技巨头25Q3云计算营收超预期加速增长,数据中心供给紧张,AI云需求端呈现供不应求状态[6]