Workflow
谷歌TPU
icon
搜索文档
开源晨会-20260409
开源证券· 2026-04-09 22:42
2026 年 04 月 10 日 他 研 究 开源晨会 0410 ——晨会纪要 数据来源:聚源 0% 20% 40% 60% 80% 100% 2025-04 2025-08 2025-12 沪深300 创业板指 昨日涨跌幅前五行业 吴梦迪(分析师) 行业名称 涨跌幅(%) 通信 1.013 石油石化 0.886 电子 0.495 基础化工 -0.192 机械设备 -0.277 数据来源:聚源 昨日涨跌幅后五行业 | 行业名称 | 涨跌幅(%) | | --- | --- | | 美容护理 | -2.811 | | 商贸零售 | -2.256 | | 传媒 | -2.234 | | 非银金融 | -2.056 | | 综合 | -2.004 | 数据来源:聚源 wumengdi@kysec.cn 证书编号:S0790521070001 观点精粹 总量视角 【固定收益】城投持股上市公司新图谱:全景、变局与破局——固收专题-20260409 行业公司 【通信】谷歌和 Anthropic 联手催化谷歌链——行业点评报告-20260409 【非银金融】资产向好驱动业绩高增,银保拉动新单增长——行业深度报告 -2026 ...
行业点评报告:谷歌和Anthropic联手催化谷歌链
开源证券· 2026-04-09 22:11
通信 2026 年 04 月 09 日 投资评级:看好(维持) 行业走势图 0% 12% 24% 36% 48% 60% 72% 84% 96% 108% 120% 132% 144% 156% 168% 2025-04 2025-08 2025-12 2026-04 通信 沪深300 数据来源:聚源 相关研究报告 《谷歌 TPU 再落大订单,OCS 需求或 上调—行业点评报告》-2026.4.8 《谷歌链、豆包链、光纤迎新变化— 行业周报》-2026.4.5 《重视词元和超节点投资机会—行业 周报》-2026.3.29 谷歌和 Anthropic 联手催化谷歌链 谷歌和 Anthropic 双强联手,谷歌 TPU 需求或持续提升 谷歌在最新财报电话会议透露,公司第一方模型 API 每分钟消耗 Token 就超过 100 亿,Token 消耗量的结构性增长有望巩固公司在 AI 时代的盈利能力,也助推 模型在真实场景落地的过程中不断优化,或大幅拉动谷歌 TPU 需求。 4 月 6 日,Anthropic 表示,2026 年用户对公司旗下大模型 Claude 需求加速增长, 为满足不断攀升的算力需求,公司与谷歌和 ...
博通锁定芯片长约
半导体行业观察· 2026-04-07 09:16
博通与Anthropic及谷歌的合作动态 - 博通公司宣布将为谷歌生产未来版本的人工智能芯片,并与人工智能初创公司Anthropic签署扩展协议,该协议将使Anthropic能够利用谷歌的人工智能处理器获得约3.5吉瓦的计算能力 [1] - 博通股价在盘后交易中因此消息上涨3% [1] - 博通首席执行官陈阜阳表示,对于Anthropic,公司在2026年开局良好,将利用谷歌TPU提供1吉瓦的计算能力,并预计到2027年,这一计算需求将激增至超过3吉瓦 [1] Anthropic的业务增长与财务表现 - Anthropic的年化收入已超过300亿美元,高于2025年底的约90亿美元 [3] - 今年2月,Anthropic宣布完成G轮融资时,超过500家企业客户的年消费额均超过100万美元,如今这一数字已超过1000家,在不到两个月的时间里翻了一番 [3] - Anthropic的Claude应用程序在2月份成为苹果应用商店中美国排名第一的免费应用程序 [1] 行业竞争格局与多方合作 - 博通公司同时也在与Anthropic的竞争对手OpenAI合作开发用于AI的定制芯片 [2] - OpenAI承诺使用AMD的GPU,总容量达6吉瓦,其中第一个吉瓦将于今年下半年投入使用 [2] - Anthropic在多种人工智能硬件上训练和运行Claude,包括AWS Trainium、Google TPU和NVIDIA GPU,这种平台多样性旨在为客户带来更高性能和更强稳定性 [4] - Claude是唯一一款面向全球三大云平台(亚马逊云服务、谷歌云和微软Azure)客户的前沿人工智能模型 [5] 市场分析与预测 - 瑞穗证券分析师团队预测,博通公司2026年将从Anthropic公司获得210亿美元的AI收入,2027年将获得420亿美元 [1] - 此次合作披露的信息凸显了市场对能够运行生成式人工智能模型的基础设施的强劲需求 [1] 基础设施投资与战略布局 1. Anthropic与谷歌和博通签署新协议,将获得数吉瓦的下一代TPU容量,预计将于2027年开始上线,以为其Claude模型提供动力 [3] 2. 绝大多数新增计算资源将设在美国,这使得此次合作成为Anthropic对2025年11月承诺投资500亿美元加强美国计算基础设施的重大扩展 [3] 3. 此次合作深化了Anthropic与Google Cloud的现有合作,建立在去年10月宣布的TPU容量增加的基础上 [4]
“反英伟达联盟”正在变强,4.4万亿美元芯片帝国遭遇“四面围猎”
36氪· 2026-03-20 13:22
文章核心观点 - AI芯片市场格局正从英伟达一家独大转向多方竞争,其主导地位面临来自定制芯片阵营、云服务商自研、传统对手及初创公司的多重挑战,竞争焦点正从训练转向推理,效率与成本的重要性日益凸显 [3][4][33][34] 大客户倒戈:云服务商自研芯片 - 谷歌自研TPU已近十年,第七代TPU Ironwood峰值性能达4.6 petaFLOPS,略高于英伟达B200且功耗更低,已开始对外出租给Meta等公司,AI初创公司Anthropic计划使用上百万颗Ironwood运行Claude模型 [5] - 亚马逊AWS推出专用训练芯片Trainium和推理芯片Inferentia,Anthropic正使用50万颗Trainium 2芯片训练模型,未来亚马逊将为其建设拥有上百万颗芯片的数据中心集群 [6] - 微软自研Maia 100加速器专为Azure工作负载设计,Meta内部已部署超过150万颗自研MTIA芯片,其逻辑是避免英伟达赚取73%的高毛利 [9] 定制芯片的围剿 - 博通专注于AI定制芯片(ASIC),占据该市场超过50%的份额,是谷歌TPU、Meta MTIA及OpenAI Titan等大客户自研芯片的技术后台 [3][11] - 博通2026年在台积电的CoWoS晶圆预定量达20万片,同比猛增122%,这些产能主要分配给谷歌(60%-65%)、Meta(20%)及OpenAI(Titan芯片占5%-10%,2027年将超20%) [11][12] - 博通与OpenAI签署大单,共同开发规模达100亿瓦特的定制AI加速器和机架系统,计划2026年底开始部署,2029年完成,其定制芯片在推理任务上成本可比英伟达GPU低30%到50% [13] 老对手反击:AMD与英特尔 - AMD坚定进行AI转型,市值从不到千亿美元涨至3500多亿美元,其MI300X加速器(192GB HBM3内存,带宽5.3TB/s)已部署在微软Azure上为ChatGPT做推理,2024年向微软、Meta、甲骨文出货约32.7万颗,新一代MI325X已出货,MI350系列声称推理性能提升35倍 [14] - 英特尔以高性价比和低功耗反击,Gaudi 3加速器定价约为英伟达H100的一半,功耗600W(比H100低100W),官方宣称在某些训练任务上比H100快1.5倍,性价比高2.3倍,已获得戴尔、慧与、联想等系统厂商支持 [16][19] 新秀突袭:初创公司的机会 - 初创公司Groq专攻推理芯片,以速度快、成本低让英伟达紧张,后者于去年12月斥资170亿美元从Groq购买技术授权并挖走核心团队 [20] - Cerebras估值230亿美元,其“晶圆级”芯片CS-3号称比英伟达H系列快20倍而价格只是零头,今年1月与OpenAI签署了100亿美元大单 [20][22] - 众多初创公司如SambaNova、Tenstorrent等获得数亿至数十亿美元投资,共同判断AI计算正从训练转向推理,预计到2030年推理将占全球AI计算需求的75%,而推理任务对成本和延迟敏感,是专用芯片的机会 [22] 英伟达的应对与绑定策略 - 英伟达采取开放与合作策略,将NVLink网络技术授权给英特尔、高通、富士通、Arm等第三方,旨在使不同架构的CPU都能与其GPU更好兼容 [23] - 公司与xAI深度绑定,xAI的Colossus超级计算机几乎全部采用英伟达Hopper和Blackwell系列GPU,规模已超20万颗并向百万颗迈进,芯片采购达数百亿美元,英伟达还向xAI投资了20亿美元 [23][24] 深层威胁:CPU复兴与电力瓶颈 - 随着智能体AI崛起,需要大量任务调度编排,CPU重要性复兴,英伟达自研数据中心CPU Grace已推出第二代Vera,并与Meta签署多年协议首次大规模独立部署Grace CPU,美国银行预测CPU市场规模将从2025年的270亿美元增长至2030年的600亿美元,但行业面临供应紧张、交付周期拉长至六个月及价格上涨超10%的问题 [25] - 电力成为AI基础设施关键瓶颈,英伟达B200 GPU满配功耗达1200瓦,比H100增加71%,其GB200训练机架整机功耗达120千瓦,德勤调查显示72%的美国数据中心和电力公司高管认为电网与供电容量构成严峻挑战,全球仅不到5%的数据中心能支持单机架50千瓦以上功率密度,而Blackwell需求为60到120千瓦,高盛预测到2030年全球数据中心电力需求将比2023年增长165% [26][29][32] - 电力瓶颈为低功耗方案创造窗口期,谷歌称其Ironwood芯片能效是第一代云TPU的30倍,英特尔也将低功耗作为Gaudi 3核心卖点 [32] 软件生态护城河的挑战 - 英伟达CUDA软件生态是其深厚护城河,拥有数百万开发者及主流框架优化支持,但正面临挑战 [34] - AMD的ROCm软件堆栈正在缩小差距,PyTorch已正式支持ROCm,AMD还开发了CUDA兼容层ZLUDA,微软据称在开发CUDA模型迁移工具,OpenAI的Triton 3.0已支持AMD Instinct加速器,CUDA的锁定效应正逐年减弱 [34]
“反英伟达联盟”变强,4.4万亿美元帝国遭遇“四面围猎”
36氪· 2026-03-19 15:06
英伟达面临的竞争格局 - 过去十年,英伟达是AI芯片市场唯一的“王”,其从2025年2月到10月的芯片和相关硬件销售额达1478亿美元,同比增长62%,市值一度突破4万亿美元[4] - 但当前其芯片帝国正被三股势力围猎:博通领衔的定制芯片(ASIC)阵营、超大规模云服务商的自研芯片浪潮、以及AMD和英特尔等传统芯片对手的反击[5] - 英伟达CEO黄仁勋称公司卖的是“AI工厂”,但如今想开工厂的客户不想只从一家进货[6] 大客户倒戈:云巨头自研芯片 - 谷歌是自研芯片道路上走得最远的公司,其研发张量处理单元(TPU)已近十年,第七代TPU Ironwood峰值性能达4.6 petaFLOPS,功耗低于英伟达B200[7] - 谷歌已开始将TPU租给Meta和通过Fluidstack对外出租,AI初创公司Anthropic计划用上百万颗Ironwood运行Claude模型[7] - 亚马逊AWS推出Trainium和Inferentia芯片,Anthropic正用50万颗Trainium 2芯片训练模型,未来亚马逊将为其建设拥有上百万颗芯片的数据中心集群[8] - Meta内部已部署超过150万颗自研的MTIA芯片,其逻辑是不想让英伟达赚走73%的毛利[11] - 微软的Maia 100加速器专为Azure工作负载设计,仍处于研发早期[11] 定制芯片(ASIC)的围剿 - 博通是定制芯片(ASIC)的关键厂商,占据了AI ASIC市场超过50%的份额,谷歌的TPU和Meta的MTIA芯片均由博通帮助开发[13] - 2026年,在台积电115万片CoWoS晶圆产能中,博通预定量大幅增长到20万片,同比猛增122%,这些订单主要分配给谷歌(60%到65%)、Meta(20%)以及OpenAI[13] - OpenAI计划在2026年底推出自研芯片Titan,将占用博通所占晶圆产能的5%到10%,2027年将超过20%[13] - 博通与OpenAI签署大单,共同开发规模高达100亿瓦特的定制AI加速器和机架系统,计划2026年底开始部署[15] - 博通CEO认为,在推理任务上,ASIC的成本可比GPU低30%到50%[15] 传统芯片对手的反击 - AMD市值从不到千亿美元涨到3500多亿美元,其MI300X加速器已部署在微软Azure上并为ChatGPT做推理,2024年向微软、Meta、甲骨文出货约32.7万颗[16] - AMD MI300X拥有192GB的HBM3内存,带宽5.3TB/s,内存比英伟达H100高,新一代MI325X已出货,MI350系列计划明年推出,官方称推理性能提升35倍[16] - 英特尔Gaudi 3加速器定价约为H100的一半,功耗600W比H100低100W,官方宣称在某些训练任务上比H100快1.5倍,性价比高2.3倍[18][21] - 英特尔新任CEO陈立武将AI芯片业务归为自己直接管理[21] 初创公司的挑战 - 初创公司Groq专攻推理芯片,速度快、成本低,英伟达于去年12月以170亿美元从Groq购买技术授权并挖走核心团队[22] - Cerebras估值230亿美元,其设计的“晶圆级”芯片有餐盘大小,今年1月与OpenAI签署了100亿美元的大单[22] - Cerebras基于CS-3芯片的新推理平台,号称比英伟达H系列快20倍,而价格只是零头[24] - 这些初创公司判断AI正在从训练转向推理,到2030年推理将占全球AI计算需求的75%,而推理任务对成本和延迟敏感,容易被专用芯片替代[24] 英伟达的应对与盟友 - 英伟达将自家NVLink网络技术开放给第三方,英特尔、高通、富士通、Arm都拿到了授权,旨在让不同架构的CPU能与其GPU更好连接[25] - 埃隆·马斯克旗下xAI的Colossus超级计算机几乎全部采用英伟达GPU,目前规模超过20万颗,正在向百万颗迈进,在孟菲斯数据中心的芯片采购花费数百亿美元[25] - 2025年10月,xAI融资约200亿美元,英伟达直接投资了20亿美元,这笔钱最终又回到英伟达账上购买芯片[26] 深层威胁:CPU复兴与电力瓶颈 - 智能体AI崛起导致需要大量任务调度编排,这类任务GPU无法胜任,CPU成为主角,其市场规模有望从2025年的270亿美元增长至2030年的600亿美元[27] - 但CPU产能跟不上需求,交付周期拉长至六个月,价格上涨超过10%,AMD和英特尔已向客户发出供应紧张预警[27] - 电力成为数据中心瓶颈,英伟达B200 GPU满配功耗达1200瓦,比H100增加71%,用于训练大模型的GB200机架整机功耗达120千瓦[28] - 德勤调查显示,72%的数据中心和电力公司高管认为电网与供电容量对AI基建构成了“非常”或“极其严峻”的挑战[32] - 高盛预测,到2030年全球数据中心的电力需求将比2023年增长165%[33] - 功耗更低的替代方案迎来窗口期,谷歌称其Ironwood芯片的能效是第一代云TPU的30倍,英特尔也将低功耗作为Gaudi 3的核心卖点[35] 软件生态护城河的挑战 - CUDA是英伟达深厚的软件生态护城河,拥有数百万开发者,主流深度学习框架优先针对其优化[36] - 但竞争对手正在架桥,AMD的ROCm软件堆栈正在缩小性能差距,PyTorch已正式支持ROCm,AMD还投资了能让CUDA程序在其硬件上运行的兼容层ZLUDA[37] - 微软据称在开发将CUDA模型迁移到AMD芯片的工具,OpenAI的Triton 3.0已支持AMD Instinct加速器[37] - CUDA的锁定效应一年比一年弱[38] 未来市场格局展望 - 短期内,英伟达在大模型训练这一核心赛道上仍保持主导地位[38] - 但训练仅占AI计算的一小部分,推理才是未来的主战场,到2030年将占全球AI计算需求的75%[24][38] - 在推理领域,专用芯片具备成本优势,超大规模云服务商自研芯片是为了降低运营成本,英伟达73%的毛利率代表着客户希望省下的开支[38] - 未来AI芯片市场可能不会赢者通吃,而是走向两条腿并行:英伟达在训练和高性能计算领域保持领先,博通等厂商在推理和定制化应用中切走更大市场份额[38] - 竞争胜负关键在于在性能与价格之间找到最舒适的平衡点[39]
黄仁勋最新发文,价值万亿的AI五层蛋糕,您在哪一层?
创业邦· 2026-03-16 11:46
AI产业的五层蛋糕模型 - 英伟达CEO黄仁勋提出“AI是一块五层蛋糕”的产业模型,将AI还原为一项遵循严苛物理规律和重资产逻辑的基础设施工程 [5][6] - 该模型揭示了AI发展需要调动全球电网、核反应堆、跨洋光缆、精密半导体及数以百万计蓝领工人的现代重工业大建构 [6] - 这可能是人类社会继电力网络和互联网之后,第三次也是最大规模的一次全球基础设施重构 [34] 范式转移:从预录制到实时生成 - 传统计算运行的是“预录制软件”,底层是人类程序员写好的规则,计算机高效但无理解力 [8] - 当前的大模型带来了“实时智能”,直接吞吐海量的非结构化数据,在极短时间内理解上下文并进行概率推算,生成拟人化的行动或答案 [8][10] - 这一转变导致“推理”取代“检索”,成为实时消耗庞大算力的核心活动,智能变成了可度量、生产、交易的实体商品 [11] 第一层:能源 - 能源是五层蛋糕的最底层,已成为制约AI发展的最大物理瓶颈 [13][14] - 训练一个前沿的万亿参数大模型,其耗电量等同于一个中型城市,而每天数百亿次的实时推理请求正将电网负载推向极限 [14] - 算力需求的年增长率已远远甩开摩尔定律带来的节能红利 [15] - 麦肯锡预测,到2030年,美国数据中心电力需求将翻两番,达到80-100吉瓦 [17] - 科技巨头成为全球最大的能源买家,例如微软购买核电站产能,亚马逊接手核反应堆,谷歌寻觅地热能与碳捕集天然气发电 [17] - 数据中心选址逻辑从“跟着光纤走”转变为“跟着发电厂走”,稳定、廉价的基荷电力成为AI时代的“石油” [17] 第二层:芯片与硬件 - 半导体硬件是将电子转化为智能的引擎,包括英伟达GPU、谷歌TPU、亚马逊Trainium及台积电、阿斯麦、SK海力士等全球供应链 [17] - 目前绝大部分行业利润和资本开支都淤积在这一层,原因是行业仍在押注规模法则,对算力储备落后的恐惧支撑着数以千亿美元计的硬件采购 [19] - 对于投资人而言,该层潜藏隐蔽的折旧风险,GPU迭代速度极快,三年后可能面临能效比断崖式落后 [21] 第三层:基础设施 - AI数据中心是充满重工业感的庞然大物,数以万计的GPU通过复杂网络交织,散发可怕热量,需部署液冷管道、高压变电站并重新设计承重结构 [21] - 这场数字革命正在疯狂创造传统实体岗位,如钢铁工人、混凝土工、管线焊工、高压电工和暖通工程师,其薪酬和抢手程度创下历史新高 [23] - 在这场革命中,水泥、铜缆、冷却液与光模块等实体材料获得了最稳妥的红利 [23] 第四层:模型层 - 大语言模型、视觉模型、多模态系统是AI基建的“大脑”,正变得能进行逻辑推理并作为智能体执行跨软件任务 [25][26] - 商业逻辑上,该层正经历惨烈的“绞肉机效应”,开源力量的崛起导致基础大模型能力“商品化”,单靠模型聪明已无法构成商业护城河 [26][28] - 真正的壁垒在于拥有独家的高质量私有数据,并能将通用大脑微调成精通特定业务流程的“行业专家” [28] 第五层:应用层 - 应用层包括AI制药软件、无人工厂、私人AI法律顾问、全球供应链调度引擎等,是真正产生价值、实现资金回流的层级 [28][30] - 整块五层蛋糕的资金流向是单向的,如果应用层赚不到足够的钱来反哺底层巨大的资本开支,整个体系可能因资金链断裂而坍塌 [30] - 当前挑战在于许多企业应用AI仅带来“生产力的局部提升”,而非“商业模式的重塑” [32] - 曙光在于AI原生应用正深度嵌入B端核心工作流,并能为结果负责,例如AI销售客服直接完成订单转化并提高20%营收时,应用的价值闭环才算真正跑通 [32][35] 产业启示与坐标定位 - 对于主权国家,抢占智力主权的本质是抢占能源配额与底层算力基建,这关乎国家安全 [37] - 对于产业投资者,与其在应用层百团大战中下注,不如投资提供水、电、管线、光模块和散热设备等“卖铲人”资产 [37] - 对于企业和个人,算力终将充沛且低廉,生死线在于“如何用AI重组现有的组织结构和技能树”,而非“如何拥有AI” [37] - 最先倒下的将是那些用旧石器时代的组织方式,试图驾驭量子时代工具的人 [37] - 这场五层蛋糕的烘焙,将是一场持续十年的残酷大洗牌 [37]
通信行业周报:旭创发布业绩快报,关注3月GTC大会-20260301
国金证券· 2026-03-01 18:22
行业投资评级 * 报告未明确给出整体行业投资评级,但对多个细分板块给出了景气度判断 [16] 核心观点 * 全球及中国AI算力需求持续强劲,海外云厂商资本支出维持高位,国内AI模型应用量快速崛起,驱动服务器、光模块、IDC、交换机等算力基础设施产业链高景气 [2][3][4][13][16] * 英伟达业绩与指引超预期,但市场反应温和,关注点转向即将召开的GTC大会可能发布的新技术(如Feynman芯片、CPO等)对光通信等板块的催化作用 [2][10][60] * 中国AI产业链自主化趋势明确,国内模型调用量首超美国,芯片制造商计划大幅提升先进制程产能,今年或为国产算力链加速向上的元年 [2][13][16][50] * 云计算定价出现战略转折点,海外及国内部分云服务商开始提价,行业盈利能力有望改善 [53] 细分赛道总结 服务器 * 板块指数表现强劲,本周上涨3.65%,本月以来上涨3.39% [3][7] * AMD与Meta签署多年协议,将提供高达6GW的AI算力,协议总金额或达600亿至上千亿美元,显示全球算力需求旺盛 [2][3][7] * 海外四大云厂商(微软、谷歌、Meta、亚马逊)4Q25资本支出同比大幅增长,增幅在42%至95%之间 [4] * 板块景气度为“稳健向上” [16] 光模块 * 板块指数表现突出,本周上涨4.84%,本月以来上涨4.14% [3][10] * 龙头公司中际旭创业绩稳健,2025年全年收入382.40亿元,4Q25单季度收入132.35亿元,同比+102%,环比+30%;4Q25单季度营业利润47.59亿元,同比+190%,环比+20% [2][10] * 英伟达GTC大会有望展示CPO交换机、Rubin Ultra等方案,可能再次催化光通信板块 [2][10] * 2025年1-12月中国光模块出口金额累计同比下降16%,但12月当月同比转正,增加0.9%,部分原因系厂商在海外当地建厂 [4][30] * 板块景气度为“稳健向上” [16] IDC(互联网数据中心) * 板块指数本周上涨2.41%,本月以来上涨2.44% [3][13] * OpenRouter数据显示,2026年2月9日至15日当周,中国AI模型调用量为4.12万亿Token,首次超过美国模型(2.94万亿Token),随后一周更冲高至5.16万亿Token [2][13][52] * 中国芯片制造商(如中芯国际)正努力在两年内将采用尖端工艺技术制造的芯片产量提高五倍,以满足国内AI需求 [13][50] * 板块景气度为“加速向上” [16] 运营商 * 2025年电信业务收入累计完成1.75万亿元,同比增长0.7% [4][16] * 截至2025年底,千兆宽带用户达2.38亿户,在固定宽带用户中占比达34.5%;5G移动电话用户数达12.04亿户,占比65.9% [20][23] * 2025年移动互联网累计流量达3958亿GB,同比增长17.3%,12月户均移动互联网接入流量(DOU)达23.04GB/户·月 [23] * 板块景气度为“稳健向上” [16] 其他细分板块 * **交换机**:景气度“稳健向上”,高速交换机放量,国产交换机有望在Scale-up域实现突破 [16] * **液冷**:景气度“高景气维持”,英伟达Rubin NVL72机架采用100%液冷方案,渗透有望加速 [16] * **物联网**:景气度“加速向上”,截至2025年12月末,蜂窝物联网终端用户数达28.88亿户,同比增长8.73%;3Q25全球物联网模组出货量同比增长10% [16][37][45] 核心公司动态 * **英伟达**:4Q25营收681.27亿美元,同比+73.21%,超预期;每股盈利1.62美元,同比+82.02%,超预期;给出1Q26营收指引780亿美元,超预期 [2][61]。GTC 2026大会将首次公开下一代Feynman芯片,采用全球首款1.6nm制程工艺 [60] * **AMD**:与Meta签署多年协议,提供高达6GW的AI算力,用于模型推理任务 [2][60] * **中际旭创**:发布2025年业绩快报,全年收入382.40亿元,营业利润135.97亿元 [10] * **中芯国际**:据报正在研发“类5纳米”的N+3制程,并计划在两年内将7nm/5nm级芯片产能提高五倍 [50][54] * **深度求索**:据报未向英伟达和AMD提供其即将推出的DeepSeek V4模型的早期访问权限,转而优先向华为等国内供应商开放 [54] * **谷歌**:与Meta达成协议,将在未来数年向后者出租价值“数十亿美元”的AI芯片TPU,并计划通过合资公司模式加速TPU业务外部化 [56] * **OpenAI**:与亚马逊达成多年战略合作,亚马逊将投资500亿美元,双方将共同创建由OpenAI模型驱动的“有状态运行时环境” [58] 行业数据与趋势 * **算力供需**:全球高端GPU(如B200、H100)实时可用率持续大幅下滑,创历史新低,反映市场需求激增 [49] * **国产替代**:中国AI模型全球调用量领先,叠加国内芯片制造产能扩张计划,国产算力链发展进入加速期 [2][13][50] * **云计算定价**:亚马逊AWS、谷歌云及国内的优刻得相继宣布部分产品或服务提价,行业定价策略出现转折迹象 [53] * **通信板块行情**:本周申万通信行业指数上涨4.76%,排名全行业第10 [41]。个股方面,润泽科技、烽火通信、亨通光电涨幅居前 [44]
突发,Meta放弃一颗自研芯片,拥抱谷歌TPU
半导体行业观察· 2026-02-27 10:19
公司自研芯片战略与挑战 - Meta公司内部自研AI训练芯片项目屡次受挫,已放弃代号为Iris的第二代训练芯片和更先进的代号为Olympus的训练芯片[2] - 放弃Olympus芯片的原因在于,高管认为在与OpenAI和Google竞争时,使用自研芯片训练新模型存在重大风险,包括软件稳定性不如英伟达产品以及复杂设计难以大规模生产[2] - 作为替代方案,Meta已与谷歌签订一项价值数十亿美元的协议,租用谷歌的AI芯片(张量处理单元TPU)来开发新AI模型,此举将加剧谷歌与英伟达的芯片竞争[2] 公司自研芯片的财务与技术动因 - 公司自研芯片是旨在克服现成AI加速器在技术和财务方面局限性的深思熟虑战略[4] - 从财务角度看,鉴于公司预计2025年收入约为1900亿至2000亿美元,资本支出约为660亿至720亿美元(按中值计算约占总收入的61%),即使基础设施成本降低几个百分点也能对盈利能力产生重大影响[4] - 公司希望跳过Arm架构,直接采用开源但尚未成为主流的RISC-V架构来构建其未来的计算引擎[5] - 公司于2020年开始定制芯片研发,并于2023年5月推出第一代Meta训练和推理加速器(MTIA)v1,该芯片只能进行推理,不能进行训练[5] - 研发MTIA芯片的原因是GPU并非总能以其所需的效率水平高效运行公司的特定推荐工作负载,因此设计了一系列专用于推荐的ASIC芯片[5] MTIA推理芯片的技术演进 - MTIA v1是包含芯片、PyTorch和推荐模型在内的全栈协同设计解决方案,采用台积电7nm工艺制造,运行频率800 MHz,在INT8精度下可提供102.4 TOPS运算能力,在FP16精度下可提供51.2 TFLOPS运算能力,热设计功耗为25 W[6] - 2024年4月,公司发布了性能大幅提升的MTIA v2,其推理能力有所提高,但仍无法进行训练[6] - MTIA v2采用台积电5nm工艺制造,时钟频率提升68.8%至1.35 GHz,芯片面积从v1的373平方毫米增大12.9%至421平方毫米,功耗增加了2.6倍达到90瓦[7] - 在矩阵运算中增加了稀疏性支持,性能提升了近7倍,矢量核心上的SIMD操作性能提高了72.5%[7] - 两代芯片均采用基于RISC-V内核的处理单元阵列,由负责标量运算和向量运算的两个内核组成[9] 通过收购Rivos增强芯片能力 - 2025年10月,Meta收购了人工智能芯片初创公司Rivos[11] - Rivos成立于2021年9月,创始团队拥有丰富的芯片设计行业经验,来自苹果、博通、高通、英特尔等公司[12] - Rivos成功流片了3.1 GHz处理器,并构建了兼容英伟达CUDA的软件栈,使得为NVIDIA生态系统开发的AI工作负载能够在RISC-V硬件上无缝运行[13] - Rivos的设计为从模型训练到推理等一系列工作负载提供了可扩展性和能效,其架构通过最大限度地减少外部数据传输和降低功耗来消除计算和内存资源之间的不平衡[13] - Rivos提供的芯片结合了高性能服务器级RISC-V CPU和针对大型语言模型优化的数据并行加速器,CPU与并行计算紧密集成,并在DDR DRAM和HBM上共享统一内存[13] - 通过此次收购,Meta将获得一支能够制造高端RISC-V芯片的团队,这些芯片可根据其AI工作负载进行定制[14] 公司多元化的外部芯片采购策略 - 公司近期与英伟达达成了数百万颗GPU的交易,并与AMD达成了6吉瓦的GPU交易[16][17] - 通过与英伟达和AMD两大巨头的合作,公司在未来的算力竞争中获得了更多筹码,并分担了风险[17] - 谷歌已成功证明其Gemini 3和4模型几乎完全(95-100%)在内部TPU上进行训练,英伟达GPU仅处理该工作负载的0-5%,对于搜索和YouTube等内部推理任务,TPU处理约85-90%的业务量[18] - 谷歌正计划推出TPU即服务模式,作为GPU的可行替代方案[18] - Meta与谷歌洽谈购买TPU的协议,对谷歌而言是一项胜利,有助于其打造数十亿美元的TPU销售业务,同时对主导AI芯片市场的英伟达构成威胁[18] - 谷歌还与一家未透露名称的大型投资公司签署协议,为一家向其他客户租赁TPU的合资企业提供资金,并正在与其他投资公司洽谈资助其他类似合资企业[19]
突发,Meta放弃一颗自研芯片,拥抱谷歌TPU
36氪· 2026-02-27 09:53
Meta定制芯片战略与研发历程 - 公司进军定制芯片领域是旨在克服现成AI加速器在技术和财务方面局限性的战略 财务上 预计2025年研发投入约500亿美元 资本支出约660亿至720亿美元 收入约1900亿至2000亿美元 资本支出约占总收入的61% 因此基础设施成本降低几个百分点也能对盈利能力产生重大影响[2] - 公司希望采用开源RISC-V架构来构建其未来的计算引擎 跳过可授权但闭源的Arm架构[2] - 公司于2020年开始定制芯片研发 并于2023年5月推出第一代Meta训练和推理加速器 但该芯片仅能进行推理 不能进行训练[3] MTIA芯片技术规格与迭代 - MTIA v1芯片采用台积电7nm工艺 运行频率800 MHz 在INT8精度下提供102.4 TOPS运算能力 在FP16精度下提供51.2 TFLOPS运算能力 热设计功耗为25W[4] - MTIA v2芯片于2024年4月发布 采用5nm工艺 时钟频率提升68.8%至1.35 GHz 芯片面积增大12.9%至421平方毫米 功耗增加2.6倍至90瓦 矩阵运算性能提升近7倍[5] - MTIA v1芯片面积为373平方毫米 MTIA v2芯片面积为421平方毫米[5] - 两款芯片均采用基于RISC-V内核的处理单元阵列 由负责标量运算和向量运算的两个内核组成 MTIA v2部署规模更为庞大[9] 训练芯片研发受阻与外部合作 - 公司放弃了一款内部代号为Iris的第二代训练芯片 之后开始研发更先进的代号为Olympus的训练芯片 但该芯片也已被放弃[1] - 放弃Olympus芯片的原因是高管认为在与OpenAI和Google竞争之际 自研芯片的软件稳定性不如英伟达产品 且复杂设计可能导致难以大规模生产 会给新模型训练带来重大风险[1] - 公司已与谷歌签订一项价值数十亿美元的协议 租用谷歌的AI芯片来开发新的AI模型[1] - 公司近期与英伟达达成了数百万颗GPU的交易 并与AMD达成了6吉瓦的GPU交易[17] 收购Rivos以增强芯片能力 - 2025年10月 公司收购了人工智能芯片初创公司Rivos[12] - Rivos成功流片了3.1 GHz处理器 并构建了兼容CUDA的软件栈 使得为英伟达生态系统开发的AI工作负载能在RISC-V硬件上运行[14] - Rivos的设计为从模型训练到推理等工作负载提供可扩展性和能效 其架构旨在消除计算和内存资源之间的不平衡[15] - 通过收购 公司将获得一支能制造高端定制RISC-V芯片的团队[16] 行业竞争格局与影响 - 公司与谷歌的TPU协议 加剧了谷歌和英伟达在AI芯片领域的竞争[1] - 谷歌已证明其Gemini 3和4模型几乎完全在内部TPU上进行训练 英伟达GPU仅处理该工作负载的0-5% 在搜索和YouTube等推理任务中 TPU处理约85-90%的业务量[18] - 谷歌计划推出TPU即服务模式 作为GPU的替代方案 并与一家大型投资公司签署协议为租赁TPU的合资企业提供资金[19] - 谷歌与公司的合作为其TPU销售业务增添了知名客户 对英伟达在AI芯片市场的主导地位构成威胁[19]
Meta联手AMD、英伟达HBM4、机构做空闪迪
傅里叶的猫· 2026-02-24 23:59
Meta联手AMD - Meta计划部署总功率达6吉瓦的数据中心设备,全部采用AMD处理器[2] - 根据行业估算,1吉瓦数据中心总开销约为350亿美元,6吉瓦总投入约2100亿美元[2] - 若按英伟达GB200 NVL72的物料清单成本结构估算,GPU服务器成本占比57.4%,对应约1200亿美元[2] - Meta与AMD达成为期5年的采购协议,初期采购AMD MI450芯片,预计后续将升级至超节点[3] - 作为协议一部分,Meta将分阶段获得认购1.6亿股AMD认证股权,按当前股价计算价值约330亿美元[4] - Meta此举旨在分散供应链风险,因其AI算力目标宏大,计划在2030年前建设数十至上百吉瓦算力,过去曾受英伟达供应瓶颈影响[5] - 采用多供应商策略将带来软件栈碎片化挑战,需应对Nvidia CUDA、AMD ROCm、谷歌TPU的JAX/XLA及自家MTIA框架等多平台兼容性问题[5] 海力士的HBM4 - 有消息称海力士HBM4因需修改12纳米基础芯片的光罩,大规模供货可能延迟一个季度以上[7] - 同时,英伟达下一代Rubin平台的进度目前看来正常,尚未听到延迟信息[7] 机构做空闪迪 - 研究机构Citron宣布做空闪迪[9] - 其做空观点主要基于两点:一是存储行业具有周期性,终将见顶;二是三星正进入SSD市场与闪迪竞争,当前供应紧张问题可能只是三星另一产品线暂时的良率问题所致[10] - 从行业角度看,存储已成为制约AI发展的关键环节,未来需求不仅在于解决产能短缺,更在于技术架构升级[11] - 到2030年,AI训练推理对存储带宽和容量的需求将远超当前HBM+DRAM+SSD架构,需要针对AI场景的整个存储架构升级,而不仅是单一产品迭代[11] - 未来胜出的存储厂商将是那些能与英伟达或谷歌等共同开发出下一代存储架构的公司[11]