Workflow
CUDA
icon
搜索文档
“反英伟达联盟”正在变强,4.4万亿美元芯片帝国遭遇“四面围猎”
36氪· 2026-03-20 13:22
文章核心观点 - AI芯片市场格局正从英伟达一家独大转向多方竞争,其主导地位面临来自定制芯片阵营、云服务商自研、传统对手及初创公司的多重挑战,竞争焦点正从训练转向推理,效率与成本的重要性日益凸显 [3][4][33][34] 大客户倒戈:云服务商自研芯片 - 谷歌自研TPU已近十年,第七代TPU Ironwood峰值性能达4.6 petaFLOPS,略高于英伟达B200且功耗更低,已开始对外出租给Meta等公司,AI初创公司Anthropic计划使用上百万颗Ironwood运行Claude模型 [5] - 亚马逊AWS推出专用训练芯片Trainium和推理芯片Inferentia,Anthropic正使用50万颗Trainium 2芯片训练模型,未来亚马逊将为其建设拥有上百万颗芯片的数据中心集群 [6] - 微软自研Maia 100加速器专为Azure工作负载设计,Meta内部已部署超过150万颗自研MTIA芯片,其逻辑是避免英伟达赚取73%的高毛利 [9] 定制芯片的围剿 - 博通专注于AI定制芯片(ASIC),占据该市场超过50%的份额,是谷歌TPU、Meta MTIA及OpenAI Titan等大客户自研芯片的技术后台 [3][11] - 博通2026年在台积电的CoWoS晶圆预定量达20万片,同比猛增122%,这些产能主要分配给谷歌(60%-65%)、Meta(20%)及OpenAI(Titan芯片占5%-10%,2027年将超20%) [11][12] - 博通与OpenAI签署大单,共同开发规模达100亿瓦特的定制AI加速器和机架系统,计划2026年底开始部署,2029年完成,其定制芯片在推理任务上成本可比英伟达GPU低30%到50% [13] 老对手反击:AMD与英特尔 - AMD坚定进行AI转型,市值从不到千亿美元涨至3500多亿美元,其MI300X加速器(192GB HBM3内存,带宽5.3TB/s)已部署在微软Azure上为ChatGPT做推理,2024年向微软、Meta、甲骨文出货约32.7万颗,新一代MI325X已出货,MI350系列声称推理性能提升35倍 [14] - 英特尔以高性价比和低功耗反击,Gaudi 3加速器定价约为英伟达H100的一半,功耗600W(比H100低100W),官方宣称在某些训练任务上比H100快1.5倍,性价比高2.3倍,已获得戴尔、慧与、联想等系统厂商支持 [16][19] 新秀突袭:初创公司的机会 - 初创公司Groq专攻推理芯片,以速度快、成本低让英伟达紧张,后者于去年12月斥资170亿美元从Groq购买技术授权并挖走核心团队 [20] - Cerebras估值230亿美元,其“晶圆级”芯片CS-3号称比英伟达H系列快20倍而价格只是零头,今年1月与OpenAI签署了100亿美元大单 [20][22] - 众多初创公司如SambaNova、Tenstorrent等获得数亿至数十亿美元投资,共同判断AI计算正从训练转向推理,预计到2030年推理将占全球AI计算需求的75%,而推理任务对成本和延迟敏感,是专用芯片的机会 [22] 英伟达的应对与绑定策略 - 英伟达采取开放与合作策略,将NVLink网络技术授权给英特尔、高通、富士通、Arm等第三方,旨在使不同架构的CPU都能与其GPU更好兼容 [23] - 公司与xAI深度绑定,xAI的Colossus超级计算机几乎全部采用英伟达Hopper和Blackwell系列GPU,规模已超20万颗并向百万颗迈进,芯片采购达数百亿美元,英伟达还向xAI投资了20亿美元 [23][24] 深层威胁:CPU复兴与电力瓶颈 - 随着智能体AI崛起,需要大量任务调度编排,CPU重要性复兴,英伟达自研数据中心CPU Grace已推出第二代Vera,并与Meta签署多年协议首次大规模独立部署Grace CPU,美国银行预测CPU市场规模将从2025年的270亿美元增长至2030年的600亿美元,但行业面临供应紧张、交付周期拉长至六个月及价格上涨超10%的问题 [25] - 电力成为AI基础设施关键瓶颈,英伟达B200 GPU满配功耗达1200瓦,比H100增加71%,其GB200训练机架整机功耗达120千瓦,德勤调查显示72%的美国数据中心和电力公司高管认为电网与供电容量构成严峻挑战,全球仅不到5%的数据中心能支持单机架50千瓦以上功率密度,而Blackwell需求为60到120千瓦,高盛预测到2030年全球数据中心电力需求将比2023年增长165% [26][29][32] - 电力瓶颈为低功耗方案创造窗口期,谷歌称其Ironwood芯片能效是第一代云TPU的30倍,英特尔也将低功耗作为Gaudi 3核心卖点 [32] 软件生态护城河的挑战 - 英伟达CUDA软件生态是其深厚护城河,拥有数百万开发者及主流框架优化支持,但正面临挑战 [34] - AMD的ROCm软件堆栈正在缩小差距,PyTorch已正式支持ROCm,AMD还开发了CUDA兼容层ZLUDA,微软据称在开发CUDA模型迁移工具,OpenAI的Triton 3.0已支持AMD Instinct加速器,CUDA的锁定效应正逐年减弱 [34]
“反英伟达联盟”变强,4.4万亿美元帝国遭遇“四面围猎”
36氪· 2026-03-19 15:06
英伟达面临的竞争格局 - 过去十年,英伟达是AI芯片市场唯一的“王”,其从2025年2月到10月的芯片和相关硬件销售额达1478亿美元,同比增长62%,市值一度突破4万亿美元[4] - 但当前其芯片帝国正被三股势力围猎:博通领衔的定制芯片(ASIC)阵营、超大规模云服务商的自研芯片浪潮、以及AMD和英特尔等传统芯片对手的反击[5] - 英伟达CEO黄仁勋称公司卖的是“AI工厂”,但如今想开工厂的客户不想只从一家进货[6] 大客户倒戈:云巨头自研芯片 - 谷歌是自研芯片道路上走得最远的公司,其研发张量处理单元(TPU)已近十年,第七代TPU Ironwood峰值性能达4.6 petaFLOPS,功耗低于英伟达B200[7] - 谷歌已开始将TPU租给Meta和通过Fluidstack对外出租,AI初创公司Anthropic计划用上百万颗Ironwood运行Claude模型[7] - 亚马逊AWS推出Trainium和Inferentia芯片,Anthropic正用50万颗Trainium 2芯片训练模型,未来亚马逊将为其建设拥有上百万颗芯片的数据中心集群[8] - Meta内部已部署超过150万颗自研的MTIA芯片,其逻辑是不想让英伟达赚走73%的毛利[11] - 微软的Maia 100加速器专为Azure工作负载设计,仍处于研发早期[11] 定制芯片(ASIC)的围剿 - 博通是定制芯片(ASIC)的关键厂商,占据了AI ASIC市场超过50%的份额,谷歌的TPU和Meta的MTIA芯片均由博通帮助开发[13] - 2026年,在台积电115万片CoWoS晶圆产能中,博通预定量大幅增长到20万片,同比猛增122%,这些订单主要分配给谷歌(60%到65%)、Meta(20%)以及OpenAI[13] - OpenAI计划在2026年底推出自研芯片Titan,将占用博通所占晶圆产能的5%到10%,2027年将超过20%[13] - 博通与OpenAI签署大单,共同开发规模高达100亿瓦特的定制AI加速器和机架系统,计划2026年底开始部署[15] - 博通CEO认为,在推理任务上,ASIC的成本可比GPU低30%到50%[15] 传统芯片对手的反击 - AMD市值从不到千亿美元涨到3500多亿美元,其MI300X加速器已部署在微软Azure上并为ChatGPT做推理,2024年向微软、Meta、甲骨文出货约32.7万颗[16] - AMD MI300X拥有192GB的HBM3内存,带宽5.3TB/s,内存比英伟达H100高,新一代MI325X已出货,MI350系列计划明年推出,官方称推理性能提升35倍[16] - 英特尔Gaudi 3加速器定价约为H100的一半,功耗600W比H100低100W,官方宣称在某些训练任务上比H100快1.5倍,性价比高2.3倍[18][21] - 英特尔新任CEO陈立武将AI芯片业务归为自己直接管理[21] 初创公司的挑战 - 初创公司Groq专攻推理芯片,速度快、成本低,英伟达于去年12月以170亿美元从Groq购买技术授权并挖走核心团队[22] - Cerebras估值230亿美元,其设计的“晶圆级”芯片有餐盘大小,今年1月与OpenAI签署了100亿美元的大单[22] - Cerebras基于CS-3芯片的新推理平台,号称比英伟达H系列快20倍,而价格只是零头[24] - 这些初创公司判断AI正在从训练转向推理,到2030年推理将占全球AI计算需求的75%,而推理任务对成本和延迟敏感,容易被专用芯片替代[24] 英伟达的应对与盟友 - 英伟达将自家NVLink网络技术开放给第三方,英特尔、高通、富士通、Arm都拿到了授权,旨在让不同架构的CPU能与其GPU更好连接[25] - 埃隆·马斯克旗下xAI的Colossus超级计算机几乎全部采用英伟达GPU,目前规模超过20万颗,正在向百万颗迈进,在孟菲斯数据中心的芯片采购花费数百亿美元[25] - 2025年10月,xAI融资约200亿美元,英伟达直接投资了20亿美元,这笔钱最终又回到英伟达账上购买芯片[26] 深层威胁:CPU复兴与电力瓶颈 - 智能体AI崛起导致需要大量任务调度编排,这类任务GPU无法胜任,CPU成为主角,其市场规模有望从2025年的270亿美元增长至2030年的600亿美元[27] - 但CPU产能跟不上需求,交付周期拉长至六个月,价格上涨超过10%,AMD和英特尔已向客户发出供应紧张预警[27] - 电力成为数据中心瓶颈,英伟达B200 GPU满配功耗达1200瓦,比H100增加71%,用于训练大模型的GB200机架整机功耗达120千瓦[28] - 德勤调查显示,72%的数据中心和电力公司高管认为电网与供电容量对AI基建构成了“非常”或“极其严峻”的挑战[32] - 高盛预测,到2030年全球数据中心的电力需求将比2023年增长165%[33] - 功耗更低的替代方案迎来窗口期,谷歌称其Ironwood芯片的能效是第一代云TPU的30倍,英特尔也将低功耗作为Gaudi 3的核心卖点[35] 软件生态护城河的挑战 - CUDA是英伟达深厚的软件生态护城河,拥有数百万开发者,主流深度学习框架优先针对其优化[36] - 但竞争对手正在架桥,AMD的ROCm软件堆栈正在缩小性能差距,PyTorch已正式支持ROCm,AMD还投资了能让CUDA程序在其硬件上运行的兼容层ZLUDA[37] - 微软据称在开发将CUDA模型迁移到AMD芯片的工具,OpenAI的Triton 3.0已支持AMD Instinct加速器[37] - CUDA的锁定效应一年比一年弱[38] 未来市场格局展望 - 短期内,英伟达在大模型训练这一核心赛道上仍保持主导地位[38] - 但训练仅占AI计算的一小部分,推理才是未来的主战场,到2030年将占全球AI计算需求的75%[24][38] - 在推理领域,专用芯片具备成本优势,超大规模云服务商自研芯片是为了降低运营成本,英伟达73%的毛利率代表着客户希望省下的开支[38] - 未来AI芯片市场可能不会赢者通吃,而是走向两条腿并行:英伟达在训练和高性能计算领域保持领先,博通等厂商在推理和定制化应用中切走更大市场份额[38] - 竞争胜负关键在于在性能与价格之间找到最舒适的平衡点[39]
国产GPU厂商的“烧钱与梦想”
经济观察报· 2025-07-11 20:17
行业背景与核心观点 - "主权AI"概念推动全球GPU行业成为技术竞赛与资本竞赛的双重战场[2] - 英伟达市值突破4万亿美元成为全球最大上市公司,为国产GPU厂商提供对标想象空间[2][7] - 中国GPU厂商密集冲刺A股上市,包括摩尔线程、沐曦股份等头部企业[5][6] 国产GPU厂商资本动态 - 沐曦股份成立5年完成8轮融资,估值达210.71亿元,股东包括红杉资本、葛卫东等[5] - 摩尔线程股东数量达86个,吸引众多知名机构投资者[6] - 行业采用"市概率"估值法,即对标英伟达市值的1%作为潜在估值基准[8] - 创始团队背景显赫,多来自英伟达、AMD等国际巨头[9] 财务与商业模式分析 - 摩尔线程3年累计亏损50亿元,研发投入38.1亿元,营收仅6亿元[11] - 沐曦股份累计亏损32.9亿元,研发投入24.66亿元,营收11.16亿元[12] - 寒武纪上市后累计亏损超33亿元,2024年首次单季度盈利[13][15] - 主要收入来源为政府背景的智算中心项目,而非消费级市场[28][29] 技术挑战与供应链风险 - Fabless模式导致高额流片成本,沐曦股份预付账款从5178万飙升至11.07亿元[18][21] - 7纳米先进制程受限,部分企业转向12纳米等低端制程保障生产[41] - 软件生态薄弱,桌面级显卡收入占比从23.67%骤降至2.48%[36][38] 市场竞争与客户结构 - 客户高度集中,摩尔线程前5大客户贡献98.16%营收[28] - 沐曦股份客户结构剧烈变动,2023年前5大客户全部更换[32] - 寒武纪80.74%营收依赖前5大客户,主要为政府项目[35] 发展战略分歧 - 观点一:强调战略定力与稳健发展,避免对标国际巨头导致战略失焦[42] - 观点二:现阶段核心是融资能力,后续比拼产品性能与商业化落地[43] - 抱大腿策略受关注,如昆仑芯背靠百度、平头哥依托阿里生态[45]
国产GPU,还有多少硬骨头要啃?
虎嗅· 2025-07-02 08:46
国产GPU企业IPO动态 - 摩尔线程和沐曦集成电路科创板IPO申请获上交所受理,标志着国产GPU赛道进入新阶段 [1][3] - 沐曦拟募资39亿元,摩尔线程计划募资80亿元,显示行业高投入特性 [4][5] - 两家公司营收呈现快速增长趋势:沐曦从2022年42.64万元增至2024年7.43亿元,摩尔线程从2022年4608.8万元增至2024年4.38亿元 [7][9] 财务与研发投入 - 沐曦2022-2024年累计研发投入22亿元,净亏损分别为7.77亿/8.71亿/14亿元 [4] - 摩尔线程同期累计研发投入38亿元,净亏损分别为18.4亿/16.73亿/14.92亿元 [5] - 与国际巨头相比仍有差距:英伟达2024财年研发费用达129.14亿美元 [6] 产品与技术布局 - 沐曦产品矩阵覆盖计算和渲染全场景,包括曦思N系列、曦云C系列和曦彩G系列 [7] - 摩尔线程基于MUSA架构推出智算卡和消费级GPU,支持AI计算加速等多项功能 [9][10] - 两家公司产品结构显示业务重心:沐曦训推板卡占比97.55%,摩尔线程AI智算集群占比75.38% [8][11] 行业竞争格局 - 国产GPU企业可分为NVIDIA系、AMD系、国家队和拆分系等不同流派 [12][13] - 主要厂商包括天数智芯、壁仞科技、景嘉微等,成立时间和技术路线各异 [13] - 行业面临洗牌压力,上市成为决定企业发展的关键因素 [12][26] 技术挑战与发展路径 - 突破CUDA生态困局是首要挑战,需构建兼容层+自研框架方案 [15] - Chiplet和HBM技术成为性能提升关键路径 [16][17] - 兼容性和集群能力是产品市场化的重要保障 [19][20] 市场前景与AI机遇 - 中国AI芯片市场规模预计从2024年1425.37亿元增至2029年13367.92亿元 [25] - GPU市场份额将从69.9%提升至77.3%,增长潜力显著 [25] - AI算力需求激增为国产GPU创造发展窗口,但需避免"田忌赛马"式宣传 [22][27]