Workflow
亚马逊Trainium
icon
搜索文档
微软(MSFT.US)新一代自研AI芯片“Maia 200”出鞘! 推理狂潮席卷全球 属于AI ASIC的黄金时代到来
智通财经网· 2026-01-27 08:34
微软推出自研AI芯片Maia 200 - 微软重磅推出第二代自研AI芯片Maia 200,旨在为云端AI训练/推理提供更高能效比与性价比的算力,作为英伟达AI GPU的替代方案 [1] - 该芯片由台积电采用3nm先进制程制造,每颗芯片包含超过1400亿个晶体管 [5] - Maia 200专为大规模AI推理定制,在FP4精度下提供超过10 petaFLOPS算力,在FP8精度下提供超过5 petaFLOPS性能,功耗为750瓦 [5] - 芯片配备216GB、带宽达7TB/s的HBM3e内存,以及272MB片上SRAM,系统层面支持在6144个加速器集群中提供高性能集合操作 [6] Maia 200的性能与定位 - 微软官方称Maia 200为“所有超大规模云计算服务商中性能最强的自研内部专属AI芯片” [3] - 在多项测试中,其性能超越亚马逊第三代Trainium和谷歌第七代TPU [3] - 该芯片每美元性能比微软当前最新一代硬件提升30% [5] - 在FP4精度下的整体推理性能是亚马逊第三代Trainium的3倍,FP8性能超过谷歌第七代TPU [5] - 微软将其定位为“显著改善AI token generation的经济性”,并强调performance per dollar [10] 行业趋势:云计算巨头转向自研AI ASIC - 生成式AI热潮加速了亚马逊、谷歌、微软等云计算巨头开发内部专属AI ASIC芯片的进程 [2] - 经济性与电力约束是推动这一趋势的核心原因,巨头们旨在打造更具性价比与能效比的AI算力集群 [9] - 自研AI ASIC能提供“第二曲线产能”,帮助云厂商在采购谈判、产品定价与服务毛利层面更主动,并降低总体拥有成本 [10] - 芯片设计公司如博通、迈威尔、联发科正聚焦于与云巨头合作开发定制化AI ASIC,该业务已成为其重要增长点 [2] 市场竞争格局 - 云计算“三巨头”(亚马逊AWS、谷歌GCP、微软Azure)均在推进自研AI芯片,目标相似:打造高成本效益、无缝接入数据中心的算力基础设施 [4] - 英伟达AI GPU的高成本与持续供给短缺,推动了市场寻找更廉价且高效的替代算力来源 [4] - 谷歌最新的TPU v7 (Ironwood) 展现代际跨越,其BF16算力达4614 TFLOPS,是上一代TPU v5p(459 TFLOPS)的约10倍 [11] - 针对特定应用,AI ASIC架构更具性价比与能效比优势,例如谷歌TPU集群能提供比英伟达Blackwell高出1.4倍的每美元性能 [11] - 英伟达与AI芯片初创公司Groq达成200亿美元非独家授权合作,以维持其在AI芯片领域约90%的市场份额主导权 [13] 产品部署与未来规划 - Maia 200正陆续进入微软位于爱荷华州的数据中心,下一步大规模部署将转向凤凰城地区 [1] - 首批芯片设备将提供给微软的超级智能团队,用于改进下一代AI大模型,并为Copilot AI助手及托管型AI推理服务提供算力支撑 [3] - 微软已向开发者、学术界和前沿AI实验室开放Maia 200软件开发工具包的预览版,并计划未来向更多客户开放云端租用 [5] - 微软已在着手设计下一代AI芯片Maia 300 [8] - 根据与OpenAI的协议,微软可以获取后者的独家自研AI芯片设计方案作为备选 [8] 市场需求与行业前景 - 谷歌Gemini3 AI应用生态发布后带来庞大AI token处理量,导致算力需求激增,验证了AI算力基础设施仍处于供不应求的早期建设阶段 [12] - 摩根士丹利研报显示,谷歌TPU AI芯片的实际产量预期被大幅上修,2027年和2028年预计分别达到500万和700万块,较此前预期分别上调67%和120% [13] - 报告测算,谷歌若对外销售TPU,每50万片有望带来130亿美元的额外营收及0.40美元的每股收益 [13] - 随着AI推理需求猛增,更具性价比优势的AI ASIC预计将迈入比2023-2025年期间更强劲的需求扩张轨迹 [11]
【国信电子胡剑团队|2026年年度策略】从星星之火到全面燎原的本土硬科技收获之年
剑道电子· 2025-12-31 10:45
文章核心观点 - 2025年AI产业链在业绩趋势中从分歧走向共识,2026年有望成为本土硬科技收获之年 [3][7] - 电子行业景气周期自2021年下行近2年后,于2023年下半年筑底回升,目前仍处在由AI创新拉动的温和上行过程中 [3][7] - 行业在“宏观政策周期、产业库存周期、AI创新周期”共振上行及被动基金快速扩容的助力下,呈现出显著的估值扩张趋势 [3][7] - 在经历了2025年由DeepSeek兴起引致的“算力通缩”叙事逻辑冲击及美国关税战冲击后,行情在AI产业链亮眼业绩中走向共识,截至12月16日电子行业上涨40.22%,位居全行业第三 [7] - 展望2026年,AI大模型推理能力持续进阶,大模型与端侧应用的闭环正在形成,算力+存力硬件层面供不应求态势将延续,国内先进制程扩张和自主可控推进速度仍有较大预期差 [7] - 在2020年全面开启的5G创新周期中已有冒尖趋势的中国科技产业,在国内工程师红利支撑下,经历了逾5年的“人财物”快速累积后,正在新一轮AI创新周期中体现出更强的全球竞争力,2026年有望成为本土硬科技收获之年 [7] 2025年行情回顾:AI在业绩趋势中从分歧走向共识 - 2025年初至12月16日,电子行业整体上涨40.22%,涨跌幅位居全行业第三,其中元件、电子化学品、其他电子、消费电子、半导体、光学光电子分别上涨93.19%、46.88%、40.63%、39.40%、38.37%、7.66% [16] - 2025年1-2月,延续2024年末“字节火山引擎大会”引燃的AI端侧创新预期,端侧SoC带动半导体及消费电子上涨,期间电子上涨8.02% [19] - 2025年3-5月,受美国加征关税、技术限制、“算力通缩”叙事逻辑冲击及基金行业新规影响,期间电子下跌11.55% [19] - 2025年6-10月,在AI算力需求拉动下,全球逻辑类芯片月销售额同比增速大幅扩张,“算力通缩”预期被证伪,AI基建相关的光模块、PCB、服务器环节业绩全面超预期,传导至存储环节全面紧缺及大规模涨价,期间电子上涨60.68% [19] - 2025年11月以来,受抢出口透支订单、消费补贴退坡、存储缺货涨价及基金调仓预期影响,板块热度降温,自10月至12月16日电子下跌8.66% [19] - 估值方面,截至2025年12月16日电子行业整体TTM PE为62.61倍,处于近五年的94.5%分位 [20] - 截至三季度末,公募基金电子板块重点持仓市值排行前五的公司分别是寒武纪-U、中芯国际、海光信息、澜起科技、立讯精密 [22] - 截至2025年12月16日,沪(深)股通电子板块持仓市值排行前五的公司分别是北方华创、立讯精密、工业富联、豪威集团、澜起科技 [24] AI大模型群雄逐鹿,英伟达引领算力迭代,PCB、服务器产业链延续高增长 - 大模型通过架构创新持续提升效率与性能,混合专家架构通过稀疏化实现更高效推理,创新的注意力机制降低计算复杂度与内存需求,深度思考模式通过多轮推演减少幻觉 [8][27][33][34][36] - 得益于CSP、主权云等算力需求扩张及AI推理应用蓬勃发展,TrendForce预计2026年全球八大CSP合计资本支出将增长40%达到6000亿美元以上,全球AI服务器出货量将增长20.9% [8][43] - 英伟达新一代Rubin架构AI服务器将为分离式推理带来革命性变化,英伟达预计在24年底前,Blackwell系列GPU总出货将达2000万颗,合计订单将达5000亿美元 [8][54] - 基于算力军备竞赛的市场规模扩容及算力产品迭代带来的ASP提升,伴随Scale Up与Scale Out带来的智算集群扩展,2026年深度参与全球产业链分工的PCB、服务器产业链将迎来量价齐升的高速成长期 [8] - 超节点是一种新型AI算力基础设施架构,旨在应对大模型训练与推理对极致通信效率和高密度算力协同的需求,例如华为CloudMatrix384将算力从单台服务器的6.4 Pflops提升到超节点的300 Pflops,算力提升50倍 [57] - PCB行业自2024年年初进入景气上行阶段,随着2025年AI基建加速出现供不应求,预计将持续到2027年,日本10层以上PCB产值从2023年9月的15.87亿日元低位升至2025年7月的34.90亿日元高位,价格从2023年7月的21.04万日元/平米涨至2025年9月的40.08万日元/平米,涨幅90% [65] - 预计2026年全球算力类PCB市场需求将达到1815亿元,而全球Top13的PCB厂商相关产值约为1320亿元,预计将有近200亿元的供需缺口,2027年供需缺口将大幅收窄 [72] - 英伟达Vera Rubin系列机柜中,由于新增CPX GPU及布局变化,PCB价值量大幅提升,预计在满配的VR NVL144 CPX机柜中,单GPU对应PCB价值量达到8000余元 [79] AI算力+存力:国产算力通用芯片与ASIC方案齐发力,存力缺货涨价有望贯穿全年 - 国产算力芯片积极更新迭代,华为计划2026年推出昇腾950 Pro,2026年Q4上市超节点Atlas 950 SuperPOD;寒武纪、沐曦、壁仞、摩尔线程等国产卡顺利导入智算中心 [9] - 受限于美国BIS多次制裁,CSP大厂的合规/ASIC项目将同步迎来发展机遇,其中非一线云厂的自研项目有望为国内ASIC厂商带来可观增量 [9] - 存力方面,AI时代的DRAM从“附属角色”转变为“性能瓶颈突破口”,预计2026年DRAM位元需求量有望同比增加26% [9] - 随着AI推理兴起,传统HDD的局限性加速了SSD渗透,NAND缺货态势从局部应用蔓延至全盘,价格指数自2025年9月至12月已上涨超40% [9] - 预计2026年DRAM及NAND仍将呈现较严重的供不应求,价格有望延续涨势 [9] - 海外算力芯片存在后门风险,2025年7月美国议员呼吁要求美出口的先进芯片必须配备“追踪定位”功能,国家网信办约谈英伟达要求其对H20算力芯片漏洞后门安全风险进行说明 [83] - 蚂蚁集团已部署万卡规模的国产算力集群,训练任务稳定性超过98%,训练与推理性能可媲美国际算力集群,DeepSeek UEBMO FP8是针对下一代国产芯片设计 [86] AI运力+电力:运力成为算力提升的重要突破口,算力增长推动电源架构同步升级 - 运力环节需解决数据进出内存的问题,并实现服务器内部、机架之间以及集群间的顺畅通信,在国内高端算力芯片流片受限的背景下,运力环节的优化成为重要突破口 [11] - 预计2024-2030年全球高速互连芯片市场规模CAGR为21.2%,中国市场的占比将由25%提高至30%,为HBM内存、PCIe互连芯片、CXL互连芯片、硅光芯片、D2D等产业链创造增量市场 [11] - 随着数据中心芯片及机架处理功率水涨船高,英飞凌预测单GPU的功耗将呈指数级增长,到2030年达到约2000W,机架的峰值功耗将达到300kW以上 [11] - 机架侧大幅、快速波动的功率曲线对公共电网稳定性构成挑战,因此要求供电方案向HVDC方向发展,SST、Droop、ZVS、GaN器件将成为AI电源的核心方向 [11] AI端侧:AI Agent重塑交互范式,大厂争先布局端侧入口,消费电子创新大年开启 - 随着大模型在多模态理解、通用推理与任务执行能力上的持续演进,AI正由工具型能力升级为能够理解用户意图并自主执行任务的AI Agent,端侧消费电子产品是AI商业化闭环的关键承载层,有望系统性重构人机交互范式 [12] - 手机、眼镜、耳机以及家庭机器人等多种终端形态,有望围绕AI Agent构建协同网络,推动AI从单点功能升级迈向跨场景、跨终端的系统级体验 [12] - 语音、视觉及环境感知等多模态输入的重要性提升,对端侧算力、感知能力与连接能力提出更高要求 [12] - 当前端侧相关技术与产业基础已趋于成熟,商业模式的关键突破有望形成“非线性放大效应”,展望2026年,从年初的CES到年中的WWDC,以及头部厂商的持续探索,均可能成为引爆市场情绪与产业投资共识的关键催化 [12] 半导体:自主可控进程有望超预期的自主可控产业链,以及在景气复苏阶段加速国产替代的模拟芯片 - 据SIA数据,2024年中国占全球半导体销售额的28%,但本土供应比例仅4.5%,自给率仍偏低,且由于增量主要来自GPU、HBM等云侧增量,自给率较2023年有所降低 [12] - A股半导体公司的财务表现持续改善,据统计的146家公司中,单季度收入最高值落在2025年的占比54%,2025年Q3 SW半导体板块整体毛利率处于2020年Q2和2021年Q1之间,净利率与2020年Q4、2021年Q1水平相当 [12] - 全球半导体销售额已连续八个季度同比增长,2025年12月WSTS再次上修了对2025和2026年的预测值,预计2024-2026年全球半导体将实现连续3年两位数增长 [12] - 除了AI增量外,国内芯片设计企业崛起和在地化制造需求为自主制造链提供增量,重点关注晶圆代工、先进封装和上游半导体设备材料环节 [12] - 模拟芯片在半导体产品品类周期靠后,国际大厂TI、ADI 2025年收入开始同比转正,标志着行业进入复苏阶段,国内企业近几年推出的新品有望进入规模放量阶段 [12] - 长期来看AI数据中心以及自动驾驶、人形机器人等AI应用均为模拟芯片带来广泛增量,同时模拟芯片也是国产化空间较大的细分,将持续受益国产化率提高 [12]
HBM再涨价,存储告急!
半导体行业观察· 2025-12-24 10:16
文章核心观点 - 人工智能驱动的需求激增导致高带宽内存(HBM)供应持续短缺,预计将持续数年,并引发存储芯片行业的结构性转变 [1][2][4] - HBM3E价格因需求远超供应而罕见上涨约20%,且主要存储制造商将产能优先分配给利润更高的HBM及企业级产品,导致消费电子领域面临内存短缺和成本压力 [2][3][11][12] - 存储芯片行业正经历前所未有的繁荣,美光、三星电子和SK海力士等主要厂商的财务表现和未来预期大幅上调,行业竞争格局和增长逻辑发生根本性变化 [4][5][7][16][17] HBM市场供需与价格动态 - HBM3E供应价格已上调近20%,此轮涨价实属罕见,因通常在下一代产品发布前价格会下降 [2] - 价格上涨主因是需求超出预期且供应受限:英伟达H200 AI芯片获准出口中国,谷歌、亚马逊等大型科技公司明年将发布搭载HBM3E的AI加速器,订单激增 [2][3] - 供应受限因三星电子和SK海力士等内存半导体公司正集中精力扩大下一代HBM4的产能,难以满足HBM3E的当前需求 [2][3][4] - 英伟达计划利用现有库存处理首批H200芯片订单,预计总出货量为5000至10000个芯片模块(约40000至80000片芯片) [3] - 谷歌第七代TPU每个设备可搭载8个HBM3E单元,亚马逊Trainium3可搭载4个,与上一代相比HBM容量提升近20%至30% [3] - 预计2025年HBM市场规模约350亿美元,到2028年将以约40%的复合年增长率增长至约1000亿美元,届时将超过2024年整个DRAM市场的规模 [6] - 预计2026年内存产能(包括HBM4)已售罄,美光预测HBM需求将持续强劲 [6] 主要存储芯片公司业绩与展望 - **美光科技**:截至11月27日的季度营收为136.4亿美元,同比增长56.6%;GAAP利润为52.4亿美元,同比增长231%;利润率从上一季度的28.3%上升至38.4% [5] - 美光计划扩大产能以满足HBM需求,包括调整爱达荷州和纽约晶圆厂建设时间表,以及在新加坡建设HBM先进封装工厂 [5][6] - **三星电子**:市场对其明年全年营业利润预期从三个月前的44.1092万亿韩元大幅上调94%至85.4387万亿韩元,有预测可能超过100万亿韩元 [4][7] - **SK海力士**:市场对其明年营业利润预期在三个月内上调66%,从45.9060万亿韩元增至76.1434万亿韩元 [4][8] - 业绩预期上调主要驱动力是DRAM价格上涨以及AI需求推动HBM出货量增加 [7][8] - 存储芯片制造商当前净利润总额已超过不久前的营收水平,财务实力达到前所未有的高度 [17] 存储行业结构性转变与消费电子挑战 - 内存短缺被描述为“前所未有的拐点”,是结构性而非周期性短缺,因制造商将硅晶圆产能从消费电子产品永久性、战略性地重新分配给AI数据中心使用的内存 [11][12] - 分配给英伟达GPU的HBM堆叠的每一片晶圆,都意味着中端智能手机或消费级笔记本电脑缺少一片晶圆,这是一场零和博弈 [12][13] - 预计2026年DRAM和NAND的供应增长将低于历史平均水平,同比分别仅增长16%和17% [13] - 消费电子设备制造商面临挑战:美光已停止直接向消费者销售内存以保障AI和数据中心供应 [9] - 智能手机行业受影响显著:内存成本占中端机型物料清单总成本的15%到20%,高端机型为10%到15% [13] - 成本上涨将挤压TCL、传音、Realme、小米等低利润厂商的利润空间,迫使其提价或降低配置 [14] - 高端市场如苹果和三星拥有结构性优势,能提前锁定供应,但2026年新款旗舰机型可能不会升级内存配置 [14] 行业竞争格局与历史周期对比 - 存储芯片行业传统上具有剧烈的繁荣与萧条周期,产品同质化(大宗商品)及产能建设滞后导致供过于求与价格暴跌 [16] - 目前仅剩四家主要内存芯片制造商,竞争集中 [16] - 当前繁荣被认为与历史不同,AI计算领域的巨额支出带来了复利效应,创造了前所未有的需求,且供应因技术难度高而持续受限 [17] - 三星在满足AI设备制造商需求方面反应迟缓,其以往通过快速提高产量来影响市场的策略此次未能奏效,这有助于维持价格高位 [18] - 考虑到工厂建设周期长,除非AI需求崩溃,否则2026年不太可能出现内存芯片过剩 [18] - 行业形势瞬息万变,就在2023年,SK海力士和美光两家公司合计净亏损超过100亿美元 [18]
英伟达真正的对手是谁
经济观察报· 2025-12-23 19:22
文章核心观点 - 英伟达在AI算力芯片领域,特别是训练场景,凭借先进技术和强大的CUDA软件生态建立了近乎垄断的领导地位,市值高达约4.5万亿美元,2025年第三季度营收同比增长约62% [2] - 尽管存在众多挑战者,但目前均难以撼动英伟达的地位,但未来格局可能因技术路径差异和地缘政治因素而改变 [1][2] 竞争壁垒:技术与生态 - **训练是战略制高点**:在大模型发展的初期和中期,训练算力是核心瓶颈,决定了模型的“高度” [5] - **训练要求三要素**:对算力芯片的要求可拆解为单卡性能、互联能力和软件生态三部分 [6] - **单卡性能的追赶**:竞争对手如AMD的最新产品在主要性能指标上已接近英伟达同期产品,但仅凭此不足以构成威胁 [7] - **互联能力是关键差距**:英伟达通过NVLink、NVSwitch实现万卡级高效稳定互联;其他厂商实际落地集群规模多停留在千卡级,且缺乏大规模商用实践,导致在利用效率、训练时间和成本上存在显著差距 [7] - **软件生态构成核心护城河**:英伟达的优势更在于对算力生态的统治地位,其CUDA平台拥有超过400万开发者,积累了20年的成熟工具、软件库和社区支持 [8][9] - **生态的网络效应**:CUDA生态与主流深度学习框架(如PyTorch、TensorFlow)深度协同,形成强大的网络效应,使得用户转换成本极高 [10] - **学术与教育基础**:全球高校和AI实验室的教学实验设备几乎全是英伟达GPU,培养了熟练掌握CUDA的工程师人才池 [9] 相对弱势领域:推理市场 - **推理场景要求降低**:模型部署进行推理时,对算力卡数量和互联能力的要求远低于训练,有时甚至单卡即可完成 [12] - **生态依赖度降低**:训练完成的模型对英伟达开发生态依赖度降低,且存在成熟的跨平台迁移方法(如ONNX格式)可将模型部署到其他算力平台 [12][13] - **仍占据市场主导**:尽管统治力不如训练领域,英伟达在推理市场仍占据超过70%的市场份额,因其在性能、价格、稳定性、开发成本等方面的综合性价比仍有竞争力 [13] - **迁移成本高昂**:据访谈,将模型从英伟达平台迁移至其他品牌集群,可能导致开发周期延长6个月,成本增加40% [13] 谁能挑战英伟达 - **竞争者的两难选择**:挑战者必须面对技术和生态的双重壁垒,要么在技术上实现巨大超越,要么通过非经济手段(如保护性市场)避开生态正面竞争 [15] - **美国:技术路径挑战**:挑战主要来自定制化ASIC芯片(如谷歌TPU),通过牺牲灵活性换取AI计算效率,谷歌Gemini3大模型已完全基于TPU训练 [15] - **ASIC与GPU的权衡**:ASIC芯片在特定AI计算任务上效率、功耗更有优势,但面临模型算法范式变动带来的“过时”风险;短期内技术跨越不大,且生态劣势是全方位的,因此对英伟达影响有限 [16] - **中国:地缘政治催生的市场**:美国禁令使中国市场被动成为“被保护”的市场,英伟达的生态优势无法充分发挥 [17] - **中国市场的阵痛与机遇**:禁令导致中国AI产业短期内面临算力效率下降的阵痛,但为国产算力芯片企业(如华为、寒武纪、燧原)提供了重大发展机遇,迫使用户转向国产生态(如华为CANN) [18] - **生态迁移的长期影响**:尽管开发者转向国产生态面临学习成本和技术问题,但随着投入增加,生态将逐渐成熟;未来即使禁令解除,用户也可能因迁移成本已被“消化”而留在新生态 [18] - **政策的最新变化**:2025年12月8日,美国政府批准英伟达向中国出售较先进的H200芯片(附带条件),H200算力约为特供版H20的6倍,显存容量约为1.5倍,训练表现领先数倍到十倍以上,旨在维持技术代差和英伟达生态影响力 [19] - **中国的战略应对**:理性的策略不是完全禁止或无条件放开,而是允许必要的采购(如国产芯片无法满足的核心项目),同时设计机制在局部保护市场,扶持国内AI芯片企业发展自己的生态 [19] 战略考量:生态竞争与开源 - **超越国产替代思维**:仅关注国产替代可能导致全球技术封闭和脱钩 [21] - **生态竞争的本质**:与英伟达的竞争是生态与生态之间的竞争 [21] - **开源是最优解**:开源战略可以构建全球性网络,汇聚全球开发者智慧,放大创新效率,打破脱钩陷阱;华为已宣布将其CANN和Mind工具链全面开源开放 [21]
英伟达真正的对手是谁
经济观察网· 2025-12-22 15:48
文章核心观点 - 英伟达凭借先进的技术和强大的软件生态,在AI训练算力领域建立了近乎垄断的领导地位,但其在推理领域的统治力相对较弱,且正面临来自美国ASIC芯片技术路线及中国受地缘政治保护市场的长期挑战 [2][5][11][13][15][16] 竞争格局与英伟达优势 - 英伟达是AI算力领域的领导者,截至2025年11月市值约为4.5万亿美元,2025年第三季度营收同比增长约62% [2] - 英伟达面临众多挑战者,包括美国的AMD、英特尔、谷歌TPU、亚马逊Trainium/Inferentia及Cerebras、Groq等,以及中国的华为、寒武纪、燧原等,但目前均难以撼动其地位 [2] - 英伟达在训练算力的统治性优势源于单卡性能、互联能力和软件生态三方面 [5][6] - 在单卡性能上,英伟达处于行业顶尖,但AMD等竞争对手的最新产品的部分主要性能指标已接近英伟达同期产品 [7] - 在互联能力上,英伟达凭借NVLink、NVSwitch等技术实现了万卡级高效稳定互联,而其他厂商实际落地的集群规模大多仍停留在千卡级别,差距显著 [7] - 英伟达最核心的优势在于其软件生态,特别是拥有20年积累的CUDA平台,拥有超过400万开发者,形成了强大的网络效应和用户黏性 [8][10] - 主流深度学习框架PyTorch和TensorFlow与CUDA有深度生态协同,进一步巩固了其竞争优势 [9] - 学术界的最新AI论文开源代码通常只在英伟达GPU上验证,全球高校和AI实验室的教学实验设备也几乎全是英伟达GPU,这为其培养了庞大的熟练开发者基础 [9] 推理市场的相对弱势 - 相较于训练,推理场景对芯片互联能力要求大幅降低,有时仅需单卡部署 [11] - 在推理场景下,英伟达的生态优势不再显著,且存在成熟的跨平台模型迁移方法 [11] - 尽管如此,英伟达在推理市场仍占据超过70%的市场份额,因其综合性价比仍具竞争力 [11] - 根据对大厂工程师的访谈,将模型从英伟达平台迁移至其他品牌集群,可能导致开发周期延长6个月,成本增加40% [12] 挑战者与竞争路径 - 挑战英伟达必须面对技术和生态两方面的壁垒,生态壁垒远高于技术壁垒 [13] - 竞争者的成功路径有两种:一是在技术上实现巨大超越以克服生态劣势;二是利用非经济方法(如地缘政治)形成一个保护性市场,避开生态正面竞争 [13] - 在美国,挑战主要来自技术方面,如谷歌的定制化ASIC芯片TPU,其最新大模型Gemini 3完全基于TPU训练 [13] - ASIC芯片通过牺牲通用性换取在特定AI计算任务上的更高效率和更低功耗,但面临模型算法范式变动带来的“过时”风险 [14] - 短期内,ASIC芯片的技术挑战对英伟达影响有限,因其技术跨越并非巨大,而生态劣势是全方位的 [15] 中国市场的地缘政治影响 - 美国政府的芯片禁令使中国市场被动成为“被保护”的市场,英伟达的生态优势无法充分发挥 [16] - 禁令给中国AI产业带来中短期阵痛,但为中国算力芯片企业(如华为)提供了重大发展机遇,使其生态(如CANN)有机会在缺乏竞争的环境下成长 [17][18] - 2025年12月8日,美国政策转变,批准英伟达向中国出售较先进的H200芯片(附带条款),旨在维持技术代差和英伟达的生态影响力 [19] - H200的算力约为特供版H20的6倍,显存容量约为1.5倍,综合训练表现领先数倍到十倍以上 [19] - 对于中国市场,理性的策略是在允许必要采购(如前沿研究)的同时,设计机制鼓励和扶持国内AI芯片企业在相对受保护的市场发展自身生态 [19] 生态竞争的战略思维 - 与英伟达的竞争本质上是生态与生态的竞争,应避免单纯的国产替代思维,以防引发全球性的技术封闭 [20] - 开源思维被视为构建全球性网络、放大创新效率、打破脱钩陷阱的最优解 [20] - 华为在2025年8月宣布将其对标CUDA的CANN和Mind工具链全面开源开放,正是这种战略思维的体现,旨在快速汇聚全球开发者智慧,打造开放有竞争力的生态 [21]
群狼围上来了,黄仁勋最大的竞争对手来了
虎嗅APP· 2025-12-12 17:32
美国政府批准英伟达对华销售H200芯片 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头[4] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍被禁止出口[4] - 此举是英伟达首席执行官黄仁勋长达数月游说的结果,受此利好消息推动,英伟达股价盘后上涨[4] - 过去两年,受美国芯片禁运令限制,英伟达逐步失去迅猛增长的中国市场,丢掉了在AI GPU市场原先高达95%的份额,其数据中心业务在中国市场的营收占比也从原先的四分之一急剧下滑[4] - 黄仁勋曾公开抱怨公司在中国市场“完全出局,市场份额已经归零”,而中国AI GPU市场今年规模估计高达200亿-300亿美元,因此即使缴纳25%提成,重新进入该市场对英伟达业绩意义重大[5] 英伟达的市场地位与潜在风险 - 英伟达是生成式AI时代的领军公司,在AI芯片这个万亿级赛道中,以压倒性的性能优势和CUDA平台优势占据主导地位,其GPU产品线几乎垄断了八成以上的市场份额[5] - 公司是全球最具价值的上市公司之一,市值一度突破5万亿美元[5] - 英伟达数据中心业务营收高达1300亿美元(最近财年),但存在客户集中度过高的巨大隐患:前两大客户营收占比39%,前三大客户营收占比高达53%[5] - 据媒体猜测,前五大客户为微软、谷歌、亚马逊、Meta和甲骨文,而前三大巨头(微软、谷歌、亚马逊)正在加速转用自研芯片,这直接威胁英伟达的订单和市场份额[6] 亚马逊AWS的自研芯片战略 - 亚马逊AWS在re:Invent大会上发布了新一代自研AI芯片Trainium 3,被媒体誉为“对英伟达的直接宣战”[7][8] - Trainium 3是亚马逊自2022年以来的第三代AI芯片,主打低成本与推理优势,训练速度比前代快4倍,成本减半[8] - 与英伟达相当的GPU系统相比,Trainium 3可节省50%训练费用,现场演示显示其在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务[8] - AWS计划用自研芯片、自研模型、私有化部署及智能体全家桶,覆盖从训练到推理的整条AI赛道[9] - AWS在云计算市场保持巨大领先,市场份额超过三成,排名二三位的微软与谷歌市场份额分别为20%与16%[9] - OpenAI宣布与AWS签署七年价值380亿美元的AI基础设施服务协议,Anthropic等AI初创公司已转向Trainium,节省了超过三成的预算[9] 谷歌TPU的进展与市场威胁 - 谷歌是行业最早自研芯片的巨头,其第一代TPU于2016年发布,最新发布的第七代TPU v7 Ironwood进一步给英伟达带来压力[10][11] - Ironwood单芯片FP8计算能力达4.6 PFLOPS,比第五代TPU提升10倍,是第六代TPU的4倍,专为“高吞吐、低延迟”推理优化[11] - 相比英伟达Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片[11] - 2025年,谷歌的AI芯片市场份额预计已达到8%,尤其在占AI算力80%的推理领域[12] - 谷歌声称使用TPU可将训练成本降低40%,并已吸引Meta作为第三方客户,Meta计划在2027年部署谷歌TPU,而Meta正是英伟达AI芯片的第四大客户[12] - 谷歌Ironwood服务器将交由富士康代工[12] 微软自研芯片的挑战与延误 - 相比亚马逊和谷歌,微软在自研芯片领域遭遇挫折,其首代Maia 100芯片于2024年推出并开始部署,但原计划今年发布的Maia 200的大规模量产已推迟至2026年[13][14] - Maia 100是微软与博通合作开发的芯片,预计比英伟达H100芯片成本低40%,未来三代计划覆盖训练、推理和边缘[14] - 微软CTO表示公司未来将“主要使用自家芯片”,以减少对英伟达的严重依赖,但Maia 200的量产延误主要由于设计变更、仿真不稳定等技术内部因素以及台积电的产能瓶颈[15] - 由于在台积电抢不到先进制程产能,微软转向英特尔的18A节点计划在明年实现量产,如果Maia二代不能及时部署,微软明年可能还要投入100亿美元购买英伟达芯片[16] 性能与成本的竞争格局 - 英伟达在性能技术上仍具核心优势,其Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍,在推理任务中能效比谷歌TPU高出30%[17][18] - 英伟达的CUDA平台支持4000多个AI框架和库,拥有庞大的开发者生态,是其真正的护城河[18] - 成本是AI巨头自研芯片的最大卖点:亚马逊Trainium3宣称可将训练成本降至前代的50%,谷歌Ironwood TPU在推理任务中能效比英伟达H100高出20-30%[19] - AI巨头正通过软件生态蚕食英伟达优势:谷歌的JAX和PyTorch/XLA集成已覆盖70% AI工作负载,AWS Neuron SDK支持主流开源模型,微软DirectML无缝嵌入Visual Studio[19] - 亚马逊计划在Trainium4上集成NVLink兼容技术,预计训练费用再降40%,谷歌TPU v8计划于2027年商用,成本优势或达50%以上[19] 自研芯片的市场份额展望 - 亚马逊的目标是在明年达到50%的自研芯片占比,推动AWS在AI云市场的份额从31%升至35%[20][21] - 谷歌TPU的市场份额已攀升至8%,其外部销售占比已达到20%,随着2027年Meta转用TPU,将给英伟达带来更大竞争压力[21] - AI大模型公司如Anthropic正在推动芯片多元化,同时使用多家芯片而非仅依赖英伟达,Anthropic与谷歌签署了价值数百亿美元的协议,计划使用多达100万片TPU[21] - AMD CEO苏姿丰评价认为,未来五年内,GPU仍将占据市场大部分份额,但给ASIC类加速器(即三大巨头的自研芯片)留出20%–25%的市场份额是合理的[22] - 苏姿丰还计划AMD在未来3-5年抢到两位数的市场份额[22]
摩根士丹利科技对话:Joe Moore和Brian Nowak关于亚洲行调研NVDA与AVGOGOOGL TPU以及AMZN Trainium,以及MU、SNDK、AMD、INTC、ALAB、AMAT
摩根· 2025-12-03 10:12
行业投资评级与核心观点 - 英伟达在AI芯片市场占据主导地位,季度处理器收入超过500亿美元,远超谷歌TPU的约30亿美元,市场优势显著[1] - 尽管存在谷歌TPU等竞争,英伟达业绩预测在过去3到4个月内上升约20%,新交易如Anthropic将带来额外收入[2] - 英伟达面临供应限制,但其可编程性和灵活性在未来工作负载中仍将保持重要地位,预计市场将采用健康的混合方式[3] 主要科技公司动态 - 谷歌明年对英伟达芯片采购额将超过200亿美元,TPU采购规模在中低十几亿美元之间,预计明年将有更大幅度增长[3] - 亚马逊明年将重新加大对英伟达的采购力度,GPU在Gemini和搜索领域仍占据相当比例[3] - 博通提高产品构建水平以支持谷歌项目,可能牺牲部分Meta或OpenAI项目,其ASIC收入明年将超过300亿美元[4] - 亚马逊AWS Trainium 3预计延迟几周,Marvell负责网络和内存接口芯片,亚马逊预计将宣布与AMD合作[2] 云计算与芯片业务影响 - 谷歌TPU是GCP增长的重要动力,若售出50万台TPU,可能使2027年每股收益增加40-50美分[5] - GCP有望持续50%以上增长,TPU提供计算效率更高的产品,有助于吸引更多工作负载[5] - AWS增长趋势依赖于芯片策略,若提供更好训练芯片或增加GPU采购,将有助于在2026和2027年AI工作负载中保持竞争力[8] 内存与半导体市场 - DRAM供应紧张且需求强劲,美光是首选,其盈利能力预测比共识高出660%[9] - NAND市场整体形势强劲,美光和SanDisk基本面稳固[9] - 半导体资本支出受严格产能限制,台积电正在增加3纳米工艺产能,为应用材料等设备供应商带来新机遇[13] 竞争对手分析 - AMD在服务器市场因英特尔供应问题获得所有增长机会,预计持续到2027年,GPU方面MI355是Hopper竞争对手[10] - 英特尔面临供应问题,18A工艺竞争力不足,到2026-2027年不会有领先产品出现[11] - aSTERA实验室在PCI Express扩展方案上成功,与亚马逊合作,但Trainium 4可持续性存在不确定性[12]
一文读懂谷歌TPU:Meta投怀送抱、英伟达暴跌,都跟这颗“自救芯片”有关
36氪· 2025-11-27 10:39
文章核心观点 - 谷歌自研的TPU已从内部效率解决方案发展为具备挑战英伟达GPU霸主地位潜力的战略武器,其核心逻辑是通过全栈垂直整合和超大规模系统设计,在AI推理时代建立显著的成本和效率优势 [8][28][32] - 行业竞争焦点正从AI模型训练能力转向大规模推理的成本控制,谷歌凭借TPU及其全栈能力有望在新周期中构建牢固的竞争壁垒 [28][31][32] - 谷歌、英伟达和亚马逊在AI芯片领域遵循三种不同的技术路线和商业模式,导致产品形态和竞争格局的显著差异 [19][23] TPU的技术演进与系统优势 - TPU项目于2015年启动,初衷是解决深度学习模型在谷歌核心业务中全面应用可能导致的数据中心功耗和成本激增问题,而非追求通用芯片性能 [3] - TPU v1在2016年投入使用,2017年Transformer架构的出现被证明与TPU的计算模式高度匹配,促使谷歌构建从软件框架到芯片架构的全栈闭环 [4][5] - TPU v4在2021年首次将4096颗芯片组成超节点,通过自研环形拓扑网络实现高效协同,证明了集群规模与模型性能近乎线性增长的关系 [5] - TPU v5p在2023-2024年性能较v4翻倍,并首次大规模应用于谷歌广告、搜索、YouTube等核心盈利产品线,同时开始吸引Meta、Anthropic等外部客户 [6][7] - 2024年发布的TPU v6(Trillium)专为推理负载设计,能效比提升67%,目标成为“推理时代最省钱的商业引擎” [7][8] - 2025年的TPU v7(Ironwood)是首款专用推理芯片,单芯片FP8算力达4.6 petaFLOPS,其Pod可集成9216颗芯片,峰值性能超42.5 exaFLOPS,在特定负载下性能可达最接近竞品的118倍 [13][14] - Ironwood采用2D/3D环面拓扑结合光路交换网络,实现99.999%的年可用性,并通过系统级优化使推理成本较GPU旗舰系统低30%-40% [15][16] 行业竞争格局与商业模式对比 - 英伟达路线围绕GPU的通用性和CUDA生态构建,通过软硬件深度捆绑实现高定价权,但其GPU并非为推理优化,存在“英伟达税” [20][21][26] - 谷歌路线追求深度学习负载的极致效率,通过全栈垂直整合进行系统级优化,核心优势在于控制从芯片到数据中心的整个链条 [21][26] - 亚马逊路线以降低AWS基础设施成本和减少外部依赖为核心,其Trainium和Inferentia芯片更关注规模效应与经济性 [22][23] - 谷歌的全栈整合使其避免支付“英伟达税”,在提供同等推理服务时底层成本可能仅为对手的两成,这种成本结构在推理时代具有决定性意义 [26][27] - 谷歌云全年化收入达440亿美元,TPU助力其在与AWS和Azure的差异化竞争中获得新优势,并推动AI成为云业务增长的重要驱动力 [30][32] TPU的商业化影响与战略意义 - TPU使谷歌能够以相对低成本训练大规模模型,缩短模型迭代周期,并支持Gemini系列模型的训练与推理 [30] - 谷歌推出TPU@Premises计划,将TPU直接部署在企业数据中心,进一步扩大其商业辐射范围和成本优势 [27] - 企业AI采用加速,在大规模在线推理场景中,TPU相比GPU提供了更具经济性和稳定性的替代方案 [31] - 谷歌提供从模型训练到推理服务的整体解决方案,TPU作为底层基础设施,助力公司将自身塑造为企业AI的完整平台 [32] - TPU是谷歌在AI时代构建的最具战略意义的资产,正成为推动公司市值增长、云业务崛起和AI商业模式重塑的主力引擎 [32]
国产 ASIC:PD 分离和超节点:ASIC 系列研究之四
申万宏源证券· 2025-09-26 21:28
投资评级 - 报告对国产ASIC行业持积极看法,认为ASIC设计服务商迎来发展机遇,博通、Marvell、国内芯原股份、翱捷科技、灿芯股份有望受益 [2] 核心观点 - ASIC在能效与成本上优势突出,专用芯片特性使其在推理场景更具优势,AI渗透率提升带动推理需求激增,拓宽ASIC市场空间 [1][3] - ASIC设计复杂度高,专业分工下设计服务商价值凸显,博通等头部服务商凭借完整IP体系、封装技术和量产经验巩固行业地位 [1][3] - 国内云厂商自研ASIC已有独立成果,并非跟随海外路径,百度、阿里、字节等头部厂商推动国产ASIC放量,本土设计服务商迎来战略机遇 [1][3] - PD分离与超节点成为国产ASIC发展的两大核心趋势,华为、海光等厂商已形成自主技术体系,采用开源开放模式适配多元化需求 [1][4] 目录总结 大模型推理带动ASIC需求 - 2028-2030年全球AI芯片市场规模有望达5000亿美元,AI基础设施支出预计达3-4万亿美元 [8] - ASIC专用性强,谷歌TPU v5能效比为英伟达H200的1.46倍,亚马逊Trainium2训练成本较GPU降低40%,推理成本降55% [14][15] - 推理需求激增驱动ASIC需求,ChatGPT C端WAU达7亿,OpenRouter统计Token消耗量一年翻近10倍 [21][29] - 博通2024年AI ASIC收入122亿美元,2025年前三季度达137亿美元,AMD预计2028年全球AI ASIC市场规模达1250亿美元 [1][30] ASIC设计复杂度高,服务商价值凸显 - ASIC设计需前端需求定义与后端技术落地,云厂商多依赖服务商,博通、Marvell为全球主要服务商 [36][41] - 谷歌TPU成功离不开与博通合作,博通优势包括30亿美元投入积累的完整IP体系、TPU设计经验、3.5D XDSiP封装技术、高速互联与CPO技术 [1][55] - 博通2024年AI ASIC收入122亿美元,2025年前三季度达137亿美元,季度环比增速超越英伟达 [1][55] 国内ASIC发展并非跟随 - 2025H1中国AI云市场CR5超75%,头部云厂需求旺盛,百度昆仑芯迭代至第三代,实现万卡集群部署并中标10亿元中国移动订单 [1][74][75] - 阿里平头哥PPU显存容量96GB、带宽700GB/s超英伟达A800,签约中国联通16384张算力卡订单 [76][78] - 字节2020年启动芯片自研,计划2026年前量产,国产服务商芯原股份、翱捷科技、灿芯股份各具优势 [1][80][82] 国产ASIC技术趋势:PD分离与超节点 - PD分离指Prefill与Decode任务用不同芯片完成,华为昇腾950分PR和DT型号适配不同场景 [1][94][95] - 超节点通过高带宽互联形成统一计算体,海光开放HSL协议吸引寒武纪等参与,华为开放灵衢总线支持超8192卡扩展 [1][104][107] - 英伟达Rubin CPX为海外首个芯片级PD分离实践,采用GDDR7替代HBM降低成本,华为昇腾950PR/950DT分别针对Prefill和Decode优化 [90][92][95]
摩根士丹利:AI四大催化剂重塑明年互联网格局,巨头中最看好亚马逊、Meta、谷歌
美股IPO· 2025-09-18 06:09
生成式AI催化剂重塑互联网行业格局 - 四项关键生成式AI催化剂包括模型进步、代理式体验、资本支出和定制芯片 正在重塑互联网行业格局 [1][3] - 这些技术进展将推动谷歌 Meta和亚马逊在大型科技股中脱颖而出 [1][3][5] 四大宏观AI催化剂驱动因素 - 模型开发加速:顶尖AI模型将继续甚至加速改进 因充足资本 提升芯片算力和代理式能力开发空间推动 OpenAI 谷歌 Meta等公司将发布新一代更强大模型 [6] - 代理式体验普及:代理式AI产品提供更个性化互动和全面的消费体验 促进消费者钱包数字化 大规模应用需克服算力容量 推理能力和交易流程顺畅性等障碍 [7] - 资本支出激增:六大巨头(亚马逊 谷歌 Meta 微软 甲骨文 CoreWeave)数据中心资本支出总额2026年达5050亿美元 同比增长24% 每建设吉瓦级数据中心需400-500亿美元资本支出 [8] - 定制芯片重要性提升:第三方公司对谷歌TPU和亚马逊Trainium等定制ASIC芯片测试和采用可能性增加 成本效益和产能限制促使客户寻求ASIC解决方案 尤其在推理工作负载方面 [9] 资本支出对财务状况的影响 - 六大科技巨头资本支出2024年到2027年预计以34%复合年增长率增长 [10] - 2026年谷歌 Meta和亚马逊的基建资本支出预计分别占其税前自由现金流的约57% 73%和78% 表明公司愿意牺牲短期盈利能力换取长期技术优势 [12] 亚马逊投资价值分析 - 亚马逊是大型科技股首选 目标价300美元 评级增持 基于AWS业务再加速和北美零售业务利润率持续改善两大支柱 [14] - AWS数据中心建设步伐加快 2025年和2026年新增大量数据中心面积 为2026年实现20%以上收入增长提供物理基础 高于目前19%的基础预测 [14] - 北美零售业务利润率截至2025年第二季度为-1% 远低于2018年约1%水平 预计到2028年恢复至2018年水平 2026/2027年每股收益预测存在上调可能 [16] Meta投资价值分析 - 维持对Meta的增持评级 目标价850美元 关注核心平台改进 下一代Llama模型发布和多个未被充分定价的看涨期权 [18] - Meta利用GPU驱动核心广告业务改进 有巨大空间提升用户参与度和变现能力 预计2026年初发布经过充分测试和改进的下一代Llama模型 [18] - Meta AI搜索 商业消息等新业务是长期增长驱动力 Meta AI搜索到2028年可能创造约220亿美元年收入机会 用户采用率已迅速追平ChatGPT和谷歌Gemini [18] 谷歌投资价值分析 - 维持对谷歌的增持评级 目标价210美元 关注AI驱动的搜索增长 用户商业行为潜在转移和谷歌云增长 [20] - AI Overviews和AI Mode等创新有望推动搜索收入加速增长 预计2025年下半年和2026年搜索收入增速分别为12%和9% 谷歌仍是消费者商业行为首选平台 [20] - Gemini模型和TPU芯片是推动GCP增长的关键 Meta等公司与GCP合作有望为2026年云业务增长贡献约300个基点 定制芯片优势构成潜在上行催化剂 [20]