谷歌TPU
搜索文档
性能是H20两倍!英伟达又一算力芯片或被批准出口,谷歌AI一体化产业链也连续突破
选股宝· 2025-11-24 07:29
据环球网22日援引外媒报道称,特朗普政府正考虑批准向中国出口美国芯片制造商英伟达的H200人工 智能芯片。 报道表示,两年前发布的H200芯片相比于其前代产品H100芯片拥有更多的高带宽内存,使其能够更快 速地处理数据。据估计,H200芯片的性能是英伟达H20芯片的两倍。 具体数据上,H200是英伟达第一款使用HBM3e内存的芯片,以每秒4.8TB的速度提供141GB的内存;与 A100相比,H200内存容量约提升两倍,带宽约增加了2.4倍。此外,英伟达随后推出的H200 NVL是基 于Hopper架构的PCIe版GPU。与H100 NVL相比,H200 NVL的内存容量提升了1.5倍,带宽提升了1.2 倍,能够在数小时内完成大型语言模型的微调,并提供高达1.7倍的推理性能提升。 另一方面,谷歌连续发布新模型相对于ChatGPT展现出了巨大的进步,高盛等对此分析表示,"这一点 已显而易见,但市场对此却反应迟钝。"谷歌供应链对OpenAI链的强烈替代走势。 华泰证券也认为谷歌TPU是目前唯一能与英伟达GPU匹敌的AI加速器,同时依托TensorFlow、OpenXLA 等学习框架与TPU构建软硬一体的AI生态, ...
万亿AI帝国的纸牌屋:英伟达循环融资模式下的增长悖论浅析
新浪财经· 2025-11-23 00:36
(来源:上林下夕) 表面繁荣的财报背后,客户集中度飙升、循环融资模式引发质疑、地缘政治风险加剧,这家 AI芯片巨头正面临前所未有的增长悖论。 英伟达2026财年第三财季营收达到创纪录的570亿美元,同比增长62%,净利润319亿美元, 同比增长65%。然而这份远超市场预期的财报背后,却隐藏着令人不安的信号——应收账款 周转天数延长至53天,库存环比暴涨32%至198亿美元,前四大客户销售占比持续攀升。更 值得关注的是,英伟达与OpenAI等企业建立的循环融资模式正引发市场严重担忧。这种通 过投资客户来维系业务增长的模式,在不同经济周期下的可持续性面临严峻考验。 来源:市场资讯 01 完美财报下的隐忧:53天DSO背后的信号 2025年11月19日,英伟达交出了一份令市场瞠目的财报成绩单。2026财年第三财季,这家 AI芯片巨头实现营收570.1亿美元,净利润达到319.1亿美元,同比分别增长62%和65%,均 超出市场预期。 然而,在这片繁荣景象之下,风险信号已经悄然浮现。财报中最不起眼却最关键的一个数字 是:应收账款周转天数(DSO)达到53天,较英伟达历史平均的46天延长了7天。以英伟达 日均收入6.26 ...
黄仁勋:定制芯片远不如英伟达芯片
半导体芯闻· 2025-11-21 18:49
英伟达对ASIC竞争的看法 - 英伟达首席执行官黄仁勋评论与谷歌、亚马逊等ASIC制造商的竞争,声称世界上没有多少团队能像英伟达团队那样构建极其复杂的系统[1] - 争论核心在于AI工作负载从训练转向推理时,英伟达技术栈是否可被替代,但公司认为定制ASIC在工程层面无法匹敌[1][2] - 公司指出对于云服务提供商而言,在数据中心部署随机ASIC不如选择英伟达技术栈理想,因后者应用范围更广[2] 英伟达的竞争优势 - 公司声称在AI行业三个主要方面——预训练、后训练和推理——都保持最优秀和不可替代的地位[2] - 英伟达拥有名为CUDA的强大软件栈,被视为吸引业界目光的关键所在,即使竞争对手能复制其计算能力[2] - 公司以近期与Anthropic达成的协议为例,该协议包括围绕Blackwell和Rubin系统构建的基础设施,展示其系统复杂性[1]
海内外云厂AI投入、算力建设与ROI测算
2025-11-07 09:28
涉及的行业与公司 * 行业:云计算与人工智能(AI)行业 [1] * 公司:海外主要云厂商包括微软、亚马逊(AWS)、谷歌、Meta [1][2][3][4];国内主要云厂商包括阿里云、腾讯云、字节跳动 [1][2][5][16] 资本开支投入与规模 * 海外云厂商资本开支自2023年下半年起量级和增速显著上升,年均增速超过50% [2];国内云厂商自2024年下半年开始大幅增长,主要科技大厂资本开支同比增长约100% [2] * 头部云厂商(微软云、亚马逊云、阿里云)2025年资本开支与全年云收入基本相当,均达千亿美金或人民币规模 [1][2];规模较小的云厂商(谷歌、腾讯)投资比重更高 [1][2] * 微软云的投资顶峰预计在2024年中旬 [1][8];阿里云目前正处于积极资本开支阶段 [1][9];字节跳动资本开支激进,投资金额相当于百度、阿里和腾讯三家总和,且增速极快 [16] 应对资本开支压力的措施 * 海外科技大厂采用金融化操作缓解压力:Meta通过体外公司发债270亿美金用于数据中心建设 [3];谷歌计划发债150亿美金 [3];微软融资租赁占资本开支比例已达1/3 [3] * 国内方面,阿里巴巴2025年资本开支已超过经营性现金流100%,主要因外卖业务补贴成本及云端投资增加 [5] 财务状况与盈利能力影响 * AI云业务初期拉低了海外厂商经营利润率:微软云过去两年经营利润率持续下滑,主因AI云业务毛利率低于传统云、折旧摊销和研发成本增加 [6];但AI云业务显著拉动了整体收入增速 [1][6] * 预计2026年海外科技大厂将面临更大利润率压力 [6];微软当前AI云经营利润率约20%,预计2030年能提升至40%以上 [25] * 国内阿里云情况不同:AI云业务毛利率略高于传统云 [1];其经调整EBITDA口径下整体利润率维持在9%左右 [6];预计AI云未来将带动整体利润改善 [1][6];阿里巴巴目前AI云经营利润率约4%,预计2030年提升至25% [25] AI云业务对传统云业务及行业的拉动效应 * AI云不仅是新收入增量,还显著拉动传统云业务发展 [7];例如阿里云在AI云推出后实现了近30%的同比收入增长,而此前国内整体云市场增速约为10% [1][7] * AI云能推动行业整体盈利能力提升,通过形成规模效应改善盈利 [1][7] 算力建设规模与计划 * 海内外云厂商投入大量资金用于算力建设 [10];建造1吉瓦(GW)数据中心约需300亿至600亿美元 [10];1吉瓦数据中心相当于50万至70万张H100显卡 [10] * 微软全球数据中心功耗已达5GW,其中英伟达显卡功耗约3.5GW,过去一年新增2GW [12][13];亚马逊AWS过去12个月新增3.8GW电力配套 [13] * 阿里巴巴数据中心功耗预计从2022年1.5GW增长至2032年15GW,未来十年可能累计投入1.5万亿元人民币 [15] 供应链与芯片格局 * 英伟达大客户主要为大型云厂商(微软、谷歌、亚马逊等),占据其数据中心收入一半以上 [4][12];2025年主权基金和初创AI公司采购增长迅速 [4][12];微软拥有相当于300多万张H100显卡 [4][12] * 自研芯片发展:谷歌TPU(第六代产品)处于第一梯队 [18];Meta专注于推荐算法场景的ASIC芯片 [18];预计2026-2027年各大科技公司自研芯片将进入量产阶段 [18];英伟达当前占据80%以上份额 [18] * 国产芯片应用:目前主要用于推理场景 [20];采购情况尚不明朗,性能和稳定性仍存不确定性 [4][15];若仅采购国产芯片,总投资额可能低于预期 [15] * 字节跳动海外采购占比高,预计2026年进一步提升,并积极拓展海外算力和数据中心建设 [16][17] AI业务收入模式与投资回报(ROI) * AI云计算收入来源包括内部使用(如赋能内部产品、开发独立AI应用)和外部使用(如MaaS、GPU租赁、PaaS/SaaS服务) [21];独立AI应用目前变现程度较低 [21] * AI云业务整体毛利率可达70%至80% [22];国内AI云收入构成中,GPU租赁约占一半,MaaS占低个位数,其余为PaaS和SaaS [22][23] * 利润结构差异:国内MaaS部分利润率较低,常作为引流产品 [24];海外微软AI云毛利率约40%,低于其传统云毛利率(60%-70%以上) [24] * ROI测算:微软与谷歌预计到2030年资本回报率约17%,约6年收回投资 [25];阿里巴巴预计2030年资本回报率约11%,需10年收回投资 [25] * Meta在广告推荐系统上的AI投资回报极高,广告收入同比增速超过20%,超额利润支持其生成式AI研发 [4][14] 发展周期与市场估值 * 微软云扩张周期预计持续5-6年(2023年至2028或2029年) [8];资本开支投入到收入端兑现存在约1.5到2年滞后 [1][8] * 市场对AI发展的预期推动估值上升:微软在资本开支初期估值即上升,当资本开支减缓而云业务加速时估值进一步提升 [8];阿里云因处于积极资本开支和云业务加速阶段,估值持续抬升 [1][9] * 当前估值:2025年微软与谷歌估值分别达14倍和10倍PS,亚马逊略有弱化 [27];国内市场对阿里巴巴估值预期为7到8倍PS [27] * 海外科技巨头将AI视作10年长期计划,前五年集中于成本投入,预计2030年至2035年间业务持续增长并显著提升ROI [26];2025年多家公司收入同比增长已达到或超过30% [26]
软银被曝曾计划收购百亿美元半导体公司,谷歌也刚刚祭出大动作
选股宝· 2025-11-07 07:30
并购动态 - 软银在数月前向定制芯片公司Marvell提出收购意向,但双方未能就条款达成一致,此消息导致Marvell美股盘中大涨 [1] - Marvell主营业务为定制芯片,其ASIC业务提供从网络接口、内存到封装的全套解决方案,服务模式与博通类似 [1] 产品与技术进展 - 谷歌宣布将在未来几周推出第七代张量处理单元Ironwood,该芯片专为高要求工作负载设计,在训练和推理方面的性能较第六代Trillium TPU提升四倍 [1] - 单个超级计算机单元可通过芯片间互联网络连接多达9216颗Ironwood TPU,并访问1.77 PB的共享高带宽内存 [1] - 谷歌TPU v5的能效比为英伟达H200的1.46倍,亚马逊Trainium2的训练成本较GPU方案降低40%,推理成本降低55% [2] 市场规模与财务表现 - 博通2024年AI ASIC收入达122亿美元,2025年前三季度收入达137亿美元,其季度环比增速已超越英伟达 [2] - 根据AMD预测,2028年全球AI ASIC市场规模有望达到1250亿美元,博通预计2027年大客户ASIC服务市场规模为600-900亿美元 [2] 国内厂商动态 - 国内头部云厂商自研ASIC取得成果:百度昆仑芯已迭代至第三代,实现万卡集群部署并中标10亿元中国移动订单 [2] - 阿里平头哥PPU在显存和带宽上超越英伟达A800,签约中国联通16384张算力卡订单 [2] - 字节跳动于2020年启动芯片自研,计划在2026年前实现量产 [2] 产业链相关公司 - 芯原股份IP丰富且具备5nm工艺能力,翱捷科技在手订单充足,灿芯股份依托中芯国际布局成熟制程 [2]
谷歌“性能最强”的AI芯片,来了
第一财经资讯· 2025-11-06 22:24
产品发布与性能 - 谷歌推出第七代张量处理单元芯片Ironwood,是其迄今为止最强大的芯片 [1] - Ironwood芯片的处理速度比其前代产品快四倍多 [1] - 该芯片最初于4月推出进行测试,未来几周将全面上市 [1] 市场反应与客户情况 - 芯片发布后,谷歌美股盘前上涨1.75% [1] - 已有主要客户排队等候Ironwood芯片 [1] 行业竞争格局 - 大多数大语言模型和AI工作负载一直依赖于英伟达的图形处理器 [1] - 谷歌的TPU属于定制芯片类别,在价格、性能和效率方面均有可能提供优势 [1]
AI算力大战打到太空,英伟达前脚H100入轨,谷歌TPU后脚上天,中国玩家笑而不语
36氪· 2025-11-05 12:52
公司动态与计划 - 英伟达H100芯片已由初创公司Starcloud搭载于Starcloud-1卫星发射升空,该卫星重60公斤,大小与小型冰箱相当[3][4] - Starcloud计划最早于明年启动商业服务,并计划将Blackwell架构芯片送入太空,终极目标是建造功率达5吉瓦、跨度约4公里的轨道数据中心[6] - 谷歌计划将自家TPU送上太空,其“太阳捕手计划”的两颗原型卫星预计在2027年初发射,旨在测试TPU在太空的运行情况及分布式机器学习任务的可行性[8][10] - 中国之江实验室的“三体计算星座”首批12颗卫星已于今年5月发射,并在今年9月实现常态化商业运行,其首发星座在轨计算能力达到5POPS[17] 技术路径与应用场景 - Starcloud-1卫星将接收来自合成孔径雷达卫星群的数据,并在太空中进行实时处理后传回地球,以减轻通信压力[4][14] - Starcloud计划在轨道上使用H100运行谷歌的开源模型Gemma,以证明大型语言模型在外太空运行的可行性[6] - 计算卫星通过激光通信实现互联互通,通信速度最高可达100Gbps,将单颗卫星的计算能力从T级提升至P级[17] - 谷歌在实验中已成功使用现成光通信模块实现800Gbps单向(1.6Tbps双向)短距光通信,验证了其用于小尺度卫星集群的潜力[14] 成本与经济效益 - Starcloud认为即使算上发射费用,太空能源成本也仅为陆基方案的十分之一[12] - 谷歌测算显示,若低地球轨道发射成本降至每公斤200美元,则卫星的单位电力年均成本可降至810美元每千瓦年,与美国数据中心570到3000美元的当前成本区间相当[12] - 发射成本呈下降趋势,以SpaceX为例,其每年发射载重量翻倍,单价下降20%,预计2035年前可将每公斤发射成本降至200美元以内;若星舰实现重复使用,成本有望进一步降至每公斤60美元甚至15美元[12] 技术优势与可行性 - 太空太阳能电池板的效率可比在地球上高出8倍,并且几乎可以持续发电,从而减少对电池的需求[12] - 太空数据中心可利用深空真空作为无限的散热器,英伟达与Starcloud联合开发了通过卫星外壳高导热材料将热量以红外辐射形式排向太空的真空散热架构[12][13] - 谷歌验证显示,其TPU的HBM组件对辐射的耐受性良好,在累积剂量达到2000rad(Si)后才出现异常,此数值是预期五年任务剂量的三倍[16] - 谷歌模型显示,只需要适度的轨道保持机动,即可维持星座的稳定运行[14]
AI太空竞赛?英伟达H100刚上天,谷歌Project Suncatcher也要将TPU送上天
36氪· 2025-11-05 10:20
项目概述 - 谷歌宣布启动名为“Project Suncatcher”(捕光者计划)的项目,旨在设计一个基于太空的可扩展AI基础设施系统 [1] - 该项目构想利用太阳能卫星星座,配备谷歌TPU和自由空间光通信链路,以在太空中扩展机器学习计算规模 [6] - 项目首次发射时间定于2027年初,届时将与Planet公司合作发射两颗原型卫星 [3] 核心设想与动机 - 太阳是太阳系中的终极能源,其辐射能量超过人类总发电量的100万亿倍,项目旨在更好地利用太阳能驱动AI [1][6] - 在合适的轨道上,太阳能电池板效率可比地球上高出8倍,并能近乎持续发电,从而减少对电池的需求 [6] - 该方法被认为具有巨大的规模化潜力,并能最大限度地减少对地球资源的影响 [6] 系统设计与技术方案 - 系统由运行在“晨昏同步近地轨道”的卫星网络星座组成,可几乎持续接收日照,最大化太阳能收集效率 [8] - 系统设计采用模块化理念,专注于由更小、互连的卫星组成,为未来高度可扩展的太空AI基础设施奠定基础 [8] - 卫星将以近距离编队飞行(如半径1公里的81星集群),以实现高带宽、低延迟的星间通信 [7][10] 关键技术挑战与进展 - **高带宽星间链路**:需支持每秒数十Tb速率,谷歌通过验证器已实现单向800 Gbps(总计1.6 Tbps)的传输速率 [8][9] - **卫星编队控制**:开发了物理模型分析轨道动力学,表明仅需适度轨道保持机动即可维持星座稳定 [10][12] - **辐射耐受性**:Trillium TPU在测试中承受了最大剂量15 krad (Si),远高于五年任务预期的750 rad (Si),显示出惊人抗辐射能力 [13][14] - **热管理与在轨系统可靠性**:被确认为仍需解决的重大工程挑战之一 [3][18] 经济可行性分析 - 发射成本是系统总体成本的关键组成部分,分析表明到2030年代中期,发射至近地轨道的成本可能降至每千克约200美元或更低 [7][15] - 按此价格点计算,天基数据中心的发射和运营成本可能与同等地面数据中心的能源成本大致相当 [15] 未来方向与行业意义 - 初步分析表明,天基ML计算的核心概念未受基础物理学或不可逾越的经济障碍阻碍 [18] - 该项目被视为谷歌挑战艰难科学和工程问题的“登月”传统的延续,类比于其大规模量子计算机和自动驾驶汽车的早期探索 [8] - 长期来看,吉瓦级的卫星星座或将成为可能,并催生出更适合太空环境的新型计算架构 [18]
AI算力大战打到太空!英伟达前脚H100入轨,谷歌TPU后脚上天,中国玩家笑而不语
量子位· 2025-11-05 10:08
太空算力竞赛格局 - 英伟达与谷歌正积极布局太空算力基础设施,计划在太空建立吉瓦级数据中心[2] - 中国公司在太空算力领域处于领先地位,已实现常态化商业运行[5][34] - 行业正从技术验证阶段向规模化商用阶段过渡[35] 英伟达太空算力部署 - 通过Inception计划孵化的Starcloud公司执行太空算力部署,本月已发射搭载H100芯片的Starcloud-1卫星[6][7] - 卫星重60公斤,尺寸相当于小型冰箱,选择H100因其在训练、微调和推理方面的最佳性能[7][8] - 卫星将处理合成孔径雷达卫星群数据并实时传回地球,计划2025年启动商业服务[9][11] - 远期目标建设功率达5吉瓦、跨度4公里的轨道数据中心,预言10年内新建数据中心将全部建在太空[11][12] 谷歌太空算力计划 - 太阳捕手计划预计2027年初发射两颗原型卫星,测试TPU在太空运行情况[14][18] - 卫星采用太阳能供能和自由空间光通信技术,验证分布式机器学习任务可行性[17][18] - 谷歌目标同样是在太空建成吉瓦级数据中心,已发表专门论文论证可行性[19][20] 太空算力经济性与技术优势 - 太空能源成本仅为陆基方案的1/10,发射成本持续下降推动经济可行性[21][22] - 太阳能电池板效率较地球提升8倍,深空真空环境提供无限散热能力[24] - 在轨处理卫星数据可减轻通信压力,Starcloud已实现对SAR数据的在轨处理[25][26] - 光通信链路实验实现800Gbps单向传输,TPU辐射耐受性达预期任务剂量三倍[27][30] 中国太空算力进展 - 之江实验室三体计算星座首批12颗卫星已于2024年5月发射,计算能力从T级提升至P级[32] - 星座在轨计算能力达5POPS,卫星间激光通信速度最高达100Gbps[32][33] - 该星座于2024年9月实现常态化商业运行,标志着太空算力进入实用阶段[34]
中美谈判、OpenAI IPO、北美CSP业绩及出货量、光模块需求
傅里叶的猫· 2025-10-30 20:33
中美芯片谈判 - 谈判结果引发市场对英伟达B30A芯片是否放开的猜测,但具体指向仍不明确 [2] - 前总统特朗普表示谈判涉及英伟达芯片,但排除了Blackwell架构,可能指代B200/B300以外的产品 [2] OpenAI上市计划 - OpenAI启动IPO筹备,目标估值1万亿美元,计划融资不低于600亿美元,预计2027年上市 [3][4] - 公司2025年预计营收约130亿美元,但运营亏损因算力扩张与研发投入持续扩大 [5] - 已完成公司结构重组,将早期投资者持股转为普通股并取消股东回报上限,为上市扫清障碍 [5] - 微软持有约27%股份,但已放弃云服务独家供应权,双方转为基于2500亿美元采购合同的合作关系 [5] - 上市计划正值全球AI投资热潮,早期投资者如微软所持股份价值约1350亿美元 [6] 北美云服务提供商业绩与资本开支 - Meta、微软和谷歌均上调资本开支,显示对AI发展的乐观态度 [7][10] - Meta AI月活跃用户超10亿,其Superintelligence Labs正研发下一代通用AI模型,计划整合三大AI系统 [10] - 微软与OpenAI签署新协议,OpenAI新增2500亿美元Azure服务采购承诺,Azure AI Foundry已有8万家客户 [12] - 谷歌采取全栈式AI布局,其Gemini API每分钟处理70亿tokens,Gemini应用月活用户超6.5亿 [13] - 行业矛盾正从缺算力转向缺电力,未来3-5年电力供应将成为关键红利期 [13] 光模块市场需求预测 - 2026年1.6T光模块总出货量预计提升至3000万件,受英伟达Rubin架构和谷歌TPU需求驱动 [16] - 英伟达2025/2026年CoWoS需求预计达37.7万片/63万片,2026年Blackwell/Rubin出货预计为500万/200万件 [16] - 谷歌2025/2026年TPU出货量预计270万件/400万件,将带动600万/1000万件800G/1.6T光模块需求 [16] - 英伟达Rubin GPU配备两颗CX9网卡芯片,带宽较Blackwell翻倍 [17] - Lumentum的OCS业务2025/2026年总出货量预计1.5万/3万件,2026年占30%市场份额 [18] 芯片与ASIC出货及市场规模 - 2024年全球GPGPU总出货量510万件,预计2026年达1040万件,2024年至2026年复合年增长率43% [19] - 2024年全球ASIC总出货量420万件,预计2026年达890万件,2024年至2026年复合年增长率46% [19] - 2024年GPGPU市场规模1180亿美元,预计2026年达2710亿美元,2024年至2026年复合年增长率51% [19] - 2026年800G光模块出货量预计4300万件,1.6T光模块出货量预计3000万件 [20] 半导体制造技术 - SemiAnalysis发布关于X射线光刻技术能否颠覆ASML与台积电芯片制造格局的分析 [21]