TPU Ironwood
搜索文档
谷歌开放TPU芯片!电子ETF(515260)下挫1.8%!机...
新浪财经· 2025-11-07 16:16
东海证券指出,北美云厂商2025年三季度资本开支加速增长,合计达1133亿美元,同比增长75%,资源 高度集中于AI基础设施部署。高通宣布推出AI200与AI250加速芯片,进军高端AI数据中心市场,为英 伟达主导的格局注入竞争。电子行业需求持续复苏,存储芯片价格上涨,国产化力度超预期。 德邦证券指出,本轮AI带动的全球半导体扩产持续,25Q2全球半导体设备销售额达331亿美元,同比增 长23%;国内半导体设备厂商Q3营收大幅增长,反映下游晶圆厂进展顺利,且研发投入保持高速增 长,国内半导体产业链有望加速发展。海外大厂Q3中国区营收快速增长,随着关键设备到位,国内先 进制程扩产或提速。 电子ETF($华宝中证电子50ETF$)及其联接基金(联接A:$华宝中证电子50ETF联接A$,联接C:$华 宝中证电子50ETF联接C$)被动跟踪电子50指数,该指数前十大权重股分别为立讯精密、寒武纪、工业 富联、中芯国际、海光信息、胜宏科技、北方华创、澜起科技、中科曙光、京东方A。 数据来源于沪深交易所、公开资料等。 来源:市场资讯 (来源:电子ETF华宝) 11月7日,截至14时59分,电子ETF盘中表现疲软,场内价格现 ...
全球要闻:美股重回避险状态纳指跌近2% 马斯克万亿美元“薪酬包”获批
新浪财经· 2025-11-07 14:44
来源:市场资讯 (来源:要闻君) 美东时间周四(11月6日),美股再度转弱,重回避险状态,三大指数集体收跌,纳指跌近2%。美国裁员 数激增,加上OpenAI高管关于AI巨头需要美国政府担保言论引发市场担忧,美股七巨头领跌。特斯拉 股东大会召开,超过75%的特斯拉投票股东赞成马斯克的1万亿美元薪酬方案。 截至收盘,标普500指数跌1.12%,报6720.32点;道琼斯指数跌0.84%,报46912.30点;纳斯达克指数跌 1.90%,报23053.99点。 【市场综述】 据报道,隔夜OpenAI首席财务官Sarah Friar在周三的一场活动中表示,公司正在寻求构建由银行、私募 基金、以及联邦政府"兜底"(backstop)或"担保"( guarantee)组成的生态体系,以帮助公司为其巨额芯片投 资提供融资支持。 市场原本已经开始担忧AI是否已经催生泡沫,此番言论则加剧了投资者担忧。 不过此后,Sarah Friar紧急澄清,表示OpenAI目前并没有在寻求政府为其基建投资承诺提供"兜底",使 用"兜底"这个词导致她的本意被混淆。 同时OpenAI首席执行官奥尔特曼也在周四收盘前发了一篇超长帖子,回应了一系列 ...
AI算力下半场,具备预期差的方向
格隆汇APP· 2025-09-11 20:40
文章核心观点 - ASIC芯片行业正在崛起 从AI算力需求的配角转变为主角 成为科技投资不可忽视的新势力[2] - 博通等ASIC厂商表现强劲 涨幅甚至超过英伟达 反映出科技投资格局的重大变化[2] - 全球ASIC芯片市场规模将从2024年120亿美元增长至2027年300亿美元 年复合增长率达34%[2] ASIC行业市场规模与增长 - 2024年全球ASIC芯片市场规模达120亿美元[2] - 预计2024-2027年市场规模将突破300亿美元 年复合增长率34%[2] - AI算力需求呈指数级增长推动ASIC从配角变身主角[2] 博通公司业绩表现 - 博通三季度AI芯片营收同比暴涨63%[5] - 获得第四家大客户价值100亿美元的定制AI芯片(XPU)订单[5] - 采用模块化ASIC架构 开发周期缩短 从谈判到落地仅用9个月[6] ASIC与GPU技术对比 - ASIC像定制菜刀 为特定任务优化 GPU像多功能瑞士军刀 能应对各种场景但不够极致[6] - ASIC在AI大模型推理场景中优势明显 过去设计周期18-24个月 现在压缩至6-12个月[6] - 成本降低60%以上 得益于IP核复用和云设计平台等技术革新[6] 海外巨头布局动态 - AWS Trainium2在同等预算下完成推理任务速度比英伟达H100更快 性价比提升30%-40%[8] - 谷歌第七代TPU Ironwood支持10MW级液冷机柜 FP8算力超越英伟达B200芯片[8] - Meta的MTIA系列ASIC计划采用170kW高功率液冷机架 专为短视频推荐算法优化[8] - 2024年云厂商自研ASIC占其算力采购量的25%[13] 技术优势指标 - AWS Trainium2的TOPS/W(每瓦算力)比英伟达H100高40%[9] - 谷歌TPUv4的三年总拥有成本(TCO)比GPU低55%[9] - 针对Transformer架构优化的ASIC 在自然语言处理任务中的延迟比GPU低30%[9] 国内厂商发展状况 - 寒武纪推出思元590芯片 采用Chiplet技术实现算力灵活扩展[7] - 某电信运营商使用寒武纪芯片搭建边缘计算节点 AI推理成本降低45%[7] - 中芯国际14nm FinFET工艺良率提升 支撑国内50%以上的ASIC量产需求[14] - 长电科技2.5D封装技术使ASIC互联带宽提升3倍[14] 产业链投资机会 设计端 - IDM巨头博通在数据中心互联场景占据60%份额[13] - 专业设计公司芯原股份ASIC定制服务收入从2022年8亿元增至2024年25亿元 年复合增长率超70%[10] 制造与封装端 - 北方华创刻蚀机已用于ASIC生产[14] - 中微公司薄膜沉积设备进入ASIC产线[14] - 通富微电提供Chiplet封装服务[14] 配套产业 - 液冷系统在ASIC服务器中成本占比达15%-20% 是普通服务器的3倍[11] - 光互联部件价值量随算力提升呈指数级增长[11] - 英维克提供浸没式液冷方案 单机柜液冷价值量是风冷的5倍[14] - 高澜股份冷板式液冷产品进入博通供应链 2024年相关收入增长翻倍[14] - 太辰光为博通XPU提供MPO连接器 每机柜光模块需求从16个增至48个[14] - 中际旭创光模块在ASIC集群中渗透率行业领先[14] 投资逻辑框架 - 看订单能见度 优先选择有长期大客户的厂商[17] - 看技术壁垒 关注拥有自主IP核和快速设计能力的公司[17] - 看配套弹性 液冷和光互联环节能获得更高业绩增长[17]
英伟达不再独霸?谷歌AI芯片算力追平B200
观察者网· 2025-04-10 13:50
文章核心观点 谷歌在 Google Cloud Next 25 大会推出第七代 TPU---Ironwood,这是专为支持大规模思考和 AI 推理模型设计的高性能芯片,标志着人工智能发展基础设施的转变,具备诸多优势且有应用计划 [1][3] 分组1:芯片基本信息 - 4 月 9 日谷歌在拉斯维加斯举办的 Google Cloud Next 25 大会推出第七代 TPU---Ironwood,是迄今性能最强的 TPU [1] - TPU 是 2015 年谷歌首次提出、2016 年正式发布的专为加速深度学习任务设计的人工智能芯片 [3] 分组2:芯片意义与需求 - Ironwood 推出标志人工智能及其发展基础设施从响应式人工智能模型到主动生成洞察和解读模型的转变 [3] - 推理时代 Agent 需主动检索和生成数据,实现这点需要满足巨大计算和通信需求的芯片及软硬协同设计 [3] 分组3:芯片性能参数 - Ironwood 最高配集群有 9216 个液冷芯片,峰值算力 42.5 ExaFlops(每秒运算 42500000000000000000 次) [3] - 是谷歌首款在张量核心和矩阵数学单元中支持 FP8 计算的 TPU,FP8 算力 4614 TFlops 略高于英伟达 B200,内存带宽 7.2TBps 略低于 B200 [5] - 芯片中第三代 SparseCore 加速器编码算法可加速金融和科学计算,最初设计用于加速推荐模型 [5] - 每瓦性能是第六代 TPU Trillium 的两倍,每芯片容量 192 GB 是 Trillium 的 6 倍,能处理更大模型和数据集 [6] 分组4:芯片对比数据 | | TPU v4 | TPU v5p | Ironwood | | --- | --- | --- | --- | | 推出年份 | 2022 | 2023 | 2025 | | Pod Size (chips) | 4896 | 8960 | 9216 | | HBM Bandwidth/ | 32 GB | 95 GB | 192 GB | | Capacity | @ 1.2 TBs HBM | @ 2.8 TBs HBM | @ 7.4 TBs HBM | | Peak Flops per chip | 275 TFLOPS | 459 FLOPS | 4614 TFLOPS | [6] 分组5:芯片应用情况 - 谷歌计划将 TPU v7 整合到谷歌云 AI 超算,支持推荐算法、Gemini 模型以及 AlphaFold 等业务 [6] - OpenAI 联合创始人 AI 初创公司 Safe Superintelligence 利用 Google Cloud 的 TPU 芯片支持 AI 研究 [7]