TPU v7

搜索文档
全球主流算力芯片参数汇总、整理、对比
是说芯语· 2025-06-20 21:38
芯片厂商及产品 - 英伟达、英特尔、AMD及美国互联网大厂是主要芯片厂商 [1] - 国产芯片厂商包括寒武纪、昆仑芯、燧原科技、摩尔线程、沐曦科技、壁仞科技、天数智芯等 [3] 芯片制程及性能 - 英伟达B200采用4NP制程 晶体管数量2080亿 芯片面积1600mm² 晶体管密度130万/mm² [5] - 英伟达H100-SXM采用4nm制程 晶体管数量800亿 芯片面积814mm² 晶体管密度98万/mm² [5] - AMD MI300X采用5nm制程 晶体管数量1530亿 芯片面积1017mm² 晶体管密度15万/mm² [5] - 谷歌TPU v7p采用3nm制程 晶体管数量2744亿 芯片面积890mm² 晶体管密度308万/mm² [5] - 寒武纪MLU370-X4采用7nm制程 晶体管数量390亿 [5] 芯片能效比及算力 - 英伟达GB200 BF16算力5000 TFLOPS INT8算力10000 TFLOPS FP4算力20000 TFLOPS [7] - 英伟达B100 BF16算力30 TFLOPS INT8算力60 TFLOPS FP16算力900 TFLOPS [7] - AMD MI300X BF16算力490 TFLOPS FP16算力980 TFLOPS FP32算力1961 TFLOPS [7] - 谷歌TPU v7p BF16算力4614 TFLOPS FP16算力4614 TFLOPS FP32算力2307 TFLOPS [7] - 寒武纪MLU370-X4 BF16算力150 TFLOPS INT8算力256 TFLOPS [7] 显存技术及带宽 - 英伟达B200采用HBM3e显存 显存带宽16TB/s 显存容量384GB [8] - 英伟达H100-SXM采用HBM3显存 显存带宽3.35TB/s 显存容量80GB [8] - AMD MI300X采用HBM3显存 显存带宽5.3TB/s 显存容量192GB [8] - 谷歌TPU v7p采用HBM3e显存 显存带宽7.3TB/s 显存容量192GB [8] - 寒武纪MLU370-X4采用LPDDR5显存 显存带宽0.3TB/s 显存容量24GB [8] 国产芯片进展 - 寒武纪MLU370-X4于2022年发布 采用7nm制程 晶体管数量390亿 [5] - 昆仑芯R200于2021年发布 采用7nm制程 芯片面积504mm² [5] - 燧原科技邃思1.0于2019年发布 晶体管数量141亿 芯片面积480mm² [5] - 壁仞科技BR100于2022年发布 晶体管数量770亿 芯片面积1074mm² [5] - 天数智芯天垓100于2021年发布 晶体管数量240亿 [5]
IP 设计服务展望:2026 年 ASIC 市场动态
2025-05-22 13:50
纪要涉及的行业和公司 - **行业**:IP/设计服务、ASIC市场 - **公司**:AWS、Google、META、Microsoft、Alchip、eMemory、GUC、Faraday、M31、Andes、Broadcom、Marvell、Apple、OpenAI、xAI、Intel、Bytedance、Li - auto、Furiosa、Qualcomm、MediaTek 纪要提到的核心观点和论据 各公司ASIC进展 - **AWS**:Trainium 3问题解决,继续与下游供应商接单,预计签署Trainium 4合同,实际项目已启动 [2] - **Google**:从TPU v6到v8进展稳定,规格高于其他CSP的ASIC,TPU v6p和v7p配置不同且ASP可能提升,未来难不与Broadcom合作 [2] - **META**:从MTIA v2向MTIA v3代际迁移,2026年MTIA v2产量10 - 20万片,MTIA v3产量20 - 30万片 [2] - **Microsoft**:Maia v2计划2026年量产50万片,原分配计划改变,Marvell获40万片;Maia v3供应商选择竞争激烈,预计年底出结果,MSFT/GUC团队分配量可能较少 [3][4] - **非CSP公司**:Apple、OpenAI、xAI等系统厂商构建自己的ASIC服务器,多在2H25流片,2H26量产,选择与Broadcom合作的规格高端,2027年非CSP服务器增多,利好Broadcom [7] - **Apple**:加速器预计4Q26量产,2026年出货10万片 [8] - **OpenAI**:3nm ASIC预计9月流片,2026年6月量产,2026年产量30 - 40万片,生命周期1 - 1.5年 [9] - **xAI**:3nm ASIC项目预计2H25流片,2H26量产,2026年产量30 - 40万片 [9] 公司业绩与业务情况 - **GUC**:FY25因Google CPU和加密项目收入可能超预期,Google 3nm服务器CPU收入提前至3Q25,预计成前5大客户;FY26即使无加密收入,代工收入仍有增长,CEO认为Google CPU和第三CSP客户潜在收入高于Maia v2 [10][11] - **M31**:今年重点是前季度签署合同的第二次付款;与Qualcomm合作紧密,Qualcomm 2H25启动2nm智能手机SoC项目,1Q26启动2nm AI PC处理器项目,MediaTek 2nm智能手机SoC项目未启动 [12][13] - **Faraday**:1Q25收入增长源于中国客户购买三星HBM2E的预付款,若客户被列入实体清单,剩余价值小且客户自行处理库存核销 [14] 其他重要但可能被忽略的内容 - 展示了多家公司的股票信息,包括市值、评级、价格、目标价、EPS、PE、PB、ROE、股息率等 [6] - 给出了CSPs的ASIC订单分配给设计服务提供商的情况 [15] - 呈现了ASIC的规格信息 [15] - 展示了ASIC MP的时间线 [17] - 给出了2026年各公司ASIC的芯片数量、晶圆发货量和收入贡献估算 [18]
Counterpoint:需求强劲 台积电(TSM.US)3nm制程成为其史上最快达成全面利用的技术节点
智通财经网· 2025-05-15 20:39
智通财经APP获悉,5月15日Counterpoint发文,全球晶圆代工市场的龙头企业台积电(TSM.US)在经历2022年末的库存调整后,进一步巩固了其行业的主导地 位。先进制程产能利用率保持高位,凸显了公司技术的领先优势。根据Counterpoint的数据显示,3nm制程凭借Apple A17 Pro/A18 Pro芯片、x86 PC处理器及 其他应用处理器芯片(AP SoC)的巨大需求,在量产后第五个季度就实现了产能充分利用,创下先进制程初期市场需求的新纪录。 至于未来的发展,NVIDIA Rubin GPU的引入,加上Google TPU v7、AWS Trainium 3等专用AI芯片的相继问世,在AI与高性能计算(HPC)应用需求持续攀升 的驱动下,预计未来将延续目前先进制程的高产能。 相比之下,智能手机市场已有制程(比如7/6nm和5/4nm)的初期产能增长较为缓慢。7/6nm制程虽在2020年左右凭借智能手机的需求大涨实现产能充分利用, 但随后增长放缓;而5/4nm制程在2023年年中再次增长,并在NVIDIA H100、B100、B200及GB200等AI加速芯片需求激增的推动下持续恢复。这 ...
TSMC 先进制程产能利用率持续保持强劲
Counterpoint Research· 2025-05-15 17:50
台积电市场地位与技术优势 - 台积电在2022年末库存调整后进一步巩固全球晶圆代工市场龙头地位,先进制程产能利用率保持高位[1] - 3nm制程在量产后第五个季度实现产能充分利用,创下先进制程初期市场需求新纪录,主要受Apple A17 Pro/A18 Pro芯片、x86 PC处理器及AP SoC需求驱动[1] - NVIDIA Rubin GPU、Google TPU v7、AWS Trainium 3等专用AI芯片需求推动AI与HPC应用增长,预计先进制程高产能趋势将持续[1] 不同制程产能动态 - 7/6nm制程因智能手机需求在2020年实现产能充分利用,但后续增长放缓[2] - 5/4nm制程在2023年年中恢复增长,受NVIDIA H100、B100、B200及GB200等AI加速芯片需求激增带动,产能显著提升[2] - 3nm制程成为台积电史上最快达成全面利用的技术节点,5/4nm制程在2022年Q3至2023年Q1库存调整后快速回升[4] 2nm制程发展前景 - 2nm制程预计在量产后第四个季度达成产能满载,刷新商业化纪录,受智能手机与AI应用双重需求驱动[7] - 台积电战略目标为2nm技术流片数量在头两年超越3nm和5/4nm同期水平,潜在客户包括Qualcomm、MediaTek、Intel、AMD等[7] - 台积电美国亚利桑那州工厂投资1650亿美元,未来可能承接2nm及以下制程产能的30%,增强地缘政治韧性并满足AI/HPC领域需求[9] 产能布局与战略 - 台积电美国工厂将涵盖4nm、3nm、2nm及更先进制程,核心研发仍集中在台湾[9] - 双重布局战略确保公司2030年后持续保持最先进制程高利用率,同时平衡地缘风险与客户需求[9]
全球算力芯片参数汇总
是说芯语· 2025-05-07 14:05
半导体综研 . 半导体供应链数据研究综合平台 以下文章来源于半导体综研 ,作者关牮 JamesG 申请入围"中国IC独角兽" 半导体高质量发展创新成果征集 前言: AI 大模型能力的快速提升(如 Qwen3 、 Llama4 的多模态升级与逻辑推理优化)正推动 AI 从辅助工 具向核心生产力渗透。而算力芯片的性能对大模型的训练、推理至关重要。本文通过统计全球主要算力 芯片的 算力、显存 和 互联带宽 指标,对比海外第三方设计公司、海外大厂自研和国产芯片的单卡性 能。 不考虑软件(如 CUDA )、 Scale out 架构(如华为 CloudMatrix 超节点)和成本。 一、算力指标 1. 制程: 海外: 第三方设计公司:为后续产品制程的升级预留了空间。 英伟达最新的 Blackwell 系列使用了 TSMC 4NP ,相当于 4nm 高性能版本。 AMD 、英特尔最新产品的制程都是 5nm 。 Groq 为了追求性价比, 使用 GlobalFoundries 的 14nm 。 大厂自研: 谷歌最新的 TPU Ironwood ( TPU v7p )和亚马逊的 Trainium3 都使用了最先进的 3nm ...