英伟达B系列服务器

搜索文档
CoWoS的下一代是CoPoS还是CoWoP?
傅里叶的猫· 2025-07-28 23:18
CoWoS技术回顾 - CoWoS封装流程分为三个阶段:裸片与中介层通过微凸块连接并填充保护[7] 中介层与封装基板连接[7] 切割晶圆形成芯片并连结至封装基板[7] - 最终结构包含保护环形框、盖板及热介面金属填补空隙[7] CoPoS技术分析 - 用面板级RDL层替代硅中介层 实现Base Die的板级放置[9] - 面板尺寸达510×515毫米 面积利用率显著提升 可容纳芯片数量为300毫米晶圆的数倍[11] - 目标替代CoWoS-R/L系列 但大尺寸面板面临曝光工艺挑战[11] CoWoP技术解析 结构创新 - 直接去除封装基板 通过uBump和C4 Bump连接Base Die与PCB[12] - 7nm以下工艺中C4 Bump直接连接Die存在技术难度[12] 核心优势 - 节省封装基板成本 减少工艺层级 材料费用压缩显著[14] - 信号路径缩短 提升PCIe 6 0/HBM3等效带宽利用率 延迟降低[15] - 无封装盖设计优化散热 支持液冷/热管等新型热管理技术[15] 技术瓶颈 - PCB需超高可靠性与精密度 焊接容错空间极小[16] - 无壳体保护导致热循环/机械应力下易出现裂纹[16] - 要求芯片封装厂与PCB制造商从设计阶段深度协同[16] 技术发展评估 - CoWoP属于激进方案 短期难以对PCB行业产生实质影响[17] - CoPoS尚未完全成熟 但面板化中介层是明确发展方向[11]
Google Token使用量是ChatGPT的6倍?
傅里叶的猫· 2025-07-27 23:20
核心观点 - Google的token使用量是ChatGPT的6倍,但Gemini的DAU仅为ChatGPT的1/4至1/2 [1][3][4] - Google的token消耗主要来自搜索产品(如AI Overviews、Lens等),而非Gemini Chat,后者仅占整体token使用的5% [6][7] - 2025年Q1 Google的AI推理token使用量达634万亿,远超微软的100万亿,4月单月token使用量480万亿,同比增长50倍 [6] - 尽管用户规模差距大,Gemini与ChatGPT的单个用户token消耗量相近(月均56,000 token/MAU) [7][8] - AI推理成本占Google搜索收入比例较低(1.4%),对利润率影响有限 [8] 用户数据对比 - ChatGPT的MAU为8亿+,Gemini为4亿+,DAU比例从1:2(Barclays)到1:4(semianalysis)不等 [4][6] - 用户活跃比率(DAU/MAU和WAU/MAU)均为0.1和0.6,两者持平 [6] - 在chat app统计中,ChatGPT DAU达1.6亿(占49%用户份额),Gemini DAU未披露具体数值但占11%用户份额 [6] 业务驱动因素 - Google搜索业务的新功能(AI Overviews、Circle to Search等)和Workspace产品深度集成Gemini模型是token激增主因 [6][7] - 2025年Q1 Google处理推理token的成本为7.49亿美元,占非TAC运营支出的1.63% [8] - 传统搜索运营成本占营收18%,AI成本占比1.4%,成本结构差异显著 [8] 基础设施需求 - 2025年Q1 Google需要约27万颗TPU v6芯片支撑token处理,季度新增芯片支出6亿美元 [8] - 预计Q2芯片支出将增长至16亿美元,AI推理成为基础设施建设的核心驱动力 [8] 行业动态 - 英伟达B系列服务器在国内开放样品订单 [10] - 行业信息交流平台提供每日更新的投行数据和分析报告 [12]
H20恢复供应,市场如何
傅里叶的猫· 2025-07-15 22:36
H20供应情况 - H20当前供应来源为库存而非新生产 库存数量存在两种说法 30w~40w片或60w~100w片 供应量有限[1] - 中国企业正积极抢购H20 大公司已提交大量采购申请 具体数字未披露[1] H20技术规格与市场需求 - H20通过"点断"技术实现硬件降规 从H200/H800改回H200成本过高被放弃[2] - Hopper系列(H200为主)国内需求疲软 近期价格大幅下跌 市场等待B200/B300服务器[2] H20未来生产计划 - H20库存售罄后大概率停产 英伟达重心转向Blackwell架构产品[3] - Hopper系列仅靠库存维持短期供应[3] 采购建议 - 潜在买家需尽快行动 避免后期供应短缺[4] 行业动态 - 英伟达B系列服务器已可接受国内样品订单[5]