Workflow
AVGO Tomahawk Ultra (THU) switch
icon
搜索文档
半导体-2025 年热门芯片会议:依旧聚焦人工智能-Semiconductors-Hot Chips 2025 Conference - Still All About AI
2025-09-06 15:23
涉及的行业或公司 * 半导体行业 特别是AI计算 内存和网络技术领域[1] * 涉及的公司包括 Broadcom Inc (AVGO) NVIDIA Corporation (NVDA) Advanced Micro Devices (AMD) Marvell Technology Inc (MRVL) MACOM (MTSI) Astera Labs Inc (ALAB)[3][8] 核心观点和论据 AI驱动强劲需求与技术发展 * AI采用的爆炸性增长持续推动对先进计算 内存和网络技术的多年强劲需求周期[1] * 大型语言模型(LLM)性能持续受益于规模(更多参数)和可用计算能力(更多FLOPS)[1] * GPU/XPU集群规模持续快速扩张 META指出当前10万+的集群预计在未来十年内将扩大"10倍" 因为更多计算等于更好性能[1] * 电I/O和当前可插拔光学技术的局限性正在推动光学技术的更深度集成(共封装光学CPO 板载和芯片内光学)[1] 关键产品性能与规划 * Google Ironwood TPU (与Broadcom共同设计 3nm)展示了GPU与XPU性能差距的缩小 其峰值FLOPS比TPU v5p高约10倍 能效(峰值每瓦FLOPS)提高约5.6倍[3] * Ironwood配备192GB HBM3E 带宽7.3 TB/s 而TPU v5p为96GB HBM2 带宽2.8 TB/s[3] * Ironwood超级模块可扩展至9216个芯片 提供1.77 PB可直接寻址HBM和42.5 exaflops的FP8计算能力 总功耗约10 MW 每芯片约1kW[3] * Ironwood每瓦FLOPS (密集FP8为4.2 TFLOPS/瓦)略低于NVDA的B200/300 GPU(约4.5 TFLOPS/瓦)[3] * AMD MI355X运行在更高的TBP和最大时钟速度(1.4kW/2.4Ghz) 比MI350X(1.0kW/2.2GHz)计算性能高9%[5] * AMD重申MI400系列及其"Helios"机架解决方案按计划于2026年推出(MI500计划于2027年)[5] 定制化与网络扩展机遇 * META的定制化Catalina NVL72系统展示了NVDA MGX架构的灵活性 其配置将Grace CPU数量加倍至72个 聚合LPDDR提升至34.6 TB 缓存一致性内存(HBM + LPDDR)总量增加60%至48 TB[4] * 扩展域(scale-up domains)正在增长 AVGO提到客户正在规划1k+的扩展域 这代表了以太网在传统扩展(scale-out)之外的重大机遇[1] * AVGO推出51.2 TB/s的Tomahawk Ultra (THU)交换机 专为HPC和AI应用的扩展向上(scale-up)设计[5] * NVDA通过推出"Spectrum-XGS"以太网继续进军以太网领域 旨在解决跨多个数据中心的分解集群带来的"横向扩展(scale across)"机遇[5] 光学集成以克服限制 * 铜互连的限制(例如随着SerDes比特率增加 传输距离减少) 机架功率密度的快速增长 以及光学收发器相对较高的成本和功耗 正在推动光学技术在AI基础设施中的更深层次集成[5][6] * Lightmatter展示其Passage M1000 "用于AI的3D光子中介层" 其光学波导分布在整个芯片表面 比电信号消耗的功率显著减少[6] * Ayar Labs讨论其TeraPHY光学I/O小芯片 支持高达8.192 TB/s的双向带宽 能效比传统可插拔光学+电SerDes高4-8倍[6] * 共封装光学(CPO)和其他领先的光子技术尚未广泛部署 但数据中心的功率限制预计将成为2027-2028年广泛采用的关键驱动因素[6] 其他重要内容 * 网络继续代表AI基础设施建设中一个未被充分重视的方面 不仅使AVGO和MRVL等现有公司受益 也使产品组合不断扩展的NVDA受益[5] * AMD被认为在推理计算(其需求增长快于训练)的市场份额捕获方面处于有利地位 因其产品相对于NVDA替代方案具有强大的性能和总拥有成本(TCO) 并且能够将NVDA训练的模型相对无摩擦地部署到AMD GPU上进行生产[5] * 预计Ironwood (TPU v6 3nm)将在未来6-7个月内为AVGO带来90亿美元收入 整个生命周期收入超过150亿美元[3]