MTIA 450芯片
搜索文档
Meta发布四颗芯片,疯狂堆料
半导体行业观察· 2026-03-12 09:39
Meta发布新一代自研AI加速器芯片 - Meta宣布推出四款全新的Meta训练和推理加速器产品线芯片,旨在处理排名和推荐训练与推理、以及基础AI模型训练与推理等计算密集型任务 [2] - 这些芯片由Meta与合作伙伴博通共同开发 [2] 各型号MTIA芯片规格与定位 - **MTIA 300**: 专为排名和推荐训练设计,包含两个RISC-V内核及多个专用处理单元,采用芯片组设计组装 [3] - **MTIA 400**: 基于MTIA 300设计,面向通用的元工作负载,是Meta首款旨在与市场上最快AI加速器竞争的自研芯片 [3][5] - **MTIA 450**: MTIA 300的升级版,引入新芯片组配置、更多处理单元及对新数据类型的支持,针对大规模复杂AI工作负载,在MTIA 400基础上增加了内存带宽,MX4容量增加75%,并新增用于注意力机制和前馈网络计算的硬件加速功能 [3][6] - **MTIA 500**: MTIA 300的升级版,引入新芯片组配置、更多处理单元及对新数据类型的支持,针对最大、最复杂的AI工作负载,计划于2027年应用于元数据中心 [3][4] 芯片性能关键指标 - **HBM容量与带宽**: MTIA 300配备216GB HBM,带宽6.1TB/s;MTIA 400配备288GB HBM,带宽9.2TB/s;MTIA 450配备288GB HBM,带宽翻倍至18.4TB/s;MTIA 500配备384GB至512GB HBM,带宽高达27.6TB/s [3][4] - **计算性能**: MTIA 400的MX4推理性能为12 PFLOPs,MTIA 450为21 PFLOPs,MTIA 500为30 PFLOPs [4] - **热设计功耗**: MTIA 300为800W,MTIA 400为1200W,MTIA 450为1400W,MTIA 500为1700W [4] - **扩展能力**: MTIA 400、450、500的扩展域规模均为72个设备,通过交换式背板连接构成单一扩展域 [4][5] 与行业竞品对比 - Meta MTIA 500的HBM带宽为27.6TB/s,高于英伟达即将推出的Rubin GPU的22TB/s HBM4带宽 [5] - 英伟达Rubin GPU宣称将提供35 petaflops的NVP4训练能力和50 petaflops的NVP4推理能力 [5] 芯片设计特点与优势 - **模块化芯片组设计**: 加速器架构采用独立的、可重复使用的计算、I/O和网络芯片组构建模块,允许每个芯片组单独升级,从而在几个月内完成改进,而非几年 [11] - **制造灵活性**: 不同芯片组可以在不同的工艺节点上制造,以在满足性能与功耗要求的同时最大化降低成本 [11] - **基础设施兼容性**: MTIA 400、450和500采用相同的机箱、机架和网络基础设施,使得芯片升级极其便捷 [11] - **MTIA 500设计创新**: 采用2×2配置,其中较小的计算芯片组被多个HBM堆栈、两个网络芯片组以及一个提供PCIe连接到主机CPU和横向扩展网卡的SoC芯片组所环绕 [11] Meta的AI芯片战略 - Meta在自研AI加速器的同时,也是英伟达最大的客户之一,多年来购买了数百万块英伟达GPU,包括Grace、Blackwell和即将推出的Rubin GPU [11]