公司战略与产品发布 - 公司于近期公布了四款专为人工智能任务设计的定制内部芯片,作为其大规模数据中心扩张计划的一部分 [1] - 这些专用芯片属于Meta训练与推理加速器系列,该系列于2023年首次公开,并于2024年推出了第二代版本 [2] - 首款新芯片MTIA 300已于数周前部署,旨在帮助训练支撑其核心排名和推荐任务的小型AI模型,例如在Facebook和Instagram等应用中向用户展示相关内容与广告 [3] - 即将推出的MTIA 400、450和500芯片则用于更尖端的生成式AI推理任务,例如根据文字提示创建图像和视频,但不会用于训练大型语言模型 [4] - MTIA 400已完成测试阶段,预计将很快部署于数据中心,一个机架将包含72块该芯片以加速AI推理 [4][5] - 其余两款芯片预计将于2027年投入运营 [5] 技术优势与供应链策略 - 通过设计由台积电制造的定制芯片,公司可以在其数据中心集群中获得更高的性价比,减少对单一供应商的依赖 [2] - 定制芯片策略为硅供应提供了更多样性,并在一定程度上隔离了价格波动的影响 [3] - 公司以每六个月发布一款新芯片的快速节奏推进,主要原因是当前产能建设速度极快且资本支出巨大,公司希望随时能部署最先进的芯片 [6] - 公司预计这些芯片将拥有“标准五年以上的使用寿命” [6] - 对于为生成式AI推理任务提供动力的高带宽内存供应短缺问题,公司表示已为其计划建设的产能确保了供应 [9] - 公司对其供应链和硅战略采取了“多元化”方法,近期签署了协议,将在未来数年为其数据中心配备数百万块英伟达GPU以及高达6吉瓦的AMD GPU [10] 行业背景与竞争格局 - 近年来,谷歌等科技巨头一直在开发自己的内部芯片,以作为对英伟达和AMD昂贵且供应受限的GPU的替代方案 [7] - 这些超大规模公司一直在创建专用集成电路,其比通用AI主力GPU更小、更便宜,但功能范围更窄 [7] - 谷歌在2015年率先发布了其首款张量处理单元,亚马逊于2018年宣布了其首款定制芯片,这些公司的AI芯片是其云计算平台的一部分供客户使用,而公司的MTIA芯片则完全用于内部目的 [8] 产能与地理布局 - 公司的AI支出热潮包括在路易斯安那州建设一个巨型数据中心,以及在俄亥俄州和印第安纳州建设另外两个数据中心 [6] - 据报道,在OpenAI和甲骨文放弃扩张计划后,公司正考虑在德克萨斯州的Stargate站点租赁空间 [6] - 公司芯片由主要在台湾运营并在亚利桑那州拥有大型新芯片制造园区的台积电制造 [11] - 参与芯片研发的数百名工程师“核心团队”大部分位于美国,在总共30个已运营和计划建设的数据中心中,有26个位于美国 [11]
Meta rolls out in-house AI chips weeks after massive Nvidia, AMD deals