AWS Trainium芯片

搜索文档
AWS科普:什么是芯片?
半导体行业观察· 2025-09-04 09:24
AWS芯片战略与设计理念 - 公司自2015年收购Annapurna Labs后持续为数据中心自研芯片 采用垂直整合和系统优先的开发模式 硬件与软件工程师在芯片设计至服务器部署全流程协作[2] - 芯片开发目标是为特定工作负载定制化设计 而非先构建芯片再集成系统 以此提升性能效率[2] 芯片基础原理与特性 - 计算机芯片由硅基半导体材料构成 内含电子电路 作为电子设备的核心决策单元 不同芯片设计目标差异显著(如智能手机芯片侧重多功能与续航 AI芯片专注数据处理)[4] - 芯片性能依赖超高速数据传输能力 架构需优化组件布局以最小化信息交换距离 即使原子级长度误差也可能导致项目延误数月[4][5] - AWS Trainium芯片专为机器学习训练设计 每秒可完成数万亿次计算 单个芯片计算量相当于人类计数31700年[5] Trainium芯片架构设计 - 芯片设计类比城市规划:脉动阵列作为"市中心" 由数千个计算单元组成网格 以节律性脉动模式并行处理数据 执行浮点乘法和累加计算(MAC运算)[6][7][9] - 数据通过专用路径(数据总线)传输 高流量区域采用"高速公路"式宽总线 低流量区域使用"小巷"式窄总线 工程师需优化路径避免信息瓶颈[11] - 存储单元作为"外围区域"战略布局 频繁访问数据靠近计算核心 中介层位于芯片底部 建立计算核心与内存间电通路 管理电力传输与数据流[13][15] 系统级集成与扩展 - 单台Trainium服务器容纳16块芯片 4台服务器互联构成UltraServer系统 实现64芯片协同工作 显著加速复杂计算[15] - 数十万芯片跨数据中心互联形成全球最强AI训练计算机之一 支撑生成式人工智能发展[15]
中信证券:液冷市场空间扩容 看好国内企业出海的潜力
智通财经· 2025-08-07 08:55
行业趋势 - 谷歌、Meta、微软、AWS等云厂商定制ASIC芯片及英伟达GPU的AI服务器热设计功率密度提升,对液冷需求明确 [1] - ASIC芯片及英伟达GB300持续放量将大幅提升液冷渗透率,市场空间扩容 [1] - 预计2026年ASIC及英伟达GPU芯片出货量大幅增长,液冷市场空间显著提升 [2] 技术发展 - Meta与博通合作定制ASIC芯片,AI服务器热设计功率推高至180kW以上,使用液冷散热组件 [2] - 谷歌从TPU3.0开始使用液冷方案,AWS聚焦Trainium芯片,Meta MTIA芯片迭代至第二代 [2] - OpenAI计划采用台积电3nm及A16制程生产ASIC,预计2026年底量产 [2] 市场空间 - 液冷系统单KW价值量约8000元,其中CDU占比40%,液冷板占比20%-30%,UQD占比10% [2] - 假设2026年ASIC+GPU芯片出货量超1000万片,对应液冷市场空间约800亿元 [2] - 国内大陆厂商有望获得800亿市场空间的30%份额,对应240亿元收入体量 [3] 企业竞争力 - 国内大陆液冷企业在技术、产品质量、成本、服务等综合能力优秀,部分龙头厂已进入英伟达供应链 [1][3] - 国内企业在客户拓展、项目经验等方面有较大提升,预计未来更多公司成功出海 [3][5] - 北美液冷产业链集中于美国和中国台湾地区,国内企业具备全球市占率提升潜力 [3]