Workflow
Trainium系列芯片
icon
搜索文档
替代英伟达,亚马逊AWS已部署超过100万枚自研AI芯片
36氪· 2025-12-03 18:01
作者按:re:Invent是全球最大云厂商亚马逊AWS一年一度的战略和技术大会。re:Invent 2025于12月1日-5日在美国拉斯维加斯召开。我们 在现场,记录美国云计算行业这一年最新的变化。 以下是正文: 美国西部时间12月3日,全球最大云计算厂商亚马逊AWS在re:Invent 2025发布了新款AI芯片和新款自研模型。 (亚马逊AWS CEO马特·加曼在re:Invent 2025发布Trainium 3) 亚马逊AWS CEO(首席执行官)马特·加曼(Matt Garman)宣布,亚马逊AWS自研的AI芯片Trainium 3已经上线,这是一款3nm(纳米)工艺制程的芯 片。亚马逊AWS下一代AI芯片Trainium 4也在研发设计阶段。 亚马逊AWS还发布了Amazon Nova 2系列的自研模型。其中包括Lite(轻量化版)、Pro(专业版)、Sonic(声音模型)、Omni(多模态推理模型)这四 款模型。目前Amazon Nova系列已有数万企业客户,包括海信、印孚瑟斯(印度第二大IT企业)等。 01 亚马逊AWS已部署百万枚自研AI芯片 马特·加曼提到,目前亚马逊已经部署了超过100万枚 ...
大摩:刚刚,亚马逊的“AI转折点”出现了?
美股IPO· 2025-11-02 14:28
Project Rainier核心数据中心投产 - 公司位于美国印第安纳州的Project Rainier核心数据中心已全面投入运行,目前正为Anthropic训练Claude大模型[3][4] - 该系统部署近50万颗Trainium 2芯片,规模比AWS历史上任何AI平台大出70%,是全球最大的AI训练计算机之一[1][4] - 预计到年底Trainium 2芯片数量将翻番至100万颗,公司计划在年底前进一步扩展1GW容量[1][5][9] AI基础设施产能兑现 - Project Rainier的投运标志着公司AI基础设施扩张从战略布局转向产能兑现,成为AI业务发展的重要转折点[1][6] - 该系统通过NeuronLink技术连接数万台超级服务器,旨在最小化通信延迟并提升整体计算效率[9] - 公司计划到2027年将AWS的GW容量翻倍,未来24个月计划新增10GW数据中心容量[9][13] 自研芯片战略成效 - Trainium系列(AI训练)和Inferentia系列(推理)芯片构成AWS在AI计算上的"双引擎"[9] - Trainium系列已成为价值数十亿美元的核心业务,季度环比增长150%,当前产能已全部预订[9][10] - Trainium的采用使模型训练和推理成本显著下降,推动AWS利润率改善,Bedrock平台上绝大多数token使用量已在Trainium芯片上运行[10] AWS增长前景 - 摩根士丹利预计AWS未来两年收入增速将分别达到23%与25%[1][6][15] - 美银预测仅Anthropic就可能在2026年为AWS带来高达60亿美元的增量收入,推动整体增长率提升约4个百分点[1][6][15] - AWS在10月份签署的新业务超过整个第三季度,单月新增业务约180亿美元,目前仍处于"产能受限"状态[13][14] 财务数据预测 - 大摩将亚马逊目标价从300美元上调至315美元,较当前股价有约25%上涨空间[11] - 最新预测显示2025年AWS收入为1282.51亿美元(较此前预测上调1%),2026年达1571.92亿美元(上调1%),2027年达1924.59亿美元(上调2%)[16] - 公司总净销售额预计2025年达7164.58亿美元(同比增长12%),2026年达7997.68亿美元(同比增长12%)[16]
刚刚,亚马逊的“AI转折点”出现了?
华尔街见闻· 2025-11-02 13:33
项目Rainier核心数据中心投运 - 位于美国印第安纳州的Project Rainier核心数据中心已全面投入运行,部署近50万颗Trainium2自研芯片,规模比AWS历史上任何AI平台大70% [1] - 该系统由AWS与Anthropic共同打造,是全球最大AI计算集群之一,合作伙伴Anthropic正利用其训练Claude模型,计算能力比此前训练模型多5倍以上 [1][2] - 公司计划在年底前将Trainium2芯片部署数量翻番至100万颗,并扩展1GW容量,到2027年计划将AWS的GW容量翻倍 [2][4] AI基础设施规模与战略 - Project Rainier系统通过NeuronLink技术连接数万台超级服务器,旨在最小化通信延迟并提升计算效率,标志着AWS大规模AI产能扩张的开始 [4] - 公司AI战略核心是自研芯片体系,Trainium系列(专用于AI训练)和Inferentia系列(专用于推理)构成AWS在AI计算上的"双引擎" [4] - Trainium系列芯片已发展成价值数十亿美元的核心业务,季度环比增长150%,其采用使模型训练和推理成本显著下降,推动AWS利润率改善 [5] 未来产品规划与平台发展 - 公司正在筹备Trainium3的推出,预计最快今年底发布,2026年大规模部署,新一代芯片将扩展到更广泛的客户群体 [5] - AI平台Bedrock旨在成为"世界最大的推理引擎",其长期发展潜力堪比AWS核心计算服务EC2,目前Bedrock上绝大多数token使用量已在Trainium芯片上运行 [5] 财务预测与增长动能 - 摩根士丹利预计AWS未来两年收入增速将分别达到23%与25%,AI需求爆发预计在2026年为AWS带来高达60亿美元的增量收入 [2][11] - 大摩将亚马逊2026/2027年资本支出预期分别上调13%/19%,现预计总资本支出为1690亿美元/2020亿美元,技术和基础设施投入将高于微软、Meta、谷歌等巨头 [12] - AWS在10月份签署的新业务超过了整个第三季度,单月新增业务约180亿美元,目前仍处于"产能受限"的供不应求状态 [10][11] 市场评级与前景 - 摩根士丹利将亚马逊列为"Top Pick",目标价从300美元上调至315美元,较当前股价有约25%上涨空间,认为AWS正迎来"AI增长加速周期" [6][9] - 分析师指出AWS增长动能包括产能快速扩张、结构性扩张周期(未来24个月新增10GW容量)、AI订单激增以及创新加速 [9][10]
电子行业点评报告:AIASIC:海外大厂视角下,定制芯片的业务模式与景气度展望
东吴证券· 2025-08-07 15:34
行业投资评级 - 电子行业维持"增持"评级 [1] 核心观点 ASIC业务模式关键能力 - 服务商需具备IP设计能力:包括计算、存储、网络I/O及封装四部分IP,博通、Marvell提供完整解决方案,国内芯原专注处理器IP [6] - 高速SerDes IP是竞争壁垒:国外厂商达224G速率,国内多数具备112G技术 [6][21] - SoC设计能力:博通、Marvell占据超60%市场份额(博通55-60%,Marvell13-15%),已为谷歌、Meta、亚马逊开发多代产品 [6][36] 市场空间预测 - 2028年定制芯片市场规模上调至554亿美元(定制XPU 408亿,附件146亿),23-28年CAGR 53% [6][44] - 博通预计2027年三家大客户数据中心XPU与网络市场规模达600-900亿美元 [6][43] - Marvell预测2028年数据中心资本开支超1万亿美元,AI加速相关占3490亿美元 [6][44] 行业景气度与业绩 - 博通FY25Q2 AI业务收入44亿美元(同比+46%),定制加速器持续两位数增长 [6][51] - Marvell FY26Q1数据中心营收14.41亿美元(同比+76%),AI定制芯片放量 [6][52] - 毛利率分层:博通/Marvell含XPU业务约60%,AIChip/GUC约20-32%,国内芯原定制业务仅15% [6][50][56] 重点公司分析 海外龙头 - 博通:锁定谷歌TPUv7p、Meta MTIA三代项目,半导体部门毛利率67% [6][51][56] - Marvell:独供亚马逊Trainium2(3nm),下一代产品锁定先进封装产能 [6][36][52] 国内厂商 - 芯原股份:具备5nm-250nm全制程设计能力,SerDes IP依赖Alphawave授权 [6][41] - 寒武纪-U:2025E PE 220x,总市值2904亿元,获"买入"评级 [5] - 海光信息:2025E PE 109x,总市值3192亿元,与计算机组共同覆盖 [5][6] 技术发展趋势 - 先进制程竞争:博通/联发科开发TPUv7e(3nm),Marvell Trainium3采用3nm工艺 [6][36] - 封装技术:Chiplet成为布局重点,Marvell通过3D封装提升互连性能 [6][27] (注:所有数据及结论均基于报告原文提取,未包含风险提示及免责条款相关内容)