Workflow
Graviton系列芯片
icon
搜索文档
亚马逊2000亿美元投资计划“炸场”,折叠着AI时代资本逻辑的惊天变局
搜狐财经· 2026-02-06 17:26
亚马逊2025年第四季度财报与2026年激进投资计划 - 2025年第四季度总营收2133.9亿美元,超出市场预期 [1] - AWS业务营收355.8亿美元,同比增长24%,创13个季度新高 [1] - 预计2026年资本支出将激增至约2000亿美元,同比大幅增长50% [1] - 股价在盘后交易中一度下跌近10%,反映市场对激进投资计划的担忧 [1] 2000亿美元资本支出的具体投向 - AI基础设施:推进“Rainier”项目,已上线近50万颗自研Trainium2芯片,目标到2026年底实现30%的AI计算任务由自研芯片处理 [3] - 自研芯片战略:投入开发专用AI芯片,降低对第三方依赖,提升算力效率和成本竞争力 [3] - 物流与机器人:计划部署超过10万台新型机器人,目标将订单处理时间缩短30%,并向美国农村地区扩张配送网络 [3] - 低地球轨道卫星网络:推进Project Kuiper计划,构建全球通信基础设施 [4] 组织架构调整与AI业务进展 - 近期宣布裁员1.6万人,是三个月内第二轮大规模裁员,计划裁员总数约3万人,旨在优化传统业务人力结构,将资源向AI领域转移 [5] - AWS增长动力:自研AI芯片组合(Trainium与Graviton)年收入超过100亿美元,同比增长超过三位数;Trainium2芯片已出货140万片 [5] - AI模型平台生态:Amazon Bedrock平台新增20多个全托管AI模型,涵盖主流模型,降低企业AI应用门槛 [5] - AI购物助手Rufus已服务超过3亿用户,在2025年贡献约120亿美元的增量销售额,预计每年将带来超过100亿美元的增量销售额 [6] 行业资本开支趋势与市场反应 - 北美四大云厂商(亚马逊、微软、谷歌、Meta)相继宣布以AI为核心的巨额投资计划,旨在巩固AI领域竞争力 [7] - 具体投资规模:亚马逊约2000亿美元(同比增50%);Alphabet 1750亿至1850亿美元(较2025年翻番);Meta 1150亿至1350亿美元(约为2025年两倍);微软市场预期约977亿美元(近乎翻倍) [8] - 资本市场反应:亚马逊盘后跌10%,谷歌股价承压,Meta跌破关键支撑,市场重新评估科技公司投资回报周期,担忧行业进入“过度投资”阶段 [8] 财务表现与竞争压力 - 截至2025年第四季度末,过去一年经营现金流1395亿美元,同比增长20%,但自由现金流仅112亿美元,较上年同期的382亿美元大幅缩水70.7% [9] - 自由现金流走弱主因资本开支猛增:过去一年扣除处置和激励后用于物业和设备的支出达1283亿美元,同比增65%;现金流量表口径下购买物业和设备达1318亿美元,较上年的830亿美元激增近59% [9] - 亚马逊预测2026年第一季度利润可能因成本上升而下滑,加剧投资者担忧 [9] - 公司面临微软Azure和谷歌云的追赶,2000亿美元投资被视为在AI时代维持算力优势的进攻与防守之举 [9] 相关产业链公司 - 新闻列举了多家与亚马逊AWS业务相关的中国上市公司,涉及服务器、光模块、连接器、电路板、云服务合作等领域 [10]
CPU,为何“偷偷转型”?
36氪· 2025-12-13 12:10
行业里程碑与核心议题 - 2024年GPU销售额首次超越CPU,标志着半导体产业进入由加速计算主导的新周期[1] - 核心议题在于:随着GPU、NPU、ASIC等加速器接管大规模并行计算任务,传统CPU的角色与未来定位受到挑战[1] - GenAI计算重心的转移并未消除对主机处理器的需求,但彻底改变了对CPU性能指标的定义[1] CPU面临的挑战与效率瓶颈 - 传统以CPU为中心的架构在处理AI工作负载时效率低下,存在数据多次搬运的问题,导致昂贵的加速器硬件资源利用率受限,推高系统整体功耗与成本[2] - 现代CPU依赖的“推测执行”技术在处理主要由大规模向量和矩阵运算构成的AI负载时,容易出现预测失败,导致流水线频繁刷新,造成额外的能源浪费与延迟[2] 处理器行业的革新方向 - 第一层革新是微架构层面的“去推测化”,例如“基于时间的确定性执行模型”专利,它摒弃推测机制,采用静态调度策略,指令仅在数据就绪的确定时刻分发,以更低的晶体管开销和功耗实现高可扩展性[3] - 第二层革新是系统级架构的“专用化分流”,例如将网络排序、服务质量管理和数据预处理功能从CPU软件栈剥离,下沉至“网络附加处理单元”等专用硬件,实现数据路径的硬件加速[3] - 主流x86处理器通过集成AMX等专用加速指令集进行自我进化,优化对bf16和int8等低精度数据类型的处理能力,以提升自身处理矩阵运算的效率[4] AI时代CPU的市场需求与应用场景 - 尽管训练端需求高涨,但推理端市场对成本和能效敏感,为新型CPU提供了广阔空间,美国数据中心CPU需求预计将保持7.4%的复合年增长率[5][6] - 对于参数量在7B至13B之间的中小模型或单用户实时交互请求,现代服务器CPU已能提供足够吞吐量,利用公有云中大量利用率低于20%的闲置CPU资源进行推理,具有显著的总拥有成本优势[6] - AI大模型对内存容量的渴求重塑了CPU价值,CPU主内存通过CXL等高速互联技术与GPU共享,充当加速器的L4缓存,内存通道数量、带宽及互联速度成为比核心频率更关键的选型指标[7] - 在边缘计算和终端设备领域,异构协同需求超越单一芯片性能,CPU负责低延迟逻辑控制和实时交互,在语音转文字、复杂逻辑调度及实时运动控制等场景中响应速度优于GPU[7][8] 产业竞争格局与主要参与者 - 专注于AI专用架构的初创企业开始冒头,例如以色列公司NeuReality完成3500万美元A轮融资,总融资额达4800万美元,其NR1芯片被定义为“网络附加处理单元”,集成了Arm Neoverse核心及多个专用引擎,声称能将AI应用总拥有成本改善10倍[9] - 传统巨头进行战略调整与生态融合,英伟达于2025年9月宣布向英特尔投资50亿美元并开展基础设施合作,表明高性能x86 CPU作为异构集群通用底座和生态入口的战略价值依然重要[10] - Arm架构在服务器领域份额持续攀升,预计2025年将占据全球服务器出货量的21.1%,得益于AWS自研Graviton芯片及富士通等厂商的推动,富士通与Scaleway合作利用基于Arm的CPU平台构建高能效AI推理环境[10][11] - 市场呈现复杂生态:在核心AI训练集群中,为保证软件生态兼容性和稳定性,x86 CPU仍是首选;未来市场将是x86与Arm并存、通用CPU与专用AI CPU互补、CPU与加速器深度协同的阶段[11]