Workflow
傅里叶的猫
icon
搜索文档
英伟达份额降至零,寒武纪的三季报分析
傅里叶的猫· 2025-10-18 05:35
英伟达退出中国市场事件 - 2025年10月英伟达CEO黄仁勋公开承认公司已完全退出中国市场,市场份额归零[1] - 2022年美国首次对华实施AI芯片出口限制时,英伟达在中国市场份额超过90%[4] - 2024年英伟达为中国定制H20芯片出货60-80万枚,但性能仅为H100芯片的15%[5] - 2025年4月美国将H20纳入出口管制,英伟达停售该芯片并计提45亿美元库存损失[6] - 2025年8月H20虽获出口许可但需缴纳15%销售额分成,后因安全审查遭中国客户弃用[7] - 英伟达中国区收入从171亿美元跌至可忽略不计[8] 英伟达产品在中国的实际流通情况 - 美国政策主要针对AI芯片,多数桌面级GPU显卡仍可正常在中国交易[9] - 英伟达发布的DGX Spark产品国内可以买到,其搭载的GB10 Grace Blackwell Superchip芯片可正常进入中国[10] - 被禁运的是阉割版AI芯片如H20和Rtx Pro 6000D,但更高端的B系列产品可通过非官方渠道进入中国[10] - 部分被禁运的高端桌面级显卡在京东等平台可以搜到[10] 寒武纪2025年第三季度财报分析 - 第三季度营收17.27亿元人民币,净利润5.67亿元,净利率为32.8%[11] - 上半年净利率为36.08%,第三季度净利率同比下降约3个百分点[11] - 第三季度营收低于市场预期的24亿元,公司此前给出的年度营收指引为50-70亿元[11] - 存货从上半年的26.9亿元增加至37亿元,据信其中很大一部分为HBM存储芯片[12] 寒武纪业务与市场地位 - 市场消息称其思元690芯片已出货,速度快于预期,显示公司研发和技术迭代能力强劲[11] - 客户群体多元化,除字节外还包括其他云服务提供商、国家超算中心、头部安防公司及多家车企[14] - 公司在字节内部思元处理器应用广泛,表明其软件生态已较为成熟[14] - 据业内消息,寒武纪在中芯国际的产能有所增加[14] 中国AI芯片行业前景 - 英伟达阉割版芯片被禁利好国产GPU/NPU公司,包括华为、寒武纪等[14] - 昇腾芯片已能支持万卡集群的大模型训练,进展快于市场预期[14] - 昇腾当前主要挑战在于其生态系统的工程师使用普及度仍需时间提升[15] - 摩根士丹利分析预测中国到2027年GPU自给率可达82%[15] - 国内AI芯片行业长期发展被看好[16]
西门子EDA HAV Tech Tour 报名中丨驱动软硬件协同,预见系统工程未来
傅里叶的猫· 2025-10-16 22:03
行业趋势与验证策略 - 软硬件协同验证与验证左移是推动复杂SoC系统开发的关键策略[1] - 硬件辅助验证技术已成为复杂SoC系统验证中不可或缺的核心工具[1] - SoC开发团队必须在设计初期就慎重选择硬件辅助验证工具和方法以提高效率并降低风险[1] Veloce CS系统核心架构 - Veloce CS系统包含三大核心平台:硬件仿真平台Strato CS、企业级原型平台Primo CS和软件原型平台proFPGA CS[3] - Strato CS与Primo CS运行在高度一致的架构上共享同一操作系统和解决方案应用实现无缝切换[3] - 统一架构能加速调试与任务部署使验证效率提升多达3倍总拥有成本可降低约6倍[3] proFPGA CS平台特性 - proFPGA CS硬件系统采用模块化设计理念可自由组合母板、FPGA模块和子板以满足不同容量和功能需求[3] - 平台容量可从单颗FPGA 80M门扩展到180颗FPGA 14.4B门[4] - proFPGA CS共享Strato CS/Primo CS的前端工具和部分VirtuaLAB方便用户在多个平台之间自由切换[4] 技术巡讲核心议题 - 技术巡讲涵盖采用Veloce CS生态提高SoC和系统设计验证效率的主题[6] - 议题包括proFPGA CS的模块化和扩展性增强硬件原型验证方法学[6] - 巡讲将分享利用proFPGA CS加速高性能RISC-V SoC验证以及Strato CS助力Arm Neoverse CSS软硬件协同验证的客户案例[6]
高盛:AI开支热潮并没有那么夸张、上调工业富联、电力问题持续
傅里叶的猫· 2025-10-16 22:03
AI投资规模与驱动力 - 2025年美国AI相关支出年化规模约3000亿美元,三个月年化增速较2022年平均值增加2770亿美元[2] - AI投资受技术和宏观经济双重驱动,技术层面AI可提升劳动生产力15%,企业应用后生产力平均提升25%-30%[3] - 计算需求高速增长,大型语言模型训练所需计算力年增400%,训练查询需求年增350%,前沿AI模型数量年增125%[7] - 宏观经济层面,美国近12个月AI投资占GDP不足1%,低于历史上基础设施投资占GDP 2%-5%及ICT投资占GDP 1.5%-2%的水平[7] - AI生产力提升带来的资本收入现值基线为8万亿美元,区间在5万亿至19万亿美元,远超当前投资规模[8] AI投资可持续性与竞争格局 - 目前不足10%的企业将AI用于常规生产,处于逐步渗透阶段[6] - 企业若购买现成AI应用、由一线经理主导项目并使用集成工具可获得显著价值[6] - 历史经验显示技术基建周期中先发者表现不一,当前AI市场应用层竞争激烈,基础模型层和数据中心层竞争适度,半导体层由Nvidia和TSMC主导[10] - AI技术迭代快削弱先发优势,企业多用模型降低切换成本,AI硬件折旧率高达18%,增加企业长期胜出的不确定性[10] - 企业持续投资AI的动力在于获取先发超额收入及通过计算能力投入追求AGI实现的极高利润[11] 工业富联投资价值 - 公司在AI服务器赛道凭借规模、全球覆盖和供应链关键地位优势,市场份额不断提升[12] - 高盛预测2025年至2027年净利润年复合增长率达45%,远高于2022年至2024年的8%[15] - 2026年每股收益上调8%至2.84元,目标市盈率微调至29.5倍;2026年收入预测1.47万亿元上调3%,净利润564.32亿元上调8%;2027年收入预测1.96万亿元上调10%,净利润707.25亿元上调7%[15] - AI服务器技术快速迭代需要稳定供应链,公司技术研发和产品交付能力支撑市场份额可持续性,客户覆盖中美头部云服务提供商,产品包括GPU和ASIC服务器[16] - 传统智能手机零部件业务受益于折叠屏手机需求增长,公司技术实力保障交付优势[16] AI电力需求挑战与机遇 - 预计到2030年全球数据中心电力需求较2023年增长175%,相当于新增一个全球前十大电力消费国,美国数据中心电力需求占比将从2023年4%升至11%[21] - 驱动因素包括AI普及性、计算生产力提升(如NVIDIA服务器算力提升15倍功耗仅增2倍)、电力价格(绿色可靠性溢价约40美元/兆瓦时对超大规模企业EBITDA影响仅2%-3.5%)、政策、部件可用性和人力可用性[22][23][24][25] - 美国到2030年需新增82吉瓦容量满足需求,其中51%为天然气调峰电厂,27%为太阳能;全球电网投资预计达7900亿美元,67%用于输配电升级[25][26] - 数据中心碳排放到2030年将增加2.15亿至2.2亿吨,占全球能源排放0.6%[26] - 投资机会集中于保障电力水资源可靠性、满足新增电力需求和提升效率三个方向[26] SST技术优势 - SST技术较传统交流UPS方案和直流240V电源方案可节省约50%占地面积,安装周期缩短75%[28] - 以中国移动万卡集群为例,服务器电源面积占比达40%-45%,大型数据中心如Meta项目占地达2250英亩[27] - 英伟达GB200功耗达2700W,传统电源系统存在空间限制,SST方案可优化空间利用[28]
电力话题持续升温--英伟达发布800V HVDC白皮书
傅里叶的猫· 2025-10-15 14:47
AI数据中心电力需求与挑战 - AI数据中心正从传统计算中心转型为AI工厂,电力基础设施成为部署规模、位置和可行性的关键制约因素[7] - AI工作负载导致功率需求爆炸式增长,例如从Hopper架构到Blackwell架构的过渡使单个GPU热设计功率增加75%,NVLink域扩展到72个GPU,使机架功率密度上升3.4倍,从几万瓦特跃升到超过10万瓦特每机架,未来可能达到兆瓦级[7] - AI工作负载具有波动性,训练大型语言模型时GPU同步操作导致机架功率在毫秒内从30%空闲跳到100%满载,引发电网级振荡现象[8] 英伟达800VDC生态系统解决方案 - 采用端到端800伏特直流电力分配系统,将中压交流电转换为800VDC直接分发到计算节点,消除多余的交流-直流转换、功率分配单元、变压器和母线槽[10] - 使用单级64:1 LLC转换器将800VDC降压到12VDC供GPU使用,比多级方法节省26%的空间[10] - 引入多时间尺度能量存储:短时存储使用高压电容器和超级电容器处理高频峰值;长时存储则在设施级电池能量存储系统中实现[10] - 800VDC系统使每种线规的功率容量增加157%,采用更简单的三线配置降低材料、安装和电缆管理成本[12] - 该架构支持超过1兆瓦每机架的可扩展性,整体效率超过传统系统的90%[12] 固态变压器技术发展与市场前景 - 固态变压器有望成为数据中心电力基础设施演变中的关键技术,英伟达Rubin架构有望率先采用SST作为标配[14][15][21] - 北美数据中心变压器产能紧张,供货周期普遍长达18个月,相关订单毛利率高达55%[21] - 预计到2026年SST技术将加速落地,若2030年全球新建AI数据中心规模为100GW且SST渗透率达20%,整体市场空间有望达到800-1000亿元[23] - SST价值量分布结构化:功率器件占比最高达40%-50%,高频变压器单价约0.8-1元/W占比20%,配电单元占比10%[23] - 产业进展方面,伊顿已完成2MW规格SST样机研发,台达在2025年APEC大会上发布SST应用方案,英伟达、维谛等企业预计于2026年年中推出样机[23][24] 行业合作与供应链布局 - 构建800VDC生态系统需要整个行业合作,开放计算项目推动电压范围、连接器和安全标准的开放制定[11] - 英伟达已与多家硅供应商合作,包括AOS、Analog Devices、Infineon等;电源系统组件伙伴有Delta、Flex、LITEON等;数据中心电源系统伙伴包括ABB、Eaton、Schneider Electric、Siemens等[11] - 海外大厂加速布局SST,伊顿已小批量向英伟达供应SST用于Rubin样机测试,谷歌与微软在下一代技术路线中也设计了SST方案[21] - 国内多家上市企业已收到英伟达Rubin结合SST方案的设计图纸,包括伊戈尔、京泉华、新特电气、四方股份和金盘科技等[21]
西门子EDA HAV Tech Tour 报名中丨驱动软硬件协同,预见系统工程未来
傅里叶的猫· 2025-10-15 14:47
行业趋势与核心策略 - 软硬件协同验证与验证左移是推动复杂SoC系统开发的关键策略[1] - 硬件辅助验证技术已成为复杂SoC系统验证中不可或缺的核心工具[1] - SoC开发团队需在设计初期慎重选择硬件辅助验证工具和方法以提高效率并降低风险[1] Veloce CS系统架构与优势 - Veloce CS系统包含三大核心平台:硬件仿真平台Strato CS、企业级原型平台Primo CS及软件原型平台proFPGA CS[3] - Strato CS与Primo CS运行在高度一致的架构上 共享同一操作系统和解决方案 可实现无缝切换[3] - 统一架构能加速调试与任务部署 验证效率提升多达3倍 总拥有成本可降低约6倍[3] - proFPGA CS采用模块化设计 容量可从单颗FPGA 80M门扩展到180颗FPGA 14.4B门[4] - proFPGA CS共享Strato CS/Primo CS的前端工具和部分VirtuaLAB 方便用户在多平台间自由切换[4] 技术巡讲核心议题 - 采用Veloce CS生态系统可全方位提高SoC和系统设计验证效率[6] - proFPGA CS的模块化和扩展性可增强硬件原型验证方法学[6] - 利用proFPGA CS可加速高性能RISC-V SoC验证 实现原型验证的突破[6] - Strato CS能助力Arm Neoverse CSS实现高效软硬件协同验证[6] - 新一代虚拟平台可赋能SoC设计验证左移[6]
西门子EDA HAV Tech Tour 报名中丨驱动软硬件协同,预见系统工程未来
傅里叶的猫· 2025-10-14 23:51
行业趋势与验证策略 - 软硬件协同验证与验证左移是推动复杂SoC系统开发的关键策略[1] - 硬件辅助验证技术已成为复杂SoC系统验证中不可或缺的核心工具[1] - SoC开发团队需在设计初期就慎重选择HAV工具和方法以提高效率并降低风险[1] Veloce CS系统架构与性能 - Veloce CS系统包含三大核心平台:硬件仿真平台Strato CS、企业级原型平台Primo CS和软件原型平台proFPGA CS[3] - Strato CS与Primo CS运行在高度一致的架构上共享同一操作系统和应用实现无缝切换[3] - 统一架构能加速调试与任务部署使验证效率提升多达3倍总拥有成本可降低约6倍[3] - proFPGA CS采用模块化设计容量可从单颗FPGA 80M门扩展到180颗FPGA 14.4B门[4] - proFPGA CS共享Strato CS/Primo CS的前端工具和部分VirtuaLAB方便用户多平台自由切换[4] 技术巡讲核心议题 - 采用Veloce CS生态可全方位提高SoC和系统设计验证效率[6] - proFPGA CS的模块化和扩展性可增强硬件原型验证方法学[6] - 利用proFPGA CS可加速高性能RISC-V SoC验证实现原型验证的突破[6] - Strato CS可助力Arm Neoverse CSS实现高效软硬件协同验证[6] - 新一代虚拟平台Innexis可赋能SoC设计验证左移[6]
AI大语言模型如何带来内存超级周期?
傅里叶的猫· 2025-10-14 23:51
AI推理工作负载驱动的内存需求变化 - 过去AI基础设施需求主要由大模型训练驱动,但现在推理工作负载正越来越占据主导地位 [4] - 推理过程复杂,涉及从存储加载模型至内存、KV缓存溢出时卸载到存储、以及RAG查询外部数据等环节 [4] AI服务器的内存层次与数据流动 - 典型GPT查询过程涉及HBM、系统DRAM和NVMe NAND闪存三个主要内存层次 [5][6] - 数据流动始于请求到达服务器,若模型未加载则从NVMe SSD读取权重至HBM/DRAM,随后进行Prefill阶段和Token生成 [5][6][7] - 若启用RAG,还需从通常位于NVMe SSD的向量数据库中检索相关上下文 [7] GPT-5推理对各类内存的具体需求估算 - HBM需求主要来自模型权重静态内存和KV缓存动态内存,估算GPT-5推理总需求约为26.8 PB [8][10] - DRAM需求主要来自KV缓存,假设条件下估算2025年GPT-5产生9.13 EB需求,2026年可能翻倍至18.26 EB [8] - NAND需求主要来自RAG,估算2025年GPT-5产生200 EB需求,2026年可能翻倍至400 EB [8] AI推理需求与行业供给对比及市场影响 - 对比行业供给,GPT-5的DRAM和NAND需求在2025年将分别占全球供给的25%和22%,2026年占比将升至43%和39% [9] - 需求集中在下半年可能导致Q3末开始出现供给短缺和价格上涨,传统约20%的年增产率将导致严重短缺,可能形成持续数年的超级周期 [9] - NAND市场因AI推理需求(如用于近线SSD)从供过于求转向缺货,云服务商提前至8月谈判明年订单,需求强度超预期 [11] - NAND价格预计2025年Q4上涨近10%,2026年上半年可能再涨15-20% [11] 产业链相关公司分析 - KIOXIA作为纯NAND厂商对涨价弹性最大,但负债高和日元升值是风险 [12] - SanDisk是消费级SSD龙头,企业级业务在增长,其每股收益在牛市可能超过10美元 [12][13] - 三星和SK海力士能同时受益于HBM和NAND需求,实现AI内存全覆盖,但估值已部分反映利好 [12] - 模组厂如群联和江波龙作为中间商,利润取决于价差,但没有晶圆制造能力 [12] - 一家未具名公司是DRAM和NAND芯片下方BT基板材料的独家供应商,拥有100%市场份额 [9]
聊一聊老黄送给马斯克的DGX Spark
傅里叶的猫· 2025-10-14 23:51
产品发布与定位 - 英伟达将于10月15日正式发售DGX Spark,这是一款被誉为“世界上最小的AI超级计算机”的桌面设备 [1][3] - 产品起售价为3999美元(约合人民币3.5万元),原计划5月上市,因硬件优化和全球因素推迟至10月 [3] - 产品定位为将数据中心级别的计算能力浓缩到桌面设备,旨在“民主化AI”,让计算资源从昂贵的云集群走向个人桌面 [3][8] 核心规格与性能 - 搭载NVIDIA GB10 Grace Blackwell Superchip,集成20核ARM Grace CPU和Blackwell GPU,提供高达1 petaFLOP(1000 TFLOPS)的AI推理性能 [7] - 配备128GB统一LPDDR5X内存,支持NVLink-C2C技术,带宽是PCIe Gen 5的5倍,能轻松加载和运行高达2000亿参数的AI模型 [7] - 体积小巧,仅重2.6磅(约1.18公斤),内置4TB NVMe SSD,采用全金属机身和高效散热设计 [7] 连接性与扩展能力 - 接口丰富,包括4个USB-C端口、HDMI输出、10 GbE以太网口、两个QSFP端口(支持200 Gbps速度)以及Wi-Fi 7 [7] - 支持两台DGX Spark通过高速网络互联形成双机集群,总内存达256GB,能处理高达4050亿参数的超大规模模型 [6][7] 软件生态与应用场景 - 运行定制的DGX OS(基于Ubuntu Linux),预装完整的NVIDIA AI软件栈,包括PyTorch、TensorFlow等主流框架 [8] - 特别适合在本地高效运行大型AI模型,处理敏感数据以避免云端传输风险,并支持从桌面到DGX集群的无缝迁移 [8] - 早鸟用户包括Anaconda、Google、Hugging Face、Meta和Microsoft等行业巨头 [8] 基准测试与性能表现 - 在Ollama和SGLang引擎的测试中,DGX Spark在FP4/FP8量化下运行高效,例如llama-3.1 8B模型在q4_K_M量化下Prefill达23,169.59 tokens/秒,Decode为36.38 tokens/秒 [11][13] - 随着批次大小从1增至32,其Decode性能可从20.52 tokens/秒线性提升至368.09 tokens/秒,适合并发请求 [14][18] - 但与全尺寸RTX Pro 6000 Blackwell Edition相比,其原始性能有差距,后者Prefill约38,000 tokens/秒,Decode高达2,579 tokens/秒,有4-7倍优势 [18] 市场竞争与对比分析 - 与GeForce RTX 5090/5080相比,在小型模型上后者Prefill性能高20-30%,但DGX Spark在大型模型(如70B)上更稳定 [18] - 相较于Mac Studio M1 Max(Prefill仅457 tokens/秒),DGX Spark性能显著领先,但M1 Max内存带宽更高(819 GB/s vs 273 GB/s) [18] - AMD Strix Halo虽有类似128GB统一内存,但算力仅126 TOPS,远低于DGX Spark的1000 TFLOPS FP4 [18] 国产替代产品分析 - 华三推出国产版DGX Spark(Magic Cube),同样基于NVIDIA Grace Blackwell架构,配备128GB统一内存和6144 CUDA核心,支持1 PFLOPS FP4计算 [21][22] - 单台设备即可运行2000亿参数模型或进行700亿模型微调,相较需要4张L20显卡的服务器方案有成本和易用性优势 [25] - 最多支持2台设备级联,最大支持4050亿参数模型,目标市场为企业开发人员、科研人员等对token生成速度要求不高的推理场景 [25][28]
闻泰科技和安世半导体事件分析
傅里叶的猫· 2025-10-13 15:46
事件核心观点 - 闻泰科技与安世半导体的控制权纠纷标志着全球半导体产业面临根本性挑战,基于规则和信任的全球化合作模式正被国家安全关切所取代[1] - 荷兰法院的裁决导致安世半导体资产被冻结、管理层变更,使中国母公司闻泰科技失去控制权,凸显了中资企业在海外司法体系中的弱势地位和系统性风险[5][11] - 该事件表明中国企业通过海外收购获取核心技术的路径在当前地缘政治环境下已不可行,必须转向自主创新为主的发展模式[11] 事件背景与演变过程 - 2018年闻泰科技以332亿元收购从恩智浦剥离的安世半导体,被视为"小蛇吞大象"的典型案例[3] - 收购后闻泰科技创始人张学政未过多干预日常运营,由三位外籍高管负责具体管理[3] - 外部环境恶化:2024年4月安世遭遇网络攻击,同年12月闻泰科技被美国列入实体清单,2025年美国进一步扩大限制,规定被实体清单公司控制超50%的企业面临同等限制[4] - 荷兰经济事务与气候政策部于9月30日对安世下达部长令,冻结其全球30个主体在资产、知识产权等方面的调整权限[5] - 安世外籍管理层随后向企业法庭提交紧急请求,法庭裁决暂停张学政职务,将安世股份托管给独立第三方[5] 对闻泰科技与安世半导体的影响 - 供应链中断成为首要问题,安世依赖全球供应链,其中包含大量美国技术和设备[6] - 市场准入受阻,汽车和消费电子领域大客户可能转向其他供应商以避免合规风险[6] - 安世管理层认为脱离中国母公司是避免公司彻底崩盘的唯一选择[6] - 对闻泰科技而言,安世是核心业务:2024年安世营收147亿元,占闻泰科技总营收的20%[8] - 公司已出售ODM业务给立讯精密,金额43.89亿元,宣布全力聚焦半导体[8] - 目前闻泰科技面临分裂状态:荷兰托管团队与中国生产团队不再统一,战略决策、技术整合等环节陷入混乱[10] 安世半导体的业务与财务表现 - 安世在功率半导体领域地位关键,产品用于新能源汽车、工业控制等核心产业链[4] - 财务表现优异:营收于2022年达到23.6亿欧元峰值,毛利率从2020年的25%大幅提升至2022年的42.4%[7] - 至2024年10月,安世已还清所有前期债务,实现"零负债"运行[7] - 研发投入持续增长:从2019年的1.12亿欧元增至2024年的2.84亿欧元,近三年研发投入增长超150%[7] - 全球专利数量显著提升:新专利申请量从2019年及之前的每年10-15件增至2023年的95件、2024年的110件[7] - 2025年上半年逻辑IC出货量居全球第二,模拟IC聚焦车载与AI应用,是未来收入增速较快领域[9] - 生产布局以中国为主:东莞工厂占最终产品出货的80%,中国市场占安世营收的48%[9] 应对措施与未来展望 - 闻泰科技已启动多线应对,包括与国际律师事务所沟通法律救济方案,对接政府部门争取支持[10] - 公司正评估中国闭环供应链,保持与供应商和客户的沟通,确保员工、生产和渠道稳定[9][10] - 关键不确定性包括美国商务部50%规则的演变趋势以及中国政府的回应方式[10] - 如果东莞工厂出口停滞,闻泰科技将失去一半产能;对安世而言,脱离中国后重建设施也十分困难[10]
人工智能有没有泡沫?
傅里叶的猫· 2025-10-12 22:35
文章核心观点 - 文章呈现了关于人工智能领域是否存在泡沫的两种对立观点:一种观点认为AI已形成由债务驱动的潜在泡沫,风险巨大;另一种观点则认为当前市场由基本面驱动,尚未达到历史泡沫水平 [2][9] 人工智能的债务泡沫观点 - OpenAI承诺每年向Oracle支付600亿美元用于云计算服务,但OpenAI尚未产生相应收入,且Oracle的相关设施也未建成,该交易需要4.5吉瓦电力,相当于几个核电站的发电量 [3] - Oracle的债务权益比高达500%,远高于亚马逊的50%和微软的30%,显示其高杠杆风险 [3] - AI投资格局从以往由大公司现金流自筹转向债务驱动的军备竞赛,Nvidia、OpenAI和Oracle之间存在资金循环关系,但实际现金支撑不足 [4] - 摩根士丹利预测到2028年全球数据中心支出将达2.9万亿美元,其中硬件1.6万亿,基础设施1.3万亿,2028年投资需求超9000亿美元,相当于标普500所有公司2024年资本支出总额 [6] - 数据中心建设资金存在巨大缺口,大公司现金流仅能覆盖1.4万亿美元,剩余1.5万亿美元缺口需依赖信贷市场,包括无担保公司债2000亿、证券化市场1500亿、私人信贷8000亿和其他3500亿,私人信贷将发挥关键作用 [6] - 贝恩公司估计每年数据中心建设需5000亿美元投资,对应2万亿美元年收入,即使企业将本地IT预算全部转向云端并将AI节省的20%再投资,也只能覆盖1.2万亿美元,仍短缺8000亿美元 [6] - 在公共信贷方面,AI相关投资级公司债务达1.2万亿美元,占投资级指数14%,超过银行成为最大板块,这些公司交易利差为74个基点,比整体指数低10个基点 [7] - 苹果、杜克能源和Oracle是最大债券发行方,其中Oracle杠杆率高,最易受冲击,若AI范式转变或出现廉价替代技术,信贷市场将面临重大风险 [7] 尚未达到泡沫阶段的观点 - 高盛认为当前AI市场尚未达到泡沫阶段,泡沫通常具备资产价格快速上涨、极端估值和杠杆增加带来系统风险三个关键特征 [9][12] - 当前市场存在一些与过去泡沫相似的迹象,如股票市场上涨、地缘政治动荡下风险资产仍创新高、IPO首日溢价达30%(1990年代末以来最高)、市场集中度高等 [13] - 科技股上涨主要由基本面驱动,科技行业每股收益相对于其他行业大幅上升,领先公司已实现持续盈利,资产负债表异常强劲 [15] - AI领域目前由微软、苹果、英伟达、亚马逊、谷歌、Meta和特斯拉等少数现有巨头主导,而非大量新进入者涌入引发激烈竞争 [16] - 当前估值虽拉伸,但未达历史泡沫水平,七巨头中位数24个月前瞻市盈率为27倍(排除特斯拉为26倍),是1990年代末最大七家公司52倍市盈率的一半 [16] - 使用历史收益计算的PEG比率为1.7倍,远低于互联网泡沫时期的3.7倍,股息折现模型显示的隐含增长率为8%(单阶段)或25%(三阶段前10年),也低于互联网泡沫时期的10%或35% [16] - 超大规模企业年度资本支出从2018年680亿美元增长到2026年预计4320亿美元,但多由自由现金流融资,而非债务,资本支出/自由现金流比率稳定,远低于1990年代末 [17] - 尽管2024年后数据中心交易发行了200亿资产支持证券,2024年科技、媒体和电信AI领域发行了1410亿企业债,但整体杠杆率低,不太可能对经济造成系统性冲击 [17]