A100
搜索文档
比强劲的财报更重要,高盛:英伟达管理层解答了三个“关键问题”
美股IPO· 2025-11-20 21:09
公司财务表现与预期 - 第三季度营收达570亿美元,远超华尔街预期的554亿美元 [3] - 第四季度营收指引达650亿美元,高于市场预估的624亿美元 [3] - 第三季度数据中心计算业务收入512亿美元,同比增长56% [9] - 数据中心网络业务收入82亿美元,同比增长162% [10] - 预计第四季度毛利率将回升至75% [3] - 公司目标在2026年将毛利率维持在70%左右 [3] 产品与技术进展 - 下一代Rubin芯片按计划于2026年中推出,同年下半年贡献收入 [1][7] - Blackwell Ultra(GB300)已占Blackwell系列总出货量的三分之二 [9] - 六年前上市的Ampere架构GPU(A100)仍在高负荷运行,实际使用寿命超出客户折旧预期 [1][8] - 上一代Hopper架构产品本季度仍实现20亿美元收入 [10] 市场前景与增长动力 - 确认2025/26财年数据中心产品需求预期超5000亿美元且存在上行空间 [1][7] - Blackwell和Rubin两代产品已确认的客户需求总额预计超过5000亿美元 [10] - 预计到2030年全球AI基础设施市场年支出规模将达到3-4万亿美元 [10] - 在AI训练应用领域相比同行具备可持续的模型优势,未来业绩具备显著上升空间 [4] 机构分析与预测 - 高盛维持“买入”评级,将未来12个月目标价从240美元上调至250美元 [3] - 高盛将英伟达未来几年每股收益预期平均上调12% [4] - 高盛首次给出2028至2030财年每股收益预测,分别为15.60美元、18.65美元和22.10美元 [4]
如何看待云厂商的GPU折旧质疑
2025-11-20 10:16
行业与公司 * 纪要主要涉及云计算行业 特别是提供GPU算力租赁服务的云厂商 包括超大规模云厂商(如亚马逊 微软 谷歌 Meta)和新兴云厂商(如Oracle CoreWeave Neocore Aron Corwave)[1][2][17] * 核心讨论围绕GPU等计算设备的折旧政策 使用寿命 租赁市场价格以及英伟达产品迭代的影响展开 [1][2][3] 核心观点与论据:折旧政策与财务影响 * 主要云厂商的服务器折旧年限存在差异和调整 Meta折旧期为5.5年 亚马逊在2024年将折旧期调整为6年 但在2025年缩短至4年 微软和谷歌较早将折旧期延长至6年 新兴云厂商如Oracle和CoreWeave折旧期为6年 而Neocore和Aron保持在4年 [2] * 折旧政策调整对利润影响显著 亚马逊2024年折旧调整使其每季度新增利润约6-7亿美元 但2025年调整后导致净利润减少1-3亿美元 [1][2] * 会计准则变动预计在2025年带来约5.6%的净利润增长 在2026至2028年虚增比例接近10% 从2023年至2028年 各公司累计新增年度净利润300-500亿美元 总计新增1,460亿美元 [1][4] * 新兴云厂商Corwave将数据中心计算设备使用寿命从5年调整到6年 预计在2026至2028年分别节省22亿 37亿和47亿美元折旧费用 对其净利润影响巨大 例如其2027年预期净利润12亿美元在扣除折旧调整后接近0 2028年预期净利润从23亿美元降至2亿美元 [18] 核心观点与论据:GPU使用寿命与市场 * 存在支持GPU长使用寿命的观点 老款GPU在推理任务中仍有市场需求 H100等上一代GPU仍以原价95%的价格续租 谷歌云7年前生产的TPU利用率达到100% 微软Azure退役的英伟达K80 GPU已使用7-9年 推理任务到2027年前将占据主要应用 为老款GPU提供用武之地 [1][5] * 也存在反对长寿命的观点 英伟达产品迭代加速 从2-3年一代变为一年一代 如果机器持续使用4-5年以上会落后于最新技术 高利用率下数据中心GPU寿命可能缩短至1-3年 70%利用率下服务器寿命最多为3年 [6][7][10] * 电力短缺成为新瓶颈 推动高效能GPU替换低效能旧GPU 在电力受限时 所有可用电力将优先用于最先进 最有效率的GPU [8][9] * 英伟达新产品性能提升显著 新的Blackwell芯片每兆瓦吞吐量是H200的100倍 每百万托克成本比H200降低了15倍 推动市场加速设备更新 [7] 核心观点与论据:GPU租赁市场与厂商差异 * GPU租赁和二手价格呈现下降趋势 从2024年9月到2025年11月 H100和A100租赁价格分别下降25%和30% V100自2019年以来二手价格下降超过85% A100自2022年以来下降超过30% [3][11] * 超大规模云厂商与新兴NeoCloud厂商在租赁价格上表现不同 超大规模厂商价格波动较小且更稳定 例如H100每小时托管成本为0.3美元 而NeoCloud厂商价格波动更大 成本更高 如Neo4j的H100成本为0.36美元 其他厂商可能达0.43美元 [3][14][15][16] * 判断GPU是否应被淘汰可通过比较其每小时运营成本与租赁收入 例如H100到B200的每小时运营成本分别为0.34 0.36和0.44美元 若运营成本高于租赁收入则面临淘汰风险 [12][13] * 大型云厂商单位经济效益和租赁价格更稳定 可通过自身业务(如搜索)消化训练过时的GPU 因此5-6年折旧周期相对合理 新兴云厂商业务主要依赖租赁 受租赁价格和推理需求影响更大 经济模型更脆弱 6年的折旧周期对其而言过高 [17] 其他重要内容 * 英伟达产品发布节奏加快若持续 将缩短设备替换周期 对英伟达是利好消息 但可能被做空其股票的投资者忽略 [19] * 高强度运行会增加GPU出错概率 影响性能和稳定性 在需求与供给差距缩小后 设备损耗问题将更受关注 [10]
全球科技行业 - 人工智能价值链:GPU 真的能运行 6 年吗-Global Technology-AI Value Chain Can you really run a GPU for 6 years
2025-11-18 17:41
涉及的行业与公司 * 行业:全球科技行业,特别是人工智能(AI)GPU计算领域[1] * 公司:主要涉及超大规模云服务商(hyperscalars)如谷歌(GOOGL)、亚马逊(AMZN)、Meta(META)、微软(MSFT)、甲骨文(ORCL)等,以及GPU供应商英伟达(NVDA)、超微半导体(AMD)、博通(AVGO),还有转型AI数据中心的比特币矿企如Iris Energy(IREN)、Core Scientific(CORZ)、Riot Platforms(RIOT)、Cleanspark(CLSK)[6][7][8][9] 核心观点与论据 * **GPU使用寿命与折旧合理性**:GPU可以盈利地运行约6年,主要超大规模云服务商的折旧会计处理是合理的[3][11] * **论据1:运营现金成本低,贡献利润高**:GPU租赁的市场价格远高于其运营的现金成本(如电力和托管费),使得运行老旧GPU的贡献利润(contribution profit)很高 例如,根据模型估算,B200 GPU每小时贡献利润为2.85美元,贡献利润率达86%;即使是5年旧的A100 GPU,供应商仍能获得舒适的利润空间[3][11][25] * **论据2:计算需求旺盛**:在计算资源受限的世界里,对任何可用计算能力(包括旧机器)的需求仍然充足,A100容量几乎被完全预订 只有当追溯到Volta及更老的GPU时,这种经济性关系才开始瓦解[11][13] * **论据3:硬件实际寿命**:行业反馈表明,GPU在6-7年或更长时间后通常仍能正常运行,早期高损耗主要归因于新GPU上架初期的"烧机"(burn-in)配置问题,一旦配置妥当,寿命很长[13] * **GPU价值折损模式**:GPU的价值折损并非线性,第一年后价值损失较大,但之后价值保持较好[3][14] * **论据**:转售市场上的GPU在第一年后通常会损失其标价的20-30%,但此后价值似乎能更好地保持 用户倾向于将最新一代硬件用于AI训练等 demanding 工作负载,旧机器则用于运行对性能不敏感的工作负载[3][14] * **长期合同转移成本风险**:鉴于长期合同的普遍性,即使GPU折旧速度快于公司的模型,成本也可能以人为抬高价格的形式由最终用户承担 例如,OpenAI若与Coreweave签订5年H100容量合同,即使H100价值低于5年折旧周期暗示的水平,承担经济成本的将是OpenAI[4][15] * **加速计算非商品化定价**:与内存/存储不同,加速计算并未呈现商品化定价,老旧GPU的定价高于性能平价所暗示的水平[5][16][18] * **论据**:这表明最终用户仍在运行遗留工作负载,不愿或无法在更现代的硬件上运行,云服务商对这些"被锁定"的工作负载收取更高费用[5][16][18] * **对GPU供应商的影响**:理论上,运行旧硬件会降低GPU更换需求,对GPU供应商不利 但实际上,当前动态主要由计算需求极其旺盛所驱动,使得继续运行老旧、低效率硬件仍有意义[6][17] 其他重要内容 * **超大规模云服务商折旧年限披露**:不同公司对服务器等设备的折旧年限假设不同,例如谷歌为6年,亚马逊为5年,Meta为4至5年(2025年1月起部分延长至5.5年),微软为2至6年[19][20] * **比特币矿企向AI数据中心转型**:报告看好矿企转型AI数据中心的重新评级潜力,特别是Iris Energy(IREN)因其垂直整合且拥有超过3GW电力资产被列为首选,Riot Platforms(RIOT)、Core Scientific(CORZ)和Cleanspark(CLSK)合计拥有超过4.5GW电力组合,正在寻求AI托管机会[9][12] * **投资建议**:报告给予英伟达(NVDA)和博通(AVGO)"跑赢大盘"评级,目标价分别为225美元和400美元;给予超微半导体(AMD)"与大市同步"评级,目标价200美元;看好IREN、CORZ、RIOT、CLSK的重新评级潜力[7][8][9] * **投资者情绪背景**:围绕AI交易的投资情绪日益谨慎,Coreweave和甲骨文债务的CDS利差飙升即是证明,这重新引发了关于GPU实际使用寿命和折旧会计准确性的辩论[2][10]
财报前瞻 | AI芯片霸主英伟达(NVDA.US)再临大考,华尔街押注“超预期+上调指引“
智通财经网· 2025-11-17 12:03
财报预期 - 公司将于11月19日盘后公布2026财年第三季度财报,预计调整后每股收益为1.26美元 [1] - 预计公司本季度营收为552.8亿美元,较去年同期增长超过55% [1] 各业务部门表现 - 数据中心业务是核心增长引擎,第三季度预计营收为480.4亿美元,同比增长56.1% [2] - 游戏终端市场预计营收为47.1亿美元,同比增长43.7%,反映出渠道库存恢复正常和强劲需求 [2] - 专业可视化部门预计营收为6.789亿美元,同比增长39.7%,连续八个季度增长 [3] - 汽车部门预计营收为6.248亿美元,同比增长39.1%,受益于对自动驾驶和AI智能座舱解决方案的投资增加 [3] 生成式AI市场机遇 - 公司是生成式AI芯片市场的主导者,其芯片广泛应用于营销、广告、客户服务、教育等多个行业 [4] - 全球生成式AI市场规模预计到2032年将达到9676.5亿美元,2024年至2032年期间的复合年增长率为39.6% [4] - 生成式AI的复杂性需要巨大的计算能力,公司A100、H100、B系列等先进芯片是构建和运行这些应用的首选 [5] 华尔街观点 - 杰富瑞和韦德布什的分析师预计公司将“超预期并上调指引”,韦德布什维持目标价210美元 [6] - 美国银行分析师保持目标价275美元,预计公司将向投资者保证其满足需求的能力 [7] - 奥本海默分析师上调公司目标价,称其为AI领域“最有可能获胜的单一公司” [9] - 来自微软、Alphabet和亚马逊等超大规模企业的支出增长,大部分似乎最终都流向公司 [6]
NVIDIA Poised for a Q3 Earnings Surprise: Buy Before the Beat?
ZACKS· 2025-11-14 21:20
财报预期与预测 - 公司预计第三财季营收为540亿美元(±2%),Zacks一致预期为545.9亿美元,较去年同期大幅增长55.6% [1] - 季度每股收益的Zacks一致预期在过去60天维持在1.23美元,意味着较去年同期81美分的收益同比增长51.9% [2] - 盈利预测模型显示公司本季度可能超预期,因盈利ESP为+2.08%(最准确估计1.26美元 vs 一致预期1.23美元),且Zacks评级为第2级 [4][5] 各业务板块表现驱动因素 - 数据中心业务是第三季度营收主要驱动力,得益于云解决方案采用增加、超大规模需求增长以及推理市场应用扩大 [6] - 数据中心业务预计受益于生成式AI和大语言模型对基于Blackwell架构GPU的需求,模型预计该板块季度营收为480.4亿美元,同比增长56.1% [7][8] - 游戏和专业可视化终端市场呈现复苏趋势,游戏业务因渠道合作伙伴库存恢复正常,模型预计其季度营收为47.1亿美元,同比增长43.7% [9] - 专业可视化板块营收已连续八个季度增长,模型预计其季度营收为6.789亿美元,同比增长39.7% [10] - 汽车板块趋势改善,因对自动驾驶和AI座舱解决方案的投资增加,模型预计其季度营收为6.248亿美元,同比增长39.1% [11] 股价表现与估值 - 公司股价年内上涨39.1%,表现优于Zacks计算机与技术行业26.3%的涨幅,但表现落后于AMD(104.9%)、英特尔(79.2%)和博通(46.2%)等主要半导体股 [12] - 公司当前远期12个月市盈率为31.88倍,高于行业平均的29.08倍,估值相对较高 [15] - 与其他芯片巨头相比,公司估值高于AMD(43.44倍)和博通(38.88倍),但低于英特尔(65.66倍) [17] 行业前景与公司定位 - 公司营收增长由开发生成式AI模型所需的芯片强劲需求驱动,公司在生成式AI芯片市场占据主导地位 [18] - 全球生成式AI市场规模预计到2032年将达到9676.5亿美元,2024年至2032年期间的复合年增长率预计为39.6% [19] - 生成式AI的复杂性需要大量知识和巨大计算能力,企业的网络基础设施需升级,公司的AI芯片是构建和运行这些应用的首选,使其在该领域处于领先地位 [20]
买得到芯片的美国科技巨头,买不到电了
虎嗅APP· 2025-11-11 23:17
AI行业电力瓶颈 - 微软CEO指出AI发展面临的核心瓶颈是电力短缺而非算力不足,大量芯片因缺电无法投入使用[7][8] - 美国数据中心2023年总耗电量达176太瓦时,占全国总发电量4.4%,相当于马来西亚全国年耗电量,预计2028年该数字将翻倍[11] - 美国电力系统老旧导致供电不足,2021-2022年电费飙升,居民用电受到挤压[12] 数据中心能效问题 - 2024年全球数据中心平均电能利用效率PUE为1.56,意味着仅三分之二电力用于GPU计算,其余消耗在制冷、供电等辅助系统[15] - 电能利用率极低造成严重浪费,特朗普政策取消可再生能源税务优惠,转向核电并放松环境管制[16] 芯片迭代与资产风险 - AI芯片快速迭代,H100/A100等2022年前产品将被H200(2023)、B200(2024)、B300(2025)替代[20] - TrendForce预估2025年Blackwell系列将占英伟达高端GPU产量80%以上,库存芯片面临过期风险[20] - 闲置芯片直接影响AI公司估值,因股价与GPU数量及使用率高度相关[22] 企业应对策略 - 科技公司通过自建发电厂缓解电力危机,OpenAI与甲骨文在德州合建天然气电厂,xAI在田纳西基建导致发动机订单排至2029年后[25] - 将数据中心转移至墨西哥、智利等发展中国家,爱尔兰数据中心消耗全国20%电力,对当地民生造成影响[27] - 英伟达和谷歌探索太空数据中心方案,利用太阳能供电和真空散热,但存在器件老化、数据传输等技术挑战[27][28][31] 中美电力基础设施对比 - 2024年中国数据中心耗电量166太瓦时,仅占社会总用电量约2%,电力供应充足且注重绿电发展[33] - 中国在保障民生的前提下推进碳减排,电力基础设施优势明显[34]
买得到芯片的美国科技巨头,买不到电了
36氪· 2025-11-11 12:31
AI行业算力投资与供应链动态 - OpenAI计划与甲骨文共同投资3000亿美元建设数据中心[1] - OpenAI从英伟达采购价值1000亿美元的芯片并寻求从AMD获取芯片资源[1] - 行业存在芯片快速迭代风险例如H100和A100等2022年前发布的芯片可能被2023年H200、2024年B200及2025年B300替代[12] - 据TrendForce预估2025年Blackwell系列将占英伟达高阶GPU总产量80%以上[12] 美国电力危机对AI发展的制约 - 美国能源部报告显示2023年数据中心耗电量达176太瓦时占全国总发电量4.4%相当于马来西亚全国年耗电量且预计2028年可能翻倍[3][5] - 全球数据中心平均电能利用效率PUE为1.56意味着仅约三分之二电力直接用于计算其余消耗于制冷等辅助系统[7] - 美国电价在2021至2022年间飙升居民用电受数据中心需求挤压[8] - 电力基础设施老旧且政策转向核电发展取消可再生能源税收优惠加剧供给压力[10] 科技公司应对电力短缺的策略 - 部分公司通过自建发电厂缓解电力危机如OpenAI与甲骨文在德州合建天然气发电厂xAI在田纳西基建导致发动机订单排至2029年后[16] - 另一种方案是将数据中心转移至墨西哥智利南非等电力供给本就不发达的地区例如爱尔兰数据中心已消耗全国20%电力对当地生态造成影响[18][19] - 英伟达与谷歌探索太空数据中心利用太阳能供电并通过真空散热但面临器件老化数据回传及成本控制等技术挑战[21] 中国电力基础设施与AI发展环境 - 2024年中国数据中心总耗电量为166太瓦时约占社会总用电量2%[22] - 电力供应在保障民生基础上充足且注重绿色电力与碳排放控制形成与美国电力困境的鲜明对比[22][24] 行业估值逻辑与潜在风险 - AI公司估值高度依赖GPU数量与需求规模模型性能与GPU规模正相关因此芯片采购消息会直接推动股价[14] - 若大量芯片因缺电闲置将导致资源浪费并可能引发行业泡沫破裂风险[14][16]
美股开盘:纳斯达克100指数涨1%,亚马逊涨超4%
华尔街见闻· 2025-11-03 22:32
美股市场表现 - 美股盘初标普500指数上涨0.6%,纳斯达克100指数上涨1% [1] - 亚马逊股价上涨4.6%,美光科技和英伟达股价均上涨超过2% [1] - 中概指数上涨0.3% [1] 苹果公司动态 - 苹果公司与谷歌合作,付费打造一款苹果专属的Gemini模型以支持Siri [1] - 苹果公司预计在明年6月举行的WWDC上展示新系统版本 [1] 谷歌母公司Alphabet动态 - 谷歌母公司Alphabet计划在欧洲发行至少30亿欧元债券 [1] - 发债目的是支持公司在人工智能和云基础设施方面创纪录的资本支出 [1] 微软公司动态 - IREN与微软签署97亿美元协议,将在美国得州提供云计算服务 [1] - 微软公司计划在2026至2029年间向阿联酋投资超过79亿美元 [1] - 对阿联酋的投资中超过55亿美元将用于人工智能和云基础设施扩建 [1] - 微软公司已获得出口许可,可将英伟达的A100、H100和H200 GPU出口至阿联酋 [1]
11月3日美股盘前要闻
搜狐财经· 2025-11-03 21:47
美股主要股指期货表现 - 道琼斯指数期货下跌0.09%,标普500指数期货上涨0.28%,纳斯达克100指数期货上涨0.61% [1] 欧洲主要股市表现 - 英国富时100指数下跌0.08%,法国CAC40指数下跌0.05%,德国DAX30指数上涨0.90% [1] 宏观经济政策观点 - 美国财政部长呼吁美联储加速降息,认为某些行业存在衰退风险,美联储理事认为当前政策过于紧缩 [2] 黄金市场展望 - 瑞银维持金价年底目标为每盎司4200美元,若地缘政治或市场风险加剧,金价可能涨至每盎司4700美元 [2] 科技行业合作与投资 - 苹果与谷歌合作,付费打造苹果专属Gemini模型以支持Siri,预计在明年6月WWDC展示新系统 [2] - 谷歌母公司Alphabet计划在欧洲发行至少30亿欧元债券,以支持人工智能和云基础设施的资本支出 [2] - IREN公司与微软签署97亿美元协议,将在德克萨斯州提供云计算服务,其美股盘前一度上涨近30% [2] - 英伟达美股盘前上涨近2%,微软获得出口许可可将英伟达A100、H100和H200 GPU出口至阿联酋 [2] 公司财务与运营动态 - 稳定币公司Tether在2025年前三季度利润超过100亿美元,盈利主要来自其持有的1350亿美元美国国债,公司拥有1812亿美元储备 [2] - 埃克森美孚公司表示,若欧盟新气候法案不放松监管力度,公司将无法继续在欧盟开展业务 [2] - Beyond Meat延迟发布第三季度财报以量化一项减值损失,其美股盘前下跌超8% [3]
The Silicon Economy
Medium· 2025-10-28 21:01
AI计算需求与投资缺口 - 到2030年,AI提供商可能需要约200吉瓦的额外计算容量和约2万亿美元的年收入来资助,即使考虑到效率提升,仍存在8000亿美元的资金缺口[2] - 麦肯锡估计,在中等情景下,到2030年仅AI工作负载就需要约5.2万亿美元的数据中心投资,需要125-205吉瓦的新增容量,在高速增长情景下,投资可能达到7-8万亿美元[10][11] - AI计算需求正以超过摩尔定律两倍的速度增长,给供应链和公用事业带来压力,扩展AI将同样依赖于基础设施融资和能源容量[11] GPU在AI中的核心地位与Nvidia主导 - GPU因其并行计算能力成为AI训练大型神经网络和运行海量模型推理的主力,将AI训练时间从数月或数年缩短至数天或数周[3] - Nvidia在高端AI芯片领域实现了事实上的垄断,在AI加速市场的份额估计超过70%,其A100和H100等旗舰芯片已成为领先AI公司的必备基础设施[4] - Nvidia的市场主导地位使其市值突破万亿美元,但也引发了行业对“金手铐”的担忧,即用户被锁定在一个昂贵的单一供应商生态系统中[6] 云计算GPU经济性动态 - 云提供商已开始快速削减GPU实例成本,例如AWS在2025年中期宣布对由Nvidia A100、H100和H200 GPU驱动的P4和P5实例进行大幅降价,降幅高达45%[13] - H100的云租赁成本在12个月内从每小时5-6美元降至约75美分,降幅约80%,这种快速折旧对尖端硬件而言几乎前所未有[14] - 价格动态重塑了AI经济学,大型参与者可以削减云AI价格以削弱竞争对手,同时给独立数据中心和GPU云初创公司带来压力[14] AI芯片设计趋势与HPC差异 - Nvidia即将推出的Blackwell架构优先考虑低精度AI吞吐量,在FP4 AI任务上实现约20 petaFLOPS,但在FP64向量性能上仅为约45 teraFLOPS,与上一代H100相比有所回归[17][18] - AMD的MI300X系列GPU强调HPC的64位计算,其中一个变体实现81 TFLOPS向量和163 TFLOPS矩阵FP64性能,Nvidia的策略是最大化AI吞吐量,为HPC客户提供“足够好”的双精度性能[19] - HPC需要FP64精度以保证数值准确性,而AI优先考虑速度,常使用FP16、BF16、INT8等低精度以换取更高吞吐量,混合精度求解器可实现10-15倍于纯FP64的速度提升,且精度损失最小[46][47] 内存、带宽与功耗瓶颈 - 数据移动已成为关键瓶颈,GPU利用率不足常因内存和网络I/O子系统限制以及芯片间通信延迟未能保持在微秒级别所致[22][29] - 高端AI数据中心现在的功率密度是传统服务器集群的10倍,许多站点首次采用液冷来消散紧密排列的GPU产生的热量,从电网获取足够电力也可能成为障碍[25] - 解决方案正在出现,如HBM3内存、光学互连、先进冷却等,但每个都增加了成本和复杂性,扩展AI不仅是芯片问题,更是基础设施集成问题[26] AI芯片初创公司挑战与机遇 - Graphcore等AI芯片初创公司面临严峻挑战,例如Graphcore在2023年仅报告270万美元收入,税前亏损2.04亿美元,并裁员20%[30][31] - 大客户如Meta在测试内部“MTIA”加速器的同时,仍然是Nvidia的最大客户之一,这种模式使得初创公司难以获得重要订单[32] - 专注于推理加速或低功耗边缘AI等专业利基市场的初创公司有更好的机会,例如Groq专注于AI推理,获得了沙特阿拉伯15亿美元的芯片供应承诺,并在2025年以69亿美元估值融资7.5亿美元[33][57] 软件生态系统与开放标准 - Nvidia的CUDA编程平台已成为AI开发的默认选择,有效将许多用户锁定在Nvidia GPU上,行业正推动开放、供应商中立的替代方案,如Khronos Group和Intel主导的SYCL和oneAPI[35] - oneAPI旨在通过为多个架构提供统一编程模型来“将软件从供应商锁定中解放出来”,它是开源的,得到ARM、Xilinx等公司的支持[36][37] - 开放标准对于健康的AI硬件生态系统至关重要,但CUDA的网络效应不会一夜之间被匹配,实现这一愿景具有挑战性[39][40] 新兴AI芯片竞争者 - Intel的Habana Gaudi2在大型语言模型推理上匹配Nvidia H100的延迟,在训练上实现每芯片约260 TFLOPS的BF16吞吐量,仅次于H100但优于A100,并在测试设备中提供最佳性价比[50][51] - Cerebras的晶圆级引擎通过将整个模型装入巨大的片上内存,声称在特定大型模型上的推理速度比Nvidia H100快10至20倍,例如可以每秒450个令牌的速度服务700亿参数的Llama模型,而H100约为每秒30个令牌[52][53] - AWS的Trainium和Inferentia芯片提供具有成本效益的替代方案,例如Trainium实例比Nvidia H100实例便宜25%,提供“H100级”训练能力,旨在通过降低入门门槛来“民主化AI”[60][62] AI硬件生态系统展望 - 云提供商正在推出自己的芯片和专用实例,确保AI计算对普通用户而言不稀缺或昂贵,这将随着“入门费”下降而拓宽各行业对AI能力的访问[64] - 初创公司和新参与者正瞄准利基市场,一些实现了突破,要么超越传统方法,要么大幅降低成本,并非所有都会生存,但存活者将迫使老牌公司保持敏锐[64] - 开放标准和软件正逐渐侵蚀专有锁定,像oneAPI这样的倡议以及可在多个后端运行的开源框架意味着Nvidia周围的护城河并非坚不可摧[64] - AI和HPC正在融合,AI技术被科学计算采用,HPC的需求如可靠性、精度正影响AI基础设施,下一代超级计算机通常混合使用CPU、GPU和AI加速器[64]