英伟达H100 GPU
搜索文档
马斯克的xAI融资1400亿元!估值一年翻倍,英伟达参投
第一财经· 2026-01-07 13:12
2024年以来xAI公开的总融资额已达420亿美元(约为人民币2934亿元)。 根据官方博客,本轮融资吸引了包括 Valor股权投资公司、富达基金、卡塔尔投资局以及阿布扎比基金MGX在内的全球顶级资本参与。此外,英伟达和思科 作为战略投资者也参与了本轮融资。据报道,这两家科技巨头将支持xAI扩展计算基础设施,并构建全球最大的GPU集群。 北京时间1月7日,特斯拉CEO马斯克旗下的大模型独角兽xAI宣布完成E轮融资,融资额超过了此前设定的150亿美元目标,最终达到200亿美元(约合人民 币1400亿元)。马斯克随后转发了融资公告并对投资者的信任表示了感谢。 为了支持Grok的开发和训练,马斯克在美国田纳西州孟菲斯建立了超级计算中心"Colossus",在2024年7月启动时配备了10万块英伟达H100 GPU,此次官方 公告提及,到2025年底其Colossus I和II超级计算中心已部署超百万块H100等效GPU。 在公告中,官方表示Grok 5目前正在训练中,未来将专注于推出创新的消费者和企业产品,覆盖数十亿用户。此次融资xAI将用于加速我们基础设施建设, 以及推动突破性研究。 值得关注的是,xAI近期还面 ...
英伟达200亿美元收购!
国芯网· 2025-12-25 12:49
合作事件概述 - AI芯片初创公司Groq与英伟达就推理技术达成非独家许可协议 [2] - Groq创始人Jonathan Ross、总裁Sunny Madra及其他核心团队成员将加入英伟达,共同推进授权技术的升级与规模化应用 [2] - Groq将继续作为独立公司运营,Simon Edwards将接任首席执行官,其云服务保持正常运行 [4] - 此前有报道称英伟达拟以约200亿美元收购Groq,但英伟达澄清仅为技术许可,未进行收购 [4] Groq公司背景与技术价值 - Groq成立于2016年,由谷歌TPU核心开发者Jonathan Ross创立 [5] - 公司自研的LPU推理芯片是本次合作的核心,专为AI推理场景深度优化 [5] - LPU采用确定性架构和片上SRAM内存设计,实现了超低延迟、超高能效与极速推理速度 [5] - 在主流大语言模型运行中,LPU推理速度可达英伟达H100 GPU的5至18倍,首token响应时间仅0.2秒 [5] - LPU能有效降低算力成本,解决传统GPU在推理环节的“内存墙”与高延迟问题 [5] - Groq在9月完成一轮7.5亿美元的融资,投后估值达69亿美元,累计融资超30亿美元 [5] 合作影响与意义 - 通过与英伟达紧密捆绑,Groq可获得大额技术授权收益,同时保留独立运营权 [6] - Groq将依托英伟达的行业背书拓展相关业务 [6]
200亿美元收购AI芯片初创公司?英伟达解释
新浪财经· 2025-12-25 10:45
核心事件 - AI芯片初创公司Groq与英伟达达成非独家技术许可协议,Groq创始人、总裁等核心团队成员将加入英伟达 [3][8] - Groq将继续作为独立公司运营,由Simon Edwards接任CEO,其云服务不受影响 [3][8] - 此前市场传闻英伟达拟以约200亿美元收购Groq,但公司澄清仅为技术许可合作 [3][8] 合作方:Groq公司 - Groq成立于2016年,由谷歌TPU核心开发者Jonathan Ross创立 [3][8] - 公司自研的LPU推理芯片是本次合作的核心价值所在 [3][8] - 公司在2024年9月完成一轮7.5亿美元融资,投后估值达69亿美元,累计融资超30亿美元 [4][10] - 通过与英伟达合作,Groq可获得大额技术授权收益,保留独立运营权,并依托英伟达背书拓展业务 [4][10] 核心技术:LPU芯片 - LPU专为AI推理场景深度优化,采用确定性架构、片上SRAM内存设计等核心技术 [4][9] - 在运行主流大语言模型时,LPU推理速度可达英伟达H100 GPU的5至18倍,首token响应时间仅0.2秒 [4][9] - LPU能有效降低算力成本,解决传统GPU在推理环节的“内存墙”与高延迟问题 [4][9] 合作方:英伟达的战略考量 - 通过“非独占技术许可+核心人才吸纳”方式,快速补全AI推理短板,巩固全栈优势 [4][10] - 此模式有助于降低收购风险,更好地应对来自谷歌TPU、微软Azure Maia的竞争 [4][10] - 消息公布后,英伟达股价于12月24日收于188.61美元,盘后微跌0.32%,市场反应理性,其股价年内累计涨幅仍超35% [4][10] 行业背景与影响 - 全球AI产业正从模型训练阶段迈入规模化推理落地的关键期,低延迟、高能效的推理算力成为核心刚需 [5][11] - 此次合作推动AI推理技术向高性能与低成本双向优化 [5][11] - “技术授权+人才整合”模式为科技巨头与明星初创公司间的合作提供了新解法 [5][11]
200亿美元收购AI芯片公司Groq?英伟达:只是达成推理技术许可
新浪财经· 2025-12-25 10:01
合作事件概述 - 美东时间12月24日,AI芯片初创公司Groq与英伟达就其推理技术达成非独家许可协议 [1][4] - 根据协议,Groq创始人Jonathan Ross、总裁Sunny Madra及其他核心团队成员将加入英伟达,共同推进授权技术的升级与规模化应用 [1][4] - Groq将继续作为独立公司运营,Simon Edwards将接任首席执行官,其云服务保持正常运行 [1][4] - 此前有报道称英伟达将以约200亿美元收购Groq,但英伟达澄清仅为技术许可,并非收购 [1][4] Groq公司背景与技术 - Groq成立于2016年,由谷歌TPU核心开发者Jonathan Ross创立 [1][4] - 公司自研的LPU推理芯片是本次合作的核心价值所在 [1][4] - LPU专为AI推理场景深度优化,采用确定性架构、片上SRAM内存设计等核心技术 [2][4] - 在主流大语言模型运行中,LPU推理速度可达英伟达H100 GPU的5至18倍,首token响应时间仅0.2秒 [2][5] - LPU能有效降低算力成本,解决传统GPU在推理环节的“内存墙”与高延迟问题 [2][5] - Groq在9月完成一轮7.5亿美元的融资,投后估值达69亿美元,累计融资超30亿美元 [3][5] 合作对双方的战略意义 - 对Groq而言,通过与英伟达紧密捆绑可获得大额技术授权收益,同时保留独立运营权,并依托英伟达背书拓展业务 [3][5] - 对英伟达而言,通过“非独占技术许可+核心人才吸纳”的方式,可快速补全其AI推理短板、巩固全栈优势 [3][5] - 此合作模式有助于英伟达降低收购风险,更好地应对来自谷歌TPU、微软Azure Maia的竞争 [3][5] 市场反应与行业背景 - 12月24日英伟达收于188.61美元,盘后股价微跌0.32%,市场对其战略调整持理性态度 [3][5] - 英伟达股价年内累计涨幅仍超35% [3][5] - 当前全球AI产业正从模型训练阶段迈入规模化推理落地的关键期,低延迟、高能效的推理算力成为核心刚需 [3][5] - 英伟达与Groq的联手推动AI推理技术走向高性能与低成本的双向优化 [3][5] - 此次合作展示了“技术授权+人才整合”的新模式,为科技巨头与明星初创公司间的合作提供了新解法 [3][5]
观察| 人工智能背后的会计谎言
未可知人工智能研究院· 2025-12-17 18:02
核心观点 - 文章认为当前AI行业存在一个规模巨大的、由会计扭曲和循环融资支撑的泡沫,其本质与历史上的安然、朗讯科技和世界通信等会计丑闻相似,崩盘是必然的 [4][6][130] - 英伟达作为AI基础设施的核心供应商,其财报中的多个关键指标(如应收账款、库存、现金流、毛利率)已发出危险信号,预示其客户支付能力不足和需求疲软 [16][27][34][73] - 以“大空头”迈克尔·伯里为代表的顶级投资者已通过做空和减持表达了对行业泡沫的共识,市场崩盘可能比2008年金融危机更快、更猛烈 [5][84][91][96] - AI技术本身是真实且有价值的,但当前的估值和资本配置严重脱离现实;泡沫破裂将清洗投机者,释放资源,使行业回归健康,并可能催生去中心化计算等新的技术方向 [107][109][112][137] 第一幕:沙滩上的摩天大楼 - 将当前AI行业的资本支出与安然公司类比,指出其会计扭曲规模是安然的2.4倍 [7][10] - 科技巨头(微软、谷歌、亚马逊、Meta)预计到2028年每年投入超过2000亿美元建设AI基础设施,包括数据中心、GPU和冷却系统 [10] - 按技术迭代速度,AI基础设施(如GPU)的“经济使用寿命”应为36到48个月,但相关公司却按10到15年折旧,导致折旧费用被严重低估 [11][12][13] - 若按诚实的3-4年折旧,每年应计提25%-33%的折旧费用,但按15年算每年只折旧6.7% [14] - 到2028年,这种会计处理将累计虚增1760亿美元的利润 [15] 第二幕:334亿美元的“白条帝国” - 英伟达2025年第三季度财报显示应收账款高达334亿美元,而其当季营收为570亿美元 [16][19] - 计算得出英伟达的应收账款周转天数(DSO)为53.3天,较其历史平均的46天恶化了15.9% [19] - 英伟达的DSO远高于竞争对手:AMD为42天,英特尔为38天,台积电为35天,美光科技为44天 [22][23] - DSO延长7天,相当于每季度多占用44亿美元资金;自Blackwell架构发布以来的三个季度,累计资金缺口达132亿美元 [24] - 算法在财报发布后45分钟内检测到这一异常,并触发做空指令 [2][25] 第三幕:越卖越多的“紧俏商品” - 英伟达库存从上一季度的150亿美元暴增至198亿美元,单季增长32% [28] - 管理层声称需求旺盛、供应紧张,但库存暴增与“供不应求”的表述相矛盾;历史数据显示,在H100架构推出时,库存曾下降18% [29] - 渠道调查显示,分销商安富利财报中英伟达产品的库存周转天数高达78天,比其他产品线平均52天多50%,显示渠道堵塞 [30] - 第三方GPU租赁平台(Vast.ai, RunPod.io)数据显示,H100 GPU的小时租金从2025年8月的3.20美元跌至11月20日的2.12美元,跌幅34%,表明市场需求和价格在下降 [31][33] 第四幕:不见的真金白银 - 英伟达第三季度净利润193亿美元,但经营性现金流仅145亿美元,现金转化率为75.1%,意味着25%的利润未变成现金 [35][36] - 行业对比显示,台积电的现金转化率在100%-105%之间,AMD为97%,英特尔为91% [37] - 现金流量表显示,应收账款和库存增加消耗了112亿美元现金 [37] - 同一季度,公司在经营性现金流紧张的情况下,仍花费95亿美元回购股票,被指为优先照顾股东情绪的股价管理行为 [38] 第五幕:左手倒右手的资本魔术 - 揭示了AI产业存在“精心设计的循环融资骗局”,以xAI的融资为例:英伟达投资20亿美元给xAI,xAI再用这笔钱向英伟达租用GPU,英伟达将此记为销售收入,形成了一个没有外部资金流入的闭环 [42][43][44][45][46] - 类似的循环承诺网络广泛存在:微软投资OpenAI 130亿美元,OpenAI承诺5年内在Azure消费500亿美元;甲骨文与OpenAI签订5年3000亿美元云合作协议,并要求部署英伟达GPU [48][49][52] - OpenAI当前年营收仅37亿美元,但为履行巨额承诺,年支出达130亿美元,年净烧钱93亿美元,现金跑道不足2年 [52][57] - 整个网络涉及6100亿美元的循环承诺,但底层能盈利的AI应用不足以支撑该体系 [51][53] 第六幕:皇帝新装的第一声嘘声 - 在2025年11月的网络峰会上,多位AI行业领袖公开表达了对行业现状的担忧:Airbnb CEO提及“氛围营收”,投资人维诺德·科斯拉预测95%的AI创业公司会失败,OpenAI CEO承认技术路线存在不确定性 [56] - 主要AI公司财务状况堪忧:Anthropic年烧钱超50亿美元,依赖亚马逊和谷歌输血;Character.AI在被谷歌收购前月烧钱2000万美元 [59][60][72] - 麻省理工学院(MIT)2025年9月的研究显示,追踪的2847个企业AI项目中,95%在部署两年内未产生正投资回报,67%在18个月内被放弃或缩减 [51][61][72] 第七幕:历史总在重复 - **朗讯科技(2000年)**:通过“供应商融资”虚增营收,其DSO从48天攀升至64天,最终因计提87亿美元坏账而破产;英伟达当前DSO为53天,已超过其历史基线 [64][66][67] - **安然(2001年)**:通过“特殊目的实体”(SPE)隐藏债务、虚增收入,造假规模740亿美元;xAI的SPV结构与此相似,而AI行业到2028年的会计扭曲预计达1760亿美元 [68][69] - **世界通信(2002年)**:与Global Crossing进行“交换交易”,互相购买网络容量并记为收入,没有真实外部客户,最终暴露110亿美元会计造假 [70][71] 第八幕:毛利率的秘密 - 英伟达第三季度GAAP毛利率为73.4%,较上一季度的74.6%环比下降120个基点 [74] - 产品组合变化(如售价更高的Blackwell GB200架构)和制造成本增加(如台积电CoWoS封装)无法完全解释该降幅 [75][76] - 毛利率下降在570亿美元营收规模上相当于6.84亿美元损失,年化约27亿美元 [77] - 法务会计分析指向三种可能原因:渠道激励政策、因散热问题计提的质保准备金、以及对老化应收账款计提不足的坏账准备金 [78][79] - 迈克尔·伯里指出,英伟达当前年折旧率约6.6%,若按行业标准的12%正常化,年折旧费用将增加约34亿美元,净利润减少18% [80][81][82] 第九幕:聪明钱的集体逃亡 - 2025年11月上旬,三位顶级投资者协调一致地减持或做空英伟达:彼得·蒂尔的Founders Fund出售1亿美元股票;软银集团出售58亿美元持仓;迈克尔·伯里持有超过1.8亿美元、行权价140美元的看跌期权 [84][85][86][89] - 彼得·蒂尔认为AI商业变现还需3-5年,当前估值“为不存在的确定性定价” [86] - 软银在英伟达财报发布前8天出售持仓,时机巧合 [87] - 迈克尔·伯里的看跌期权押注英伟达股价在2026年3月前从约180美元跌至140美元以下,跌幅至少25% [40][89] 第十幕:多米诺骨牌已经开始倒 - 比特币价格从2025年10月的历史高点126,000美元暴跌至11月20日的89,567美元,跌幅28.9% [3][92][94] - 87家AI公司持有总计268亿美元的比特币,作为运营贷款抵押品、GPU采购质押物等,使比特币成为AI行业的“影子银行” [93][97] - 英伟达股价与比特币的30天滚动相关系数在三周内从0.52升至0.91,相关性增强75%,表明市场将其视为同一风险 [95][97] - 若英伟达因会计问题重述财报,股价跌向68-82美元的合理区间(跌幅55%-63%),将引发连锁反应:AI公司估值被削减,触发以比特币为抵押的贷款追加保证金,导致被迫抛售比特币,可能将比特币价格进一步压向52,000美元(较当前再跌42%) [95][98][100] - 由于加密货币市场24/7交易和即时清算,此次崩盘可能比2008年更快,可能在6天内发生 [101] 第十一幕:韭菜的最后一舞 - 文章建议持有英伟达股票、AI概念基金、比特币或相关科技股的投资者立即评估风险暴露,并思考买入理由、可承受损失和退出策略 [102][104] - 历史科技泡沫破裂模式分为五个阶段:否认、愤怒、崩塌、过早抄底、真正底部;当前处于第一阶段 [105] - 参考2000年纳斯达克跌78%用时30个月,2008年标普500跌57%用时17个月,预计此次AI泡沫因规模更大、杠杆更高、连锁反应更快,从高点到底部时间不超过12个月 [105][106] 第十二幕:浴火重生还是灰飞烟灭? - AI技术本身(如ChatGPT、自动驾驶)是真实且有突破性的,问题在于估值和资本配置 [107][108] - 泡沫破裂将清洗行业:依赖PPT融资、循环融资和会计魔术的公司将失败或受重创,而真正创造价值的公司会存活并变得更强大 [110][122][123] - 当前AI基础设施高度集中在五大云服务商(AWS、Azure、谷歌云、甲骨文云、Meta),它们控制了89%的GPU部署,但电力供应可能成为瓶颈 [112][115] - 去中心化计算网络(如Render Network、Akash Network)正在崛起,截至2025年11月接入约240万块GPU,月增长率达40% [112][116] - 神经形态芯片(如英特尔Loihi 3、IBM TrueNorth)能效可比当前GPU提升1000倍,是潜在的革命性架构 [112][117] - 泡沫破裂将释放资源(如工程师、低价二手GPU),促使资本从不可持续的循环融资转向真正的技术创新,如去中心化网络和神经形态架构 [113][118][129]
马斯克、贝佐斯发声,北京上海刚刚出手,深圳宣布全球首个“天”大的大计划
搜狐财经· 2025-12-13 22:19
全球太空计算产业动态与人才培养 - 全球首个“天基计算研究生班”由深圳理工大学与中科天算科技有限公司联合创办,旨在为中国抢占太空智能时代制高点培养核心专才 [1][4] - 该研究生班旨在培养兼具深厚理论基础与顶尖工程实践能力的复合型专才,目标直指国家空间信息基础设施与商业航天发展对智能计算人才的迫切需求 [1][6] - 深圳理工大学校长樊建平希望通过校企协作,带动深圳深空产业加速发展,为航天产业高质量发展注入强劲动力 [1][8] 中国“天算计划”与太空计算布局 - 中科天算的“天算计划”提供了在轨构建模块化、可扩展的“太空超算中心”的工程蓝图,可整合能源舱、算力舱、通信舱 [1][7] - 该团队已成功在轨验证多代自研星载智能计算机,并在“多模态大模型在轨部署与训练推理”等标志性前沿应用上取得突破 [1][7] - 北京宣布拟在700-800公里晨昏轨道建设运营超过千兆瓦(GW)功率的集中式大型数据中心系统,以实现将大规模AI算力搬上太空 [2] - 上海交通大学与国星宇航共同建设国内首个太空计算联合实验室,将围绕天基算力网需求,聚焦自主可控太空计算芯片研发、机器人卫星、在轨增材制造等前沿领域 [3] 国际巨头太空计算战略构想 - 马斯克计划每年向太空发射总量达100万吨的卫星,以构建超大规模太空AI计算网络,并称这可能是“运行超大规模AI的最低成本方式” [2] - 马斯克指出,卫星搭载本地化AI计算能力,有望成为未来4年内实现算力规模扩张的最快路径,因太空系统几乎无需运维成本 [2] - 亚马逊创始人杰夫·贝佐斯预测,未来10到20年内,千兆瓦级的数据中心将在太空建成 [2] - 谷歌前首席执行官埃里克·施密特因对太空数据中心感兴趣而收购了太空科技公司Relativity Space [2] 天基计算研究生班培养体系与目标 - 研究生班将深度融合中科天算的尖端工程实践与深圳理工大学在人工智能、集成电路、新材料、控制工程等交叉学科领域的优势 [7] - 重点培养三大核心能力:太空智能计算硬件系统相关技术、在轨智能处理与决策能力、高可靠系统集成能力 [7] - 学生将有机会深度参与技术研发与太空实验,从硬件板路设计到算法优化,都能获得成果在轨验证的宝贵机会 [8] - 中科天算董事长刘垚圻表示,攻克天基计算领域的世界性难题,关键在于培养兼具深厚理论基础、先进技术视野与工程实践能力的复合型高端人才 [8] 行业趋势与专家观点 - 中科天算董事长刘垚圻表示,天基计算已成为太空应用迈向智能时代的核心能力,是支撑未来太空经济与科学发现的战略性技术制高点 [1][8] - 深圳航天东方红卫星有限公司总师李春强调,天基计算已成为卫星技术发展的核心趋势,相信此次研究生班的创办将为行业培养更多专业人才,持续推动遥感卫星应用提质增效 [9]
数据中心,电力告急
36氪· 2025-12-02 17:57
文章核心观点 - 高盛报告指出,美国AI发展的最大障碍是电力,而非芯片、稀土或人才 [1] - AI算力需求激增导致数据中心电力消耗面临巨大挑战,并推动了电源管理技术的结构性变革 [3][8] - 行业正从芯片、架构和材料等多维度寻求解决方案,以提升能效、降低功耗,相关市场预计将快速增长 [4][7][13][15] 数据中心电力需求与挑战 - 单个英伟达H100 GPU峰值功耗700瓦,年耗电约3740度,相当于一个美国家庭的平均用电量 [2] - 2024年英伟达H100 GPU销量预计150万至200万块,其总功耗将超过美国亚利桑那州凤凰城所有家庭的用电量 [2] - 数据中心冷却系统是能耗主要组成部分,占总耗电量38%以上,部分甚至高达50% [3] - OpenAI总裁预测,未来20年AI算力需求将增加1万倍,到2050年全球AI耗电量至少需要130万亿度,而同期非AI人类用电量预计约为30万亿度 [3] 初创公司与技术解决方案 - 英特尔前CEO Pat Gelsinger加入电源芯片初创公司PowerLattice董事会,该公司已完成2500万美元新一轮融资 [4] - PowerLattice研发紧贴处理器的“芯片组”(chiplet)技术,声称可使计算机系统在保持相同算力下功耗降低50%以上 [4] - 其首批芯片已由台积电生产,计划2026年上半年向英伟达、博通、AMD等潜在客户提供测试 [5] - NXP前CEO Richard L. Clemmer加入另一家电源芯片公司Empower董事会,该公司已完成由富达领投的1.4亿美元D轮融资 [6][7] - Empower拥有专利IVR技术,将多个组件集成到单个IC中,提高了效率并将面积减小了10倍,目标是在AI市场实现千兆瓦级别的能源节省 [7] AI电源芯片的技术要求与市场格局 - AI电源需承受200%的峰值功率超载及180%的峰值功率,对瞬时功率突变响应速度极快,而传统电源通常只能短时承受100%-120%的额定功率 [9] - AI电源管理芯片(PMIC)需采用高性能、数字化的多相控制器和智能功率级(DrMOS),以纳秒级速度协同工作,英飞凌、MPS和德州仪器是头部企业 [10] - 国内AI电源芯片企业包括晶丰明源、杰华特、芯联集成、圣邦股份、芯朋微等 [11] - 晶丰明源2024年前三季度营收11.17亿元,净利润2332.97万元,其高性能计算电源芯片业务上半年收入同比暴涨419.81%,出货量增长121.49% [12] - 杰华特前三季度营收19.42亿元,净亏损4.6亿元;芯联集成营收54.22亿元,净亏损4.63亿元;圣邦股份营收28.01亿元,净利润3.43亿元;芯朋微营收8.77亿元,净利润1.78亿元 [12] - 中金公司数据显示,AI服务器电源市场中,模组和芯片市场的规模预计在2025至2027年间复合年增长率(CAGR)将分别达到110%和67% [13] 第三代半导体与高压直流架构趋势 - 第三代半导体材料碳化硅(SiC)和氮化镓(GaN)凭借高压、高频、低损耗特性,正逐渐渗透AI服务器电源市场 [14] - 预计到2030年,数据中心电源供应单元(PSU)市场规模将攀升至141亿美元,年复合增长率约15.5% [15] - 高于3kW的高功率PSU市场占有率将提升至80%,至2030年达到115亿美元 [15] - 基于SiC、GaN的高功率PSU渗透率将从2025年的10%提升至约24%,对应市场规模约33.84亿美元 [15] - 800V高压直流(HVDC)架构通过“DC-to-Chip”直流直供模式,将电力转换环节从4-5次减少至1-2次,系统端到端效率最高可提升至98.5%,铜材用量能减少45%以上 [16] - 英伟达已提出800VDC供电方案,国内外头部企业如阿里、腾讯、Meta、谷歌等均在推动HVDC技术落地 [16]
算力新基建产业化进程加快
证券时报网· 2025-12-01 10:09
全球太空算力产业化进程 - 太空计算公司Starcloud于今年11月发射了一颗载有英伟达H100 GPU的卫星 这是先进数据中心GPU首次进入外太空 [1] - 中国已于今年5月发射全球首个太空计算卫星星座 率先开启算力卫星组网 [1] - 算力卫星作为算力新基建 全球产业化进程正逐步推进 [1] 海外科技巨头布局 - 海外科技巨头争相布局太空算力 太空算力逐渐成为行业共识 [1] 中国算力卫星发展 - 国内算力星座发射加速 产业化进程加快 [1] - 国家航天局印发了《国家航天局推进商业航天高质量安全发展行动计划(2025—2027年)》 政策细则进一步明确 [1] 投资关注方向 - 建议关注算力卫星相关标的 [1]
美国AI的B面:给中国比特币矿主「打工」
创业邦· 2025-11-28 11:56
文章核心观点 - 美国AI产业面临严重的电力短缺危机,缺口达44吉瓦,新建AI数据中心平均通电等待时间长达48个月以上[5] - 美国AI巨头为解决电力瓶颈,转向收购或租赁前比特币矿场的电力基础设施,这些矿场很大程度上继承了中国矿企的技术和运营遗产[6][8] - 以比特大陆为代表的中国矿企,在2013-2021年间发展出一套高效的电力管理和快速部署能力,这套能力随2021年中国清退挖矿产业而迁移至美国,意外成为美国AI电网的基石[11][16][25] - 当前AI巨头通过将重资产电力基础设施的风险转移给矿企转型而来的基建商,自身保留灵活性和低风险,重现了互联网泡沫时期的基础设施投资风险模式[30][31] - 商业世界的战略结果往往不可预测,中国清退挖矿产业本为金融安全和能耗双控,却无意中为竞争对手美国AI时代提供了关键的电力支持[33] 美国电力危机与AI产业瓶颈 - 美国电网老化,电力缺口高达44吉瓦,相当于一个中等发达国家如瑞士的全部电力产能[5] - 单价3万美元的英伟达H100 GPU因缺电而闲置,无法为GPT-5或Sora等AI模型提供算力[5] - 美国为解决AI算力电力需求,发现比特币矿场手握已签约的巨量电力,成为救命稻草[6] 中国矿企的技术与运营遗产 - 比特大陆创始人詹克团在2013年认识到比特币挖矿是算力游戏,并于2016年通过台积电16nm工艺制造出蚂蚁矿机S9,创造了“热力学熔炉”[10] - 比特大陆定义的矿机工业标准,将电力从公共服务变为可瞬间定价交易的B端原材料,并利用中国电力冗余发展出行业[10] - 2018年比特大陆占据全球74.5%的矿机份额,其余份额也基本由中国公司如神马矿机、嘉楠科技占据,全球99%的算力由中国供应链锁定[11] - 中国矿企在四川等地通过“水电消纳示范区”政策,将矿机变为帮助电网“削峰填谷”的工具,掌握了将过剩电力转化为数字资产的能力[19] 算力产业大迁徙与遗产转移 - 2021年5月21日中国出台政策打击比特币挖矿,随后四川于6月19日发生“关机之夜”,全球比特币算力暴跌近50%[21][23] - 大量矿机从中国迁移至美国德州,因其拥有独立的ERCOT电网和自由的电力市场,类似放大版的“四川+内蒙”[13] - 中国矿企带去的“电力生存哲学”包括能源套利算法,能根据德州每15分钟波动的电价自动调整负荷,在电价为负时用电,电价高时卖电[15] - 中国矿企的模块化、集装箱式基建方案将建设周期从传统数据中心的2-3年压缩至3-6个月,满足了AI算力爆发的快速部署需求[15][16] - 矿企继承的核心资产是“并网容量”或“接入电网的路权”,这在全美缺电的背景下成为启动AI时代的命门[16] AI巨头的风险转移与矿企命运 - AI巨头如微软、谷歌借鉴2000年互联网泡沫中Global Crossing因重资产而破产的教训,采取“资产隔离”策略[27][28][30] - 巨头将数据中心厂房、电缆等专用重资产的风险拆出去,通过长期算力合约、电力合约等方式,将CapEx资本支出风险转移给基建接盘侠[30] - 转型AI的矿场硬件与挖矿系统不通用,一旦AI泡沫破裂,矿企将面临估值从“AI基建股”被清算回“高耗能矿工”的风险,难以退回挖矿[31] 中美AI竞争与历史启示 - 美国在电网建设效率上落后于中国特高压,但通过接收中国矿企迁移的“影子库存”获得了应急电力能力[33] - 中国拥有国家电网和特高压输电的战略纵深,能将西部廉价清洁能源低损耗输送到东部数据中心[24] - 商业战略结果具有不可知性,中国清退挖矿产业的决定在宏观上是正确的,但无意中强化了对手的电网基础,体现了“伟大不能被计划”[25][33]
马斯克画的上天大饼,中国人已经在做了|硅谷观察
新浪科技· 2025-11-25 07:52
马斯克的太空数据中心愿景 - 提出在太空建造超级AI数据中心的计划,目标在五年内发射AI卫星站[6] - 阐述太空数据中心优势:太阳能辐射强度是地表1.36倍,能量利用率可达99%,远超地面30%-40%[12] - 太空散热效率是地面3倍,无需水冷和风扇,直接向零下270摄氏度真空辐射热量[12][13] - 计划用星舰火箭每年向轨道发送300-500吉瓦太阳能AI卫星,其AI算力每两年将超过美国目前总用电量[14] - 认为实现太瓦年级别AI计算在地球上不可能,太空太阳能AI集群是不可避免的未来[12] 地面数据中心的能源挑战 - 美国科技巨头未来三到五年AI基础设施资本支出高达1.2万亿美元[8] - 预计到2030年全球数据中心总投资达6.7万亿美元,其中5.2万亿美元由AI负载驱动[8] - 2024年全球数据中心耗电量达415太瓦时,占全球用电1.5%,预计2030年翻倍至945太瓦时,相当于日本全年用电量[11] - 贝恩资本预计2030年数据中心用电占美国总用电量比例将从2014年1.8%升至9%[11] - xAI与沙特合作在利雅得投资250亿美元建500兆瓦数据中心,冷却成本占运营成本20%[8][9] 科技巨头的太空计划进展 - 亚马逊贝佐斯认为未来二十年内太空数据中心成本将打败地面,蓝色起源实现火箭定点回收[15] - 亚马逊Project Kuiper计划2026年推出低轨卫星互联网服务,未来计划结合AWS部署在轨AI节点[16] - 谷歌公布Project Suncatcher计划,目标2027年初发射两颗测试卫星,每颗携带4个TPU[18] - 谷歌计划由81颗卫星组成半径1公里星座,太阳能板效率可比地球高八倍[18] - 谷歌已在67 MeV质子束下测试其Trillium TPU芯片以应对宇宙辐射[23] 太空数据中心的技术与成本 - 过去五年私人资本流入太空数据中心领域约8100万美元[20] - 星舰火箭成熟后发射成本预计可压低至每公斤67-100美元,花旗预测2040年最佳情况可降至30美元[26] - Starcloud公司分析显示太空数据中心最大成本为一次性发射约500万美元和太阳能阵列约200万美元,长期运营成本近零[26] - 约翰斯顿咨询机构预测轨道数据中心总成本可能仅为地面方案十分之一[26] - 行业专家认为太空AI服务器项目需至少十年才在经济上合理,质疑马斯克五年时间表[24] 中国在太空算力的进展 - 国星宇航发布“星算计划”,计划由2800颗算力卫星与100个地面智算中心组网[29] - 2025年5月成功发射全球首个太空计算卫星星座,包含12颗计算卫星,搭载80亿参数天基模型[29] - 首发单星最高算力744 TOPS,星座总算力5 POPS,存储容量30TB,星间激光通信速率最大100Gbps[29] - 长期目标建成“三体计算星座”总算力达1000 POPS[29] 行业早期探索与挑战 - 多家公司进行测试:Lonestar在月球轨道运营测试,Axiom Space向国际空间站发射原型,Crusoe计划2026年底部署[20] - Starcloud将一颗重60公斤、搭载英伟达H100 GPU的卫星送入太空,能在轨运行AI模型[22] - Axiom SpaceCEO称目前太空产生数据90%会丢失,增加基础设施可创造新价值[22] - 面临宇宙辐射、碎片冲击等挑战,需采用军规级设备或冗余备份系统[22][23]