Workflow
尺度定律
icon
搜索文档
星际之门的烂尾危机:盟友分歧、融资困局与工程死结
36氪· 2025-07-29 11:30
核心观点 - "星际之门"计划作为特朗普政府推动的5000亿美元AI基建项目,半年内进展严重滞后且目标大幅缩水,从全美数据中心网络缩减为年底前建成一座小型数据中心[1][3][15] - 项目面临资金困局与工程难题双重挑战,核心参与方OpenAI/软银/Oracle/MGX合计仅承诺520亿美元,距5000亿目标缺口巨大,且电力需求相当于东京年用电量的1/3[20][24][27] - OpenAI因算力需求紧急,已绕过软银与Oracle签署每年300亿美元的独立数据中心协议,凸显项目内部利益冲突[18] - 孙正义押注全部身家试图通过该项目翻盘,但软银资金实力与项目规模严重不匹配,且面临电力供应、芯片传输、散热等工程技术瓶颈[23][25][27] - 尽管项目进展不顺,美国AI产业仍保持高速投入,四大科技巨头AI资本支出达3200亿美元(同比+39%),市场对算力需求持续升温[33] 项目背景 - 特朗普政府将AI上升为国策,推翻拜登时期政策,发布《人工智能行动计划》要求两党合作推进AI发展,并放松联邦监管包括允许使用煤电[10][11] - "星际之门"计划拟4年内分5阶段建设全美数据中心网络,类比19世纪铁路建设热潮,核心参与方包括:OpenAI(运营)、软银(融资)、Oracle(建设)、MGX(财务投资)[7][13] - 英伟达市值突破4万亿美元,受益于特朗普解除中国H20芯片禁售令,该政策旨在通过出口次先进技术维持全球对英伟达产品的依赖[1][13] 资金困境 - 项目总预算5000亿美元远超阿波罗计划(现值1900亿),但当前资金缺口达4480亿,软银需新募资或举债完成其承诺的1000亿投资[20][24] - 软银因WeWork等失败案例导致愿景基金回报惨淡,当前AUM仅1000多亿美元且不可能全押注单一项目[20][24] - 假设2000亿债权融资,按4%利率计算年利息达80亿美元,远超OpenAI当前收入规模(2025年预期100-130亿)[25] - MGX初始承诺仅70亿美元,Oracle出资70亿,两者均持观望态度不愿孤注一掷[23][24] 技术挑战 - OpenAI与Oracle协议需部署4.5吉瓦算力(相当于250万张GPU),年耗电400亿度(东京年用电量1300亿度)[27] - 单个5吉瓦数据中心集群面积接近整个曼哈顿,需解决高密度GPU的芯片传输、散热等工程难题[27] - 项目停滞主因是软银与OpenAI在选址、用地及能源供应方案上未达成一致[17] 市场影响 - 孙正义试图通过该项目弥补错过OpenAI/英伟达的失误,将软银、Arm及日本政府资源全部押注[28][31] - 美国科技巨头加速AI投入,微软/Meta/谷歌/亚马逊合计Capex达3200亿美元(同比+39%),GPT-5发布或进一步刺激算力需求[33] - 数据中心产业链公司(英伟达/博通/台积电/Oracle/Vertiv/GEV)股价持续暴涨,行业进入资本开支高峰期[31][33]
人工智能至今仍不是现代科学,人们却热衷用四种做法来粉饰它
观察者网· 2025-05-21 08:09
人工智能的起源与图灵测试 - "人工智能"一词于1956年达特茅斯学院研讨会正式提出,但学术奠基可追溯至图灵1950年提出的"图灵测试"[1] - 图灵测试通过人机对话判断机器是否具备人类思考能力,核心设计为黑箱隔离测试环境,仅评估输入输出结果[3][5] - 测试标准存在主观性缺陷:33%人类应答率即被视为通过(2014年Eugene Goostman案例),但未形成科学共识[7] 人工智能的科学性争议 - 图灵论文存在科学规范问题:将神经细胞与计算机部件速度类比(声称计算机快1000倍)缺乏实证依据[8][9] - 行业普遍存在非科学方法论:欧盟"蓝脑计划"(2005-2016)因脑模拟假设不成立而失败,耗资超10年研发周期[12][13] - 术语滥用现象突出:"摩尔定律"(非科学定律)、"尺度定律"(参数规模决定性能)等概念被包装为科学原理[15][16] 技术发展现状与挑战 - 当前AI仍属"现代工匠技艺":依赖暴力计算(参数规模达万亿级)而非科学理论驱动,但应用范围持续扩展[19][20] - 关键瓶颈在于认知科学:人类自我意识机制未解(如神经元工作原理),导致类脑计算缺乏可靠理论基础[11][12] - 商业化加速概念炒作:"涌现"等术语被滥用为技术突破的伪科学解释,资本推动夸大宣传[17][18] 行业方法论批判 - 德雷弗斯1965年报告指出:AI发展类似炼金术,需建立化学级基础理论而非表面突破[18][19] - 学术研究存在三大误区:将想象类比作为论证依据(如脑模拟)、虚构概念包装(如数据科学)、混淆技术表现与智能本质[10][16][17] - 技术有效性不依赖科学理论:AI在图像识别等领域准确率超95%,但底层仍无统一智能理论框架[20][21]