Workflow
英伟达H100
icon
搜索文档
英伟达反击“大空头”言论
第一财经· 2025-11-25 16:45
上周最新季度财报发布后的电话会议上,不仅英伟达CEO黄仁勋回应了AI泡沫论,表示英伟达看到 了不一样的东西,且现在已进入AI良性循环,英伟达CFO科莱特·克雷斯(Colette Kress)也驳斥 了英伟达芯片使用寿命不长的说法,称6年前的芯片仍在满负荷工作。 2025.11. 25 本文字数:1361,阅读时长大约3分钟 作者 | 第一财经 郑栩彤 AI泡沫相关的议论不断,英伟达也下场回应了相关的质疑。 相关的争论仍未停止。曾在2008年次贷危机前做空房地产的"大空头"迈克尔·伯里(Michael Burry)近日在社交媒体上发表了关于英伟达的系列言论,关于科技公司围绕英伟达的循环交易和投 资者收益减少等提出批评,引来英伟达反击。 迈克尔·伯里在社交平台上发布了一张图,描绘了以英伟达为中心的美国科技公司投资、采购关系 图,包括甲骨文花费数百亿美元采购英伟达芯片、OpenAI与甲骨文之间有3000亿美元云相关的交 易、英伟达计划至多投资OpenAI1000亿美元,图中写出的公司还包括英特尔、AMD、xAI、微软 等。 "以下列出的每家公司都存在可疑的收入确认方式。若将所有交易往来的情况以图表形式呈现,那会 是 ...
英伟达反击“大空头”言论
第一财经· 2025-11-25 16:01
英伟达也在备忘录中反驳了这一观点,称2018年以来英伟达已回购价值910亿美元的股票,而非1125亿 美元,迈克尔·伯里似乎错误地将 RSU(限制性股票单位)的税款计算在内了。英伟达还指出,员工的 股权授予不应与回购计划执行情况混为一谈。英伟达的员工薪酬与同行水平一致,员工因股价上涨而受 益并不意味着授予股权过于慷慨。 迈克尔·伯里并不认同英伟达的反击,随后他表示,英伟达试图在备忘录中反驳他的观点,但他仍坚持 自己的分析观点,他还将发布相关的其他内容。 迈克尔·伯里在社交平台上发布了一张图,描绘了以英伟达为中心的美国科技公司投资、采购关系图, 包括甲骨文花费数百亿美元采购英伟达芯片、OpenAI与甲骨文之间有3000亿美元云相关的交易、英伟 达计划至多投资OpenAI1000亿美元,图中写出的公司还包括英特尔、AMD、xAI、微软等。 "以下列出的每家公司都存在可疑的收入确认方式。若将所有交易往来的情况以图表形式呈现,那会是 一幅难以理解的复杂图景。未来人们会将此视为欺诈行为的证据,而非一个良性循环的模式。"迈克尔· 伯里表示,真正的最终需求量极其微小,几乎所有的客户都是由其经销商提供资金支持的。 对此,英伟 ...
工业富联急澄清:未下调第四季度利润目标
每日经济新闻· 2025-11-25 09:56
当天,网上有消息称公司"下调第四季度业绩目标""大客户在L10/L11商业模式(Level-10指的是已完成 系统组装与测试的整机柜,L11则是最终整机柜组装)上会有调整"等,引发外界广泛关注。 针对这一情况,当日晚间,工业富联发布澄清公告称,上述言论不属实。 "当前,公司第四季度整体经营,包括GB200、GB300等相关产品出货均按既定计划推进,客户需求持 续畅旺,生产及出货一切正常,且目前未收到任何主要客户关于调整业务模式、下修份额或价格的要 求。此外,公司未向市场下调第四季度利润目标与客户合作开发的下一代产品,也正按前期计划顺利推 进中。"工业富联称。 工业富联是英伟达AI服务器的重要合作伙伴,承担了从GPU(芯片类型)模组到整机生产的全链条制 造任务。自2023年起,工业富联开始量产英伟达H100、H800等高性能AI(人工智能)服务器,并参与 GB200、GB300机柜级产品研发与生产。 值得注意的是,这并非工业富联首次回应市场传闻。公司在11月13日针对市场上有关"订单或展望下 调"的传闻向投资者表示,现有客户项目进度与交付节奏正常,当前,对应产线、测试与交付能力均按 计划运作当中。 11月24日 ...
国产AI芯片厂商竞争格局、产品力与市场情况
2025-11-24 09:46
国产 AI 芯片厂商竞争格局、产品力与市场情况 20251123 摘要 国产 AI 芯片在部分模型性能上可达英伟达 A100 的 50%-100%,推理 侧华为、寒武纪、昆仑芯达 H100 的 50%-70%,但尚无芯片达到 H100 水平。受美国限制,国产芯片依赖海外产能,少数如华为可获国 内 7 纳米(N+2)产能,多数厂商仅能获得 12 纳米(N+1)制程。 国内 AI 芯片厂商计划在 2026 年 Q1-Q3 量产新一代全国产 12 纳米 (N+1)制程芯片,华为、寒武纪、海光预计上半年实现 7 纳米 (N+2)制程量产,但这些产品多为上一代加强版。华为和寒武纪已开 发出基于光电直连的新型互联方式,部分超越英伟达 NVLink 技术。 二三线 AI 芯片设计公司采用迷你超节点技术,通过定制高速网卡连接 32-64 张 GPU 卡以提高性能。百度昆仑已完成万卡集群调试,并开发 类似平头哥超节点系统,通过与上下游合作提升竞争力。 2025 年 Smith N+2 芯片月产量 4,000-5,000 片晶圆,良率接近 40%,预计 2026 年产量增至每月超 1 万片,但不超 1.5 万片,良率上 限 50 ...
英伟达H200如果放开,中国会接受吗?
傅里叶的猫· 2025-11-22 23:21
H200可能放开的背景与现状 - 关于H200放开的传闻最早由彭博社报道,描述为“初步讨论”阶段,存在仅停留在讨论层面而永不落地的可能性[1][2][3] - 此次讨论源于此前中美领导层会晤,市场曾预期更先进的Blackwell架构芯片会放开,但最终未谈及,据华尔街日报消息是因美方高级顾问反对[4][7] - 高端Hopper架构芯片的放开事宜可能已讨论较长时间[9] H200性能规格与市场定位 - H200基于Hopper架构,相比H100在GPU内存(从80GB HBM3提升至141GB HBM3e)和内存带宽(从3.35 TB/s提升至4.8 TB/s)上有显著升级,热设计功耗最高达1000W[10][11] - 在双精度浮点运算(FP64 Tensor Core)性能上,H200与H100保持一致,均为33.5 TFLOPS,但在特定高精度计算场景下其FP64 Tensor Core算力(67 teraFLOPS)强于B200(37 teraFLOPS)[10][19] - H200的单卡算力和显存带宽被认为高于国内AI芯片[13] 海外云服务市场对H200的使用与定价 - 美国主要云服务供应商(如GOOGL、AMZN、META、MSFT)的服务器折旧年限多在4至6年,H100和H200均处于正常使用周期[13][14] - 在Coreweave租赁平台,H200的每小时使用价格为3.50美元,略低于B200的5.50美元,但高于H100的2.95美元[15] - 在AWS和GCP上,H200的定价甚至高于B200,反映出其在特定场景的适配性更强及资源稀缺性[16][18] - H系列芯片在海外云服务器中使用率很高,部分原因是大量“遗留负载”迁移成本高昂,此情况同样存在于国内云服务提供商[20][21] 对中国市场潜在影响的判断 - 基于H200在海外的高使用率及其性能特点,分析认为若美国真的放开H200出口,中国方面基本会予以放行[22] - 此前H20放开后因“后门问题”已被禁止采购,同时证明国内已具备可替代H20的AI芯片能力[13] 英伟达国内供应链信息更新 - 文章梳理了英伟达在国内液冷和电源产业链的相关上市公司信息,涉及企业包括英维克、思泉新材、科创新源、淳中科技、鼎通科技、麦格米特、京泉华、金盘科技、四方股份等[24] - 表格列出了各公司的出货产品、产品市占率、供货方式、产品毛利率及2026年订单交付预期等关键数据[24]
美国AI新规为何令黄仁勋坐立不安,喊出中国要赢
观察者网· 2025-11-10 07:53
全球人工智能竞赛格局 - 中国DeepSeek实验室在2025年初推出高效大型语言模型,以远低于同行的成本实现与顶尖系统媲美的性能,震动硅谷[1] - DeepSeek模型仅凭本土资源实现与OpenAI GPT-5相当的推理能力,暴露出美国AI企业在算力密集型训练上的成本短板[2] - DeepSeek的突破使OpenAI与Anthropic的领先优势从“代差”缩窄至“月差”,后者模型训练成本高达数亿美元,而DeepSeek将其压缩至三分之一[12] 美国AI监管环境演变 - 美国AI监管呈现从联邦“顶层设计”向州级“基层自治”的权力下放实验[2] - 全美50个州及领地共提出逾260项AI相关法案,其中22项已签署成法,约50项预计在2025年底前进入最终审议[2] - 州级法规形成“50套新规”合规迷宫,企业需逐州制定合规策略,加剧行政与法务负担[4] 加州AI监管政策影响 - 加州于2025年9月29日签署《前沿人工智能透明法案》,规定开发训练算力超10^26 FLOPs或成本超1亿美元的模型需提交多层透明报告[5] - 违规最高罚款可达全球年收入的1%,屡犯者或面临产品召回乃至州内禁售[5] - 独立验证条款要求聘请州认证的第三方审计机构审查核心代码,导致额外200-500万美元支出与3-6个月延迟[5] 纽约州及中西部监管特点 - 纽约州通过《人工智能消费者保护法案》,要求对高风险AI进行歧视风险评估,预计使华尔街机构年合规支出增加15%-25%[6] - 科罗拉多州《人工智能法案》将“高风险自动化决策系统”定义为影响“公民基本权利”的AI工具,要求提供详尽技术文档包[7] - 伊利诺伊州《心理健康AI监管法案》禁止未经许可的AI系统模拟心理治疗,要求模型准确率不低于85%[8][9] 能源成本与地缘竞争因素 - AI训练耗电极端,英伟达GPU集群单次大模型微调耗电可抵一座中型城市一周用量[10] - 加州工业电价约0.21美元/千瓦时,中国数据中心补贴后低至0.056美元/千瓦时[11] - 2025年中国多地政府为巨头超大规模数据中心提供补贴,使边际电力成本趋近于零[10] 企业竞争与市场影响 - 英伟达Blackwell系列GPU生态受监管冲击,下游AI开发者因审计延误可能推迟训练计划,影响芯片出货量[5] - 英伟达市值达5万亿美元,中国市场贡献其营收的18%以上,若本土监管与出口管制叠加将引发供应链重塑[12] - 美国企业在高电价与监管罚款双重压力下,难以匹配中国竞争对手的发展速度[11]
AI算力大战打到太空,英伟达前脚H100入轨,谷歌TPU后脚上天,中国玩家笑而不语
36氪· 2025-11-05 12:52
公司动态与计划 - 英伟达H100芯片已由初创公司Starcloud搭载于Starcloud-1卫星发射升空,该卫星重60公斤,大小与小型冰箱相当[3][4] - Starcloud计划最早于明年启动商业服务,并计划将Blackwell架构芯片送入太空,终极目标是建造功率达5吉瓦、跨度约4公里的轨道数据中心[6] - 谷歌计划将自家TPU送上太空,其“太阳捕手计划”的两颗原型卫星预计在2027年初发射,旨在测试TPU在太空的运行情况及分布式机器学习任务的可行性[8][10] - 中国之江实验室的“三体计算星座”首批12颗卫星已于今年5月发射,并在今年9月实现常态化商业运行,其首发星座在轨计算能力达到5POPS[17] 技术路径与应用场景 - Starcloud-1卫星将接收来自合成孔径雷达卫星群的数据,并在太空中进行实时处理后传回地球,以减轻通信压力[4][14] - Starcloud计划在轨道上使用H100运行谷歌的开源模型Gemma,以证明大型语言模型在外太空运行的可行性[6] - 计算卫星通过激光通信实现互联互通,通信速度最高可达100Gbps,将单颗卫星的计算能力从T级提升至P级[17] - 谷歌在实验中已成功使用现成光通信模块实现800Gbps单向(1.6Tbps双向)短距光通信,验证了其用于小尺度卫星集群的潜力[14] 成本与经济效益 - Starcloud认为即使算上发射费用,太空能源成本也仅为陆基方案的十分之一[12] - 谷歌测算显示,若低地球轨道发射成本降至每公斤200美元,则卫星的单位电力年均成本可降至810美元每千瓦年,与美国数据中心570到3000美元的当前成本区间相当[12] - 发射成本呈下降趋势,以SpaceX为例,其每年发射载重量翻倍,单价下降20%,预计2035年前可将每公斤发射成本降至200美元以内;若星舰实现重复使用,成本有望进一步降至每公斤60美元甚至15美元[12] 技术优势与可行性 - 太空太阳能电池板的效率可比在地球上高出8倍,并且几乎可以持续发电,从而减少对电池的需求[12] - 太空数据中心可利用深空真空作为无限的散热器,英伟达与Starcloud联合开发了通过卫星外壳高导热材料将热量以红外辐射形式排向太空的真空散热架构[12][13] - 谷歌验证显示,其TPU的HBM组件对辐射的耐受性良好,在累积剂量达到2000rad(Si)后才出现异常,此数值是预期五年任务剂量的三倍[16] - 谷歌模型显示,只需要适度的轨道保持机动,即可维持星座的稳定运行[14]
AI算力大战打到太空!英伟达前脚H100入轨,谷歌TPU后脚上天,中国玩家笑而不语
量子位· 2025-11-05 10:08
太空算力竞赛格局 - 英伟达与谷歌正积极布局太空算力基础设施,计划在太空建立吉瓦级数据中心[2] - 中国公司在太空算力领域处于领先地位,已实现常态化商业运行[5][34] - 行业正从技术验证阶段向规模化商用阶段过渡[35] 英伟达太空算力部署 - 通过Inception计划孵化的Starcloud公司执行太空算力部署,本月已发射搭载H100芯片的Starcloud-1卫星[6][7] - 卫星重60公斤,尺寸相当于小型冰箱,选择H100因其在训练、微调和推理方面的最佳性能[7][8] - 卫星将处理合成孔径雷达卫星群数据并实时传回地球,计划2025年启动商业服务[9][11] - 远期目标建设功率达5吉瓦、跨度4公里的轨道数据中心,预言10年内新建数据中心将全部建在太空[11][12] 谷歌太空算力计划 - 太阳捕手计划预计2027年初发射两颗原型卫星,测试TPU在太空运行情况[14][18] - 卫星采用太阳能供能和自由空间光通信技术,验证分布式机器学习任务可行性[17][18] - 谷歌目标同样是在太空建成吉瓦级数据中心,已发表专门论文论证可行性[19][20] 太空算力经济性与技术优势 - 太空能源成本仅为陆基方案的1/10,发射成本持续下降推动经济可行性[21][22] - 太阳能电池板效率较地球提升8倍,深空真空环境提供无限散热能力[24] - 在轨处理卫星数据可减轻通信压力,Starcloud已实现对SAR数据的在轨处理[25][26] - 光通信链路实验实现800Gbps单向传输,TPU辐射耐受性达预期任务剂量三倍[27][30] 中国太空算力进展 - 之江实验室三体计算星座首批12颗卫星已于2024年5月发射,计算能力从T级提升至P级[32] - 星座在轨计算能力达5POPS,卫星间激光通信速度最高达100Gbps[32][33] - 该星座于2024年9月实现常态化商业运行,标志着太空算力进入实用阶段[34]
小度AI眼镜将开启预售;高通推出人工智能芯片
每日经济新闻· 2025-10-29 07:21
小度AI眼镜产品发布 - 百度旗下小度AI眼镜Pro将于11月1日开启预售,11月10日现货发售 [1] - 产品功能包括AI翻译、AI识物、AI备忘、AI录音等 [1] - 11月率先发售波士顿墨镜款,其他款式将陆续上线 [1] 高通AI芯片战略 - 高通推出人工智能芯片AI200和AI250,预计分别于2026年和2027年投入商用 [2] - 此举标志着公司从移动端向数据中心端的战略转型,通过专用推理芯片切入市场 [2] - 新芯片将加剧数据中心AI芯片市场竞争,推动推理专业化趋势,挑战英伟达在AI推理市场约70%的份额 [2] 中国MaaS市场增长 - 2025年上半年中国MaaS市场规模达12.9亿元人民币,同比增长421.2% [3] - 同期AI大模型解决方案市场规模达30.7亿元人民币,同比增长122.1% [3] - MaaS服务模式降低了企业使用人工智能技术的门槛和成本,推动了技术的广泛应用 [3]
高通开始造电厂
36氪· 2025-10-28 12:06
高通进军AI数据中心芯片的战略动机 - 公司宣布推出AI数据中心芯片AI200和AI250,直接对标英伟达[1] - 公司核心竞争力在于能效,其基因是“在有限电力里榨出极限性能”,计划将手机芯片的能效逻辑应用于数据中心,解决AI时代的电力有限问题[2][4] - 公司面临手机市场红利见顶的焦虑,2023年手机芯片营收下降超过20%,急需寻找第二条增长曲线[5][6] 英伟达的市场主导地位与商业模式 - 英伟达在AI加速器/数据中心GPU市场份额长期保持在90%以上,2025年第一季度插件显卡市场份额约为92%,第二季度升至94%[12] - 公司数据中心业务毛利率高达78%,其GPU像一种“通行权”,通过控制交付周期和定价来维持稀缺性和市场信仰[13][14] - 英伟达通过构建包括CUDA、DGX系统和企业平台服务在内的生态系统,使其成为AI领域的基础设施[25] AI算力行业的现状与挑战 - AI行业严重依赖算力,但GPU价格高昂,一张英伟达H100市场价三万美元起,整柜NVL72系统动辄一百万美元以上[2] - 2024年全球数据中心耗电量突破460太瓦时,其中约20%用于AI训练与推理,相当于阿根廷一年的用电量,算力已成为电力的下游产业[2] - 行业存在对电力天花板和算力成本的普遍焦虑,推动了对更高效、更便宜计算方案的需求[2][3] 行业结构演变与竞争格局 - 云巨头正推进“去英伟达化”,谷歌推出第七代自研AI芯片,亚马逊推出自研Trainium2,微软自造Maia 100芯片,Meta测试MTIA芯片[26][27] - 技术垄断会自然引发修正,历史案例包括Intel与ARM、微软与Google/苹果,高通作为新玩家进入是对英伟达高利润率和长交货周期的市场反应[16][17] - AI竞赛进入生态层比拼,谷歌将Gemini集成进Gmail、Docs等服务,OpenAI的ChatGPT Enterprise已有300万家企业用户,微软将Copilot植入Office套件,竞争焦点在于用户黏性和控制力[27][28] 算力发展的新趋势与方向 - 模型轻量化成为重要方向,实验表明删除大模型冗余部分可使能耗降低90%[20] - AI推理呈现去中心化趋势,从数据中心向手机、笔记本、汽车等终端设备迁移[21] - 芯片低功耗化是另一趋势,高通AI芯片以提升“每瓦推理产出”为目标,推动产业从性能竞争转向能效竞争[22][23] 地缘战略与市场验证 - 沙特主权基金PIF投资的项目HumAiN成为高通AI芯片的首个客户,订单规模达200兆瓦,相当于一座中等城市一年的数据中心电力消耗,可支持约五万张英伟达H100 GPU[6][7] - 沙特从“出口能源”转向“进口智能”,标志着能源定义的改变,智能时代的能源革命可能出现从硅谷向中东的转向[8][9]