Workflow
英伟达GPU
icon
搜索文档
【特稿】求囤货照片 美国知名空头质疑英伟达出货数据
新华社· 2025-12-19 20:39
求囤货照片 美国知名空头质疑英伟达出货数据 该帖文还指出,运行Blackwell芯片需要巨大能源,如果600万片GPU已经出货,且其中65%到70%部署 在美国的数据中心,那么它们将需要8.5吉瓦到11吉瓦电力,大约相当于新加坡总发电量。但美国在 2024年至2025年间仅增加约8.5吉瓦可用于数据中心的电力容量。这还是假设所有新设施都只使用英伟 达硬件,而不包含其他公司的产品。 该用户称,上述电力供应仅能勉强匹配英伟达宣称的GPU出货量。 伯里转发了该帖,并敦促X用户向他发送英伟达GPU在美国或海外被"大量"储存的照片或证据。"有些 人联系了我,"他写道,"事情变得越来越有趣,但我需要更多。" 美国本津加网站18日报道,伯里的这一动向源于社交平台X上一篇分析文章。该文质疑英伟达首席执行 官黄仁勋宣称的Blackwell芯片出货量是否与该公司营收数据以及美国数据中心容量相符。该文由X平台 自称是律师的用户Kakashii发布。 美国消费者新闻与商业频道(CNBC)报道,黄仁勋今年10月说,对英伟达芯片的需求仍在激增,并称该 公司过去四个季度已出货600万片Blackwell芯片。当时他预计,Blackwell ...
黄仁勋:英伟达尚未支付OpenAI一分钱
新浪财经· 2025-12-18 23:27
根据协议,双方将联手建设和部署规模空前的AI基础设施。该计划的核心是构建总容量至少达到10吉 瓦的AI数据中心,其中将包含数百万计的英伟达GPU。这无疑将成为OpenAI训练和运行其下一代AI模 型、并最终实现'超级智能'目标的超级引擎。 当地时间12月17日,英伟达CEO黄仁勋表示,尽管公司此前宣布了高达1000亿美元的投资计划,拟与 OpenAI合作建设超大规模数据中心,但目前尚未向对方支付任何款项。该巨额合作的实际进展仍处于 初期阶段。 尽管投资尚未落地,但双方的合作框架已明确,未来可能深刻影响全球AI算力格局。黄仁勋强调,所 有资金投入将根据项目进度和技术需求逐步实施,确保资源高效配置。 今年9月,英伟达与OpenAI宣布了一项堪称史诗级的战略合作。英伟达计划向OpenAI投资高达1000亿美 元。 为了支撑这一宏伟蓝图,英伟达将进行一项惊人的投资:随着每个吉瓦数据中心容量的部署,英伟达将 逐步向 OpenAI 投资,总金额最高可达 1000 亿美元。这笔投资不仅是 AI 领域有史以来最大规模的单笔 投资,也彰显了英伟达对 OpenAI 技术路线的坚定信心。 责任编辑:李桐 今年9月,英伟达与Open ...
人类AI算力竞争离开地球表面进入太空,美银报告:巨头都在跟进,极具挑战性
智通财经· 2025-12-18 15:33
人类的AI算力竞争,终于离开地球表面,进入到了太空。 美银近日发布一篇题为《太空数据中心推动人工智能竞赛向纵深发展》的研究报告,针对算力竞争太空化的现象发表看法。 报告中写道:"随着支持人工智能的数据中心需求不断增长,科技和太空企业正日益将天基计算平台视为产能扩张的下一阶段。" 美银提醒投资者关注,SpaceX、蓝色起源等公司纷纷将目光投向太空以拓展人工智能业务,蓝色起源的杰夫贝索斯和SpaceX的埃隆马斯克均公开表 示,自己正在探索相关构想。 11月,英伟达支持的初创企业Starcoud(由罗纳德J爱泼斯坦支持)在卫星上部署了英伟达GPU,并利用其在轨道上训练人工智能模型;谷歌也发布了向轨 道部署张量处理单元(TPU)的计划("捕日者计划"),并宣布与Planet公司合作,将于2027年在轨道上测试其硬件和人工智能模型。 01 根据美国国家航空航天NASA数据,国际空间站的六个主散热器总面积约5000平方英尺、总重约14000磅,仅能散发70千瓦热量,而一个1吉瓦级超大规 模轨道数据中心的散热需求可能是其15000倍左右。 02 若数据中心兴起,发射需求将迎来增长 目前发射能力仍是行业产能瓶颈,而天基数据中 ...
巨头合谋AI未来:亚马逊(AMZN.US)拟百亿美元注资OpenAI 加速挑战英伟达(NVDA.US)芯片霸权
智通财经· 2025-12-17 12:28
OpenAI与亚马逊的潜在战略合作 - OpenAI正与亚马逊进行投资谈判 计划筹资100亿美元或更高金额 并探讨商业合作可能性 谈判始于去年10月OpenAI完成企业重组之后 [1] - 双方就使用亚马逊自主研发的AI训练芯片Trainium进行了谈判 若达成协议 Trainium将迎来新客户 并助力亚马逊拓展AI领域影响力 与英伟达展开竞争 [1] - 此次谈判仍处于早期阶段 具体条款可能发生变化 OpenAI和亚马逊的代表均拒绝置评 [2] OpenAI的资本承诺与云服务战略 - OpenAI已于上月宣布将在未来七年内斥资380亿美元 租用亚马逊旗下云计算子公司AWS的服务器资源 [1] - 若此次融资落地 将助力OpenAI履行其向至少五家云服务商(包括AWS在内)租赁服务器的长期承诺 这些计算资源正用于其人工智能模型的开发工作 [1] - 在上月达成的协议中 OpenAI明确表示将通过AWS获得英伟达AI芯片的算力支持 但也提到未来仍有可能整合更多芯片方案 [2] 亚马逊的AI芯片战略与市场竞争 - Trainium芯片是亚马逊在AI领域脱颖而出的战略关键 与其云计算业务形成互补 [2] - 亚马逊希望通过更具性价比的优势吸引企业客户 该公司表示 与市场领先的英伟达GPU相比 Trainium芯片能够以更低成本 更高效率驱动AI模型所需的高强度计算 [2] - AWS虽是算力租赁和数据存储服务的最大供应商 但由于面临微软等公司的激烈竞争(微软是OpenAI的主要投资者之一) 其在AI开发者中的市场地位尚待加强 [2] OpenAI的估值与市场地位 - 在最近一次员工股份出售中 OpenAI的估值达到5000亿美元 一度超越埃隆·马斯克的SpaceX 成为全球估值最高的初创企业 [5] - 这一迅猛崛起凸显了围绕AI技术领军者的投资热潮 该技术被认为具有重塑行业和经济格局的潜力 [5] 行业竞争格局与潜在影响 - 亚马逊与OpenAI的谈判作为英伟达AI芯片的替代方案 或将进一步引发市场热议 [2] - 此前 由于有消息称Meta正在考虑采用谷歌的高性能AI半导体TPU 关于ASIC芯片可能将威胁到英伟达地位的讨论一度导致后者股价出现下挫 [1]
中泰证券通信2026年策略:AI强者恒强 卫星拐点已至
智通财经网· 2025-12-16 08:05
通信指数大幅跑赢大盘,展望2026保持"超配"推荐。截止2025.11.27,通信(申万)涨幅64.67%,跑赢大 盘,在申万行业分类31个细分板块中排名第二,主要驱动因子为海外AI大厂商 业化闭环驱动光模块等 权重标的涨幅明显。通信行业PE-TTM(剔除负值)为24.6x,全行业第16位,在TMT内部亦仍处低估水 位。未来,随着1.6T出货加快以及IDC、液冷、物联模组等业绩加速释放,2026年通信行业或呈现"越 涨估值越低"局面。因此,持续看好明年AI算力基础设施和卫星互联网带来的通信行业"超配"机会,同 时,看好国产自主可控以及运营商 红利机会。 主线一:海外云大厂CAPEX持续高增,聚焦谷歌及英伟达双链。北美以微软、谷歌、Meta、AMZON 为主的云大厂持续加大资本开支投入,且英伟达预计到2030年末,全球AI投资将达到3万亿至4万亿美 元,CAGR大约为40%。且谷歌以其模型-算力-入口-应用形成商业闭环,良好示范效应将使能云大厂模 型持续竞速。展望2026年,谷歌TPU与英伟达GPU将同台竞技,Scaleup有望打开高速网络连接空间, 1.6T有望开启放量及硅光方案渗透率提升,同时CPO、LPO ...
诺安基金邓心怡:AI产业内部正在发生深刻的结构性演变
新浪财经· 2025-12-15 22:05
来源:百亿基金经理内参 以下内容节选自诺安基金邓心怡最新调研纪要: 持续关注 AI 产业的三个核心预期差方向:应用、算力、以及与人类交互相关的核心消费终端。当前, 对这一框架的判断没有改变,但产业内部正在发生深刻的结构性演变。 1、算力:从 "需求验证" 进入 "利润验证" 与 "结构分化" 阶段 海外算力产业链无疑是 AI 行业最大的贝塔来源,其长期需求毫不怀疑。然而,产业发展已进入第三阶 段,市场的核心关切从 "需求真伪" 转向了 "利润实现"。 阶段演变回顾: 第一阶段(需求验证):市场担忧 AI 应用是否为真命题,即用户活跃度(Token 消耗)能否持续增 长。这一担忧在 2023 年 9 月前后已被证伪。 第二阶段(收入验证):市场担忧 AI 能否创造收入,避免陷入 "烧钱陷阱"。随着 OpenAI 等公司融资 披露和 ARR(年度经常性收入)的快速增长,这一担忧也已消退。 第三阶段(利润验证):当前,市场开始担忧 AI 能否带来可持续的利润。近期海外云厂商(CSP)和 互联网大厂财报显示的营业利润率分化,正是这种 "AI 泡沫化" 隐忧的体现。 核心矛盾:成本刚性 vs. 收入弹性: 以行业标杆 ...
60岁俄罗斯大叔靠给AI盖房赚翻了,斩获微软1400亿大单
36氪· 2025-12-15 12:14
近日,此前名不见经传的荷兰AI基础设施公司Nebius,在短短3个月间连续斩获微软价值194亿美元(约合人民币1379亿元)与Meta价值30亿美元(约合 人民币213亿元)的两笔算力大单,引发业界关注。 拿下大单后,Nebius在最新财报中披露了业绩的飞速增长。2026财年第三季度,Nebius营收同比激增355%,核心数据中心业务营收同比增长高达400%。 伴随着业绩的强劲表现,Nebius股价也在2025年一路飙升,较年初累计涨幅已达约210%。 与此同时,Nebius还大幅上调了算力建设规划。该公司计划到2026年建成总规模达2.5GW的算力集群,相当于部署约100万至125万个英伟达GPU。这些集 群的年耗电量预计将接近三峡大坝年发电量的20%,规模之庞大,令人震撼。 微软、Meta为何选中了Nebius,而Nebius又是哪里来的底气,接下这些几乎相当于自身市值的算力大单?其实,Nebius并非一家初出茅庐的创企,它的历 史可追溯到28年前成立的俄罗斯互联网巨头Yandex。 独立后,Nebius不仅继承了Yandex的千余名顶尖工程师团队、数十亿美元资产,还掌握着自主设计数据中心、主板、服务器、 ...
云巨头放弃自研芯片
半导体行业观察· 2025-12-13 09:08
甲骨文出售Ampere股份的战略转向 - 甲骨文董事长拉里·埃里森表示,公司出售了其在芯片设计公司Ampere Computing的股份,原因是其认为“不再认为继续在我们的云数据中心设计、制造和使用我们自己的芯片具有战略意义” [2] - 此次出售为甲骨文带来了27亿美元的税前收益,截至2024年5月,甲骨文持有Ampere 29%的股份 [2] - 软银集团上个月以65亿美元的全现金交易收购了Ampere,以增强其人工智能能力 [2] 与竞争对手战略的差异 - 甲骨文的做法与微软、亚马逊网络服务和谷歌等超大规模竞争对手形成鲜明对比,后者一直在开发自己的芯片以满足AI需求并降低成本 [3] - 甲骨文此前持有Ampere的少数股权,Ampere除了为甲骨文生产处理器外,也为其他公司生产Arm兼容的CPU,而竞争对手则雇佣专门团队开发内部使用的处理器 [2] Ampere的业务发展与渠道策略 - Ampere在过去几年一直试图通过渠道合作伙伴建立销售业务,但其首席产品官在5月份承认,渠道业务在销售额中所占比例并不大 [3] - Ampere推出了新的系统构建者计划,旨在通过汇集多家IT基础设施供应商来加快服务器平台开发,为AI和云计算创造更大灵活性并降低成本 [3] 甲骨文未来的芯片战略 - 出售Ampere股份后,甲骨文致力于“芯片中立政策”,与所有CPU和GPU供应商密切合作 [3] - 甲骨文首席技术官表示,公司将继续从英伟达采购最新GPU,但需要做好准备部署客户想要的任何芯片,以保持敏捷应对AI技术变化 [4] - 甲骨文在10月宣布与AMD达成协议,将推出由AMD Instinct MI450 GPU驱动的“首个面向公众开放的AI超级集群”,预计明年第三季度首次部署,初期使用5万块GPU [5] 行业竞争格局的变化 - 高通计划重返服务器CPU市场,并在未来两年内分别推出两款人工智能加速芯片 [5] - 谷歌可能撼动市场格局,据报道正在探索将其TPU部署到客户(包括甲骨文的主要客户Meta)的数据中心 [5]
英伟达员工指微软数据中心冷却系统浪费资源
新浪科技· 2025-12-12 19:22
【#英伟达员工吐槽微软冷却系统太浪费#】英伟达正在为微软的数据中心提供最新一代 Blackwell 芯 片,而在今年初秋的部署过程中,英伟达一名员工注意到,微软其中一处设施的冷却方式显得过于浪 费。 随着 AI 模型训练与推理的算力需求迅猛攀升,英伟达正为微软等科技巨头大量部署 GB200 Blackwell 系统。 今年初秋时,英伟达基础设施专家团队的员工在内部邮件中,详细描述了为 OpenAI 机群部署 Blackwell 机架的现场情况。作为 OpenAI 的云合作伙伴与最大投资方,此类部署由微软负责。 《商业内幕》今天援引的英伟达内部邮件提到,此次安装包括两组 GB200 NVL72 机架,每组搭载 72 颗英伟达 GPU。由于如此高密度的 GPU 阵列会产生巨量热能,微软采用液冷技术将热量从服务器周围 迅速带走。 但邮件也指出,微软在建筑层面的整体冷却方式因规模过大且未使用设施级冷却用水,看起来造成资源 浪费,但确实带来了良好的弹性与故障容忍能力。 美国加州大学的电气与计算机工程副教授任绍雷(音译)解释说,数据中心通常采用"双层冷却结构": 服务器内部用液冷,而建筑本体需要另一套系统把整体热量排到室 ...
群狼围上来了,黄仁勋最大的竞争对手来了
虎嗅APP· 2025-12-12 17:32
美国政府批准英伟达对华销售H200芯片 - 美国政府正式批准英伟达向中国及其他“经批准的客户”出售高端H200 GPU芯片,但需缴纳25%的销售提成,此比例同样适用于AMD、英特尔等其他美国芯片巨头[4] - 英伟达最新的Blackwell和未来的Rubin系列GPU仍被禁止出口[4] - 此举是英伟达首席执行官黄仁勋长达数月游说的结果,受此利好消息推动,英伟达股价盘后上涨[4] - 过去两年,受美国芯片禁运令限制,英伟达逐步失去迅猛增长的中国市场,丢掉了在AI GPU市场原先高达95%的份额,其数据中心业务在中国市场的营收占比也从原先的四分之一急剧下滑[4] - 黄仁勋曾公开抱怨公司在中国市场“完全出局,市场份额已经归零”,而中国AI GPU市场今年规模估计高达200亿-300亿美元,因此即使缴纳25%提成,重新进入该市场对英伟达业绩意义重大[5] 英伟达的市场地位与潜在风险 - 英伟达是生成式AI时代的领军公司,在AI芯片这个万亿级赛道中,以压倒性的性能优势和CUDA平台优势占据主导地位,其GPU产品线几乎垄断了八成以上的市场份额[5] - 公司是全球最具价值的上市公司之一,市值一度突破5万亿美元[5] - 英伟达数据中心业务营收高达1300亿美元(最近财年),但存在客户集中度过高的巨大隐患:前两大客户营收占比39%,前三大客户营收占比高达53%[5] - 据媒体猜测,前五大客户为微软、谷歌、亚马逊、Meta和甲骨文,而前三大巨头(微软、谷歌、亚马逊)正在加速转用自研芯片,这直接威胁英伟达的订单和市场份额[6] 亚马逊AWS的自研芯片战略 - 亚马逊AWS在re:Invent大会上发布了新一代自研AI芯片Trainium 3,被媒体誉为“对英伟达的直接宣战”[7][8] - Trainium 3是亚马逊自2022年以来的第三代AI芯片,主打低成本与推理优势,训练速度比前代快4倍,成本减半[8] - 与英伟达相当的GPU系统相比,Trainium 3可节省50%训练费用,现场演示显示其在Llama 3.1训练中,仅需24小时完成相当于H100集群一周的任务[8] - AWS计划用自研芯片、自研模型、私有化部署及智能体全家桶,覆盖从训练到推理的整条AI赛道[9] - AWS在云计算市场保持巨大领先,市场份额超过三成,排名二三位的微软与谷歌市场份额分别为20%与16%[9] - OpenAI宣布与AWS签署七年价值380亿美元的AI基础设施服务协议,Anthropic等AI初创公司已转向Trainium,节省了超过三成的预算[9] 谷歌TPU的进展与市场威胁 - 谷歌是行业最早自研芯片的巨头,其第一代TPU于2016年发布,最新发布的第七代TPU v7 Ironwood进一步给英伟达带来压力[10][11] - Ironwood单芯片FP8计算能力达4.6 PFLOPS,比第五代TPU提升10倍,是第六代TPU的4倍,专为“高吞吐、低延迟”推理优化[11] - 相比英伟达Blackwell,Ironwood在能效上领先20%,功耗仅300W/芯片[11] - 2025年,谷歌的AI芯片市场份额预计已达到8%,尤其在占AI算力80%的推理领域[12] - 谷歌声称使用TPU可将训练成本降低40%,并已吸引Meta作为第三方客户,Meta计划在2027年部署谷歌TPU,而Meta正是英伟达AI芯片的第四大客户[12] - 谷歌Ironwood服务器将交由富士康代工[12] 微软自研芯片的挑战与延误 - 相比亚马逊和谷歌,微软在自研芯片领域遭遇挫折,其首代Maia 100芯片于2024年推出并开始部署,但原计划今年发布的Maia 200的大规模量产已推迟至2026年[13][14] - Maia 100是微软与博通合作开发的芯片,预计比英伟达H100芯片成本低40%,未来三代计划覆盖训练、推理和边缘[14] - 微软CTO表示公司未来将“主要使用自家芯片”,以减少对英伟达的严重依赖,但Maia 200的量产延误主要由于设计变更、仿真不稳定等技术内部因素以及台积电的产能瓶颈[15] - 由于在台积电抢不到先进制程产能,微软转向英特尔的18A节点计划在明年实现量产,如果Maia二代不能及时部署,微软明年可能还要投入100亿美元购买英伟达芯片[16] 性能与成本的竞争格局 - 英伟达在性能技术上仍具核心优势,其Blackwell架构B200 GPU单芯片FP8计算能力达20 PFLOPS,比前代H100提升4倍,在推理任务中能效比谷歌TPU高出30%[17][18] - 英伟达的CUDA平台支持4000多个AI框架和库,拥有庞大的开发者生态,是其真正的护城河[18] - 成本是AI巨头自研芯片的最大卖点:亚马逊Trainium3宣称可将训练成本降至前代的50%,谷歌Ironwood TPU在推理任务中能效比英伟达H100高出20-30%[19] - AI巨头正通过软件生态蚕食英伟达优势:谷歌的JAX和PyTorch/XLA集成已覆盖70% AI工作负载,AWS Neuron SDK支持主流开源模型,微软DirectML无缝嵌入Visual Studio[19] - 亚马逊计划在Trainium4上集成NVLink兼容技术,预计训练费用再降40%,谷歌TPU v8计划于2027年商用,成本优势或达50%以上[19] 自研芯片的市场份额展望 - 亚马逊的目标是在明年达到50%的自研芯片占比,推动AWS在AI云市场的份额从31%升至35%[20][21] - 谷歌TPU的市场份额已攀升至8%,其外部销售占比已达到20%,随着2027年Meta转用TPU,将给英伟达带来更大竞争压力[21] - AI大模型公司如Anthropic正在推动芯片多元化,同时使用多家芯片而非仅依赖英伟达,Anthropic与谷歌签署了价值数百亿美元的协议,计划使用多达100万片TPU[21] - AMD CEO苏姿丰评价认为,未来五年内,GPU仍将占据市场大部分份额,但给ASIC类加速器(即三大巨头的自研芯片)留出20%–25%的市场份额是合理的[22] - 苏姿丰还计划AMD在未来3-5年抢到两位数的市场份额[22]