英伟达GPU
搜索文档
黄仁勋深度访谈:“Token经济”爆发,AI计算占GDP比重将翻百倍,英伟达10万亿是必然
华尔街见闻· 2026-03-24 19:09
计算本质与经济的范式转变 - 计算的本质从“存储/检索系统”(仓库)转变为“生成系统”(工厂),直接与企业收入创造挂钩 [3] - AI代工厂生产名为“Token”的商品,该商品已被细分和定价,出现类似iPhone的免费、高级、中间层级的分层 [4] - 有人愿意为每一百万个Token支付1000美元,这在不远的将来将成为现实 [4] - 计算设备因此从成本中心转变为利润中心 [4] - 基于生产力提升,未来全球GDP中用于计算的占比将是过去的100倍 [5] 公司增长前景与市值展望 - 公司迈向10万亿美元市值是一个数字,但公司的增长极大概率会发生,被视为必然 [5][6] - 未来实现3万亿美元营收的体量并非不可能 [6] 电力瓶颈与解决方案 - AI扩张的瓶颈之一是电力,但并非唯一担忧 [8] - 提升能效的关键指标是“每瓦每秒token数”,通过“极致协同设计”,token成本每年下降一个数量级 [8] - 电网按极端峰值设计,99%的时间里未达到最坏情况,大多数时候可能只在峰值的60%左右运行,存在闲置电力 [8] - 解决方案是改变供电合同,放弃对“六个九”(99.9999%)绝对可用性的追求 [9] - 构建能够“优雅降级”的数据中心,当电网要求降低供电时,可转移关键负载或降低计算速率,轻微牺牲服务质量以换取能源消耗减少 [9] 供应链与内存战略 - 公司对ASML光刻机、台积电CoWoS先进封装等潜在产能制约环节并不焦虑,与供应商保持紧密合作 [10] - 系统工程深刻改变制造模式,例如一个Vera Rubin机架包含130万到150万个组件,汇聚200家供应商的技术 [11] - 高互联密度(如NVLink-72)要求将数据中心的“超算组装”前置到供应链的“超算制造”环节,机架以整机(重达两三吨)形式发货,供应链需具备吉瓦(GW)级电力储备进行出厂前测试 [11] - 大约三年前,公司成功说服多家内存大厂CEO,使其相信HBM(高带宽内存)将成为未来数据中心主流,并推动产业链投资扩产 [11] - 推动供应商将原本专属于手机的低功耗内存(LPDDR)改造并引入超算领域 [12] AI缩放定律与算力需求 - AI扩展规律包括:预训练、后训练、测试时扩展、代理式扩展 [13] - 训练数据将继续扩大,很多会是合成数据,训练不再受数据限制,数据将受限于算力 [14] - 推理就是思考,是算力密集型活动,测试时扩展(包含推理、规划、搜索等)将推动推理算力需求上升 [14] 公司护城河与前沿探索 - 公司最深的护城河是CUDA庞大的装机量与信任生态,由43000名员工共同推动,建立在数百万开发者对公司持续优化底层的信任之上,并拥有横向整合进入全球各类云厂商、OEM和边缘设备的广泛生态 [16][17] - 公司GPU已进入太空,但当前主要用于卫星高分辨率图像的边缘端筛选 [17] - 构建大规模太空数据中心存在核心物理痛点:太空中只能靠辐射散热,需要巨大的散热器,现阶段最务实的做法是先利用地球上的闲置电力 [17] - 评价马斯克旗下xAI仅用4个月建成拥有10万块GPU的超算中心,认为其成功源于第一性原理思维、极简主义、系统思考能力、亲自在一线行动并带来强烈紧迫感 [17] AI对劳动力市场的影响与未来展望 - 招聘时倾向于雇佣“AI专家”,这一准则涵盖所有职业和层级,包括会计师、律师、销售人员、供应链经理、药剂师、电工和木匠等 [18] - 工作本质是一系列“任务”的人可能被AI颠覆,而工作具有更深层“目标”的人可利用AI自动化处理常规琐事,从而从执行者转变为行业创新者 [19] - 使用AI的门槛已降至零,可向AI询问使用方法,唯一的障碍在于是否决定开始,等待的成本与日俱增 [20] - 公司软件工程师的数量将会增长而非减少,如果编程的定义是“描述规范让计算机去构建”,那么具备此能力的人数可能从3000万增长到10亿,未来每个木匠、水管工都可能成为程序员 [21] - 如果将AGI定义为一个能够自主开发应用并实现盈利的系统,那么AGI在当下已经实现,技术上已具备AI自主创建服务并获得数十亿用户及盈利的可行性 [21]
美股市场速览:资金加速流出,盈利显著上修
国信证券· 2026-03-22 16:46
市场表现与资金流向 - 美股主要指数普遍下跌,标普500指数本周下跌1.9%,纳斯达克综合指数下跌2.1%[1] - 市场风格分化,大盘价值(罗素1000价值-1.3%)表现优于大盘成长(罗素1000成长-2.4%)[1] - 行业表现两极分化,能源(+2.8%)和银行(+1.7%)上涨,而汽车与汽车零部件(-5.4%)和公用事业(-5.0%)领跌[1] - 整体资金加速流出,标普500成分股本周估算资金净流出155.5亿美元,较上周的27.1亿美元显著扩大[2] - 资金流向呈现结构性特征,能源(+6.6亿美元)和银行(+2.1亿美元)获资金流入,而半导体(-33.2亿美元)和技术硬件(-20.8亿美元)遭大幅流出[2] 盈利预期与估值 - 标普500成分股未来12个月EPS预期本周大幅上修1.7%,主要由半导体(+9.7%)和能源(+2.3%)行业驱动[3] - 信息技术行业盈利预期上修幅度最大,本周达4.7%,其中半导体产品与设备子行业贡献显著[17] - 市场估值水平普遍收缩,标普500成分股整体市盈率本周下降3.5%[19] - 半导体行业在盈利预期大幅上修的同时,市盈率却显著下降10.9%,显示估值消化迅速[19] 关键个股与行业趋势 - 科技巨头股价普遍承压,英伟达(NVDA)本周下跌4.2%,微软(MSFT)下跌3.5%[27] - 传统能源股表现强劲,埃克森美孚(XOM)本周上涨2.3%,年初至今涨幅达32.7%[27] - 市场一致预期显示,信息技术(目标价上行空间39.3%)和半导体(46.4%)板块仍具较高上涨潜力[22]
AI周报|黄仁勋抛出英伟达万亿美元收入预期;三星面临史上最大罢工威胁
第一财经· 2026-03-22 09:52
英伟达产品与收入预期 - 英伟达CEO黄仁勋在GTC大会上表示,公司基于Blackwell和Rubin平台的订单收入预期大幅上调,从一年前预测的2025-2026年5000亿美元,提升至2025-2027年1万亿美元 [1] - 黄仁勋强调,这1万亿美元的收入预期不包含CPU、Groq、存储系统、Feynman架构产品等多元业务的收入 [1] - 本届GTC大会发布了Groq 3 LPU,使Rubin平台的芯片扩充至7颗,并展示了由5个机架组成的AI超级计算机,产品组合愈加丰富 [1] 科技巨头AI战略与投入 - 阿里巴巴进行组织架构调整,成立名为“Alibaba Token Hub”的新事业群,整合千问大模型研发团队、消费者应用部门、钉钉及夸克智能眼镜等AI相关业务,由CEO吴泳铭牵头,旨在加速AI商业化 [3] - 百度推动大模型与核心业务融合,任命原大模型算法部何径舟轮岗至移动生态事业群组,担任百度APP研发中心负责人,以强化文心大模型在搜索、推荐等核心场景的应用 [4] - 腾讯在2025年第四季度财报中强调AI是主角,并宣布将大幅增加AI投入,去年为AI新产品开发投入180亿元,其中第四季度超70亿元,今年投入金额至少翻倍 [8] - 腾讯董事会主席马化腾首次公开谈及OpenClaw“龙虾”类应用的影响,认为其带来了新的AI落地场景和“活人感”,并思考如何将微信的去中心化生态与智能体的去中心化特点相融合 [9] AI模型与产品动态 - OpenAI宣布推出两款小模型GPT‑5.4 mini与nano,官方称其能力接近旗舰模型GPT-5.4但针对高频负载优化,旨在以更低延迟和更高性价比支持智能体应用,未来开发者可构建由大模型决策、小模型执行的任务组合系统 [10][11] - 谷歌正内部测试面向Mac的原生Gemini应用,计划以独立客户端形式登录macOS,以提升交互和系统整合能力,深化与苹果的AI合作 [12] - 日本乐天集团发布的高性能AI模型Rakuten AI 3.0,被技术社区发现其核心架构完全基于中国深度求索公司的开源模型DeepSeek V3,总参数量(671B)、激活参数量(37B)等核心指标与原版完全一致,引发“套壳”争议 [13] 半导体与硬件行业动态 - 三星电子面临史上最大罢工威胁,由多个工会组成的“共同斗争本部”在罢工投票中获得93.1%的赞成率,计划于5月下旬开启为期18天的总罢工,若启动,预计综合损失可能高达5万亿至9万亿韩元(约合人民币230亿元至414亿元) [5][6] - 存储厂商铠侠向客户发出TSOP封装产品停产通知,涉及部分SLC和MLC存储产品,原因是相关基板生命周期结束、市场需求及生产限制,产能正向高性能存储产品倾斜 [7] AI应用、安全与跨界发展 - 央视3·15晚会曝光AI大模型被“投毒”,通过“力擎 GEO 优化系统”等工具可将虚构产品信息发布上网并投喂给AI大模型,从而获得AI推荐,引发对GEO技术合规性与信息真实性的关注 [14] - 由百度支持、李彦宏牵头的AI生命科学公司百图生科被曝已秘密向香港联交所递交上市申请,有望筹集数亿美元资金,该公司专注于“AI+生物制药”赛道 [15][16] - 前海康威视北美高管张卫民加盟机器人公司,康迪科技与HawkRobo成立合资公司KH Robotics,计划以物流园区为首要场景,在北美市场布局四足机器人安防巡检项目,成熟产品预计2026年内进入美国市场并启动商业交付 [17]
丢人!超微创始人走私25亿英伟达GPU,美股直接吓崩12%
搜狐财经· 2026-03-22 08:21
事件概述 - 超微电脑联合创始人廖义贤因涉嫌向中国走私价值25亿美元的英伟达GPU被捕 [1] - 涉案人员包括前雇员张瑞曾和承包商孙廷伟 [1] - 事件导致超微电脑盘后股价下跌12% [1][6] 涉案细节与手法 - 利用在东南亚注册的空壳公司作为幌子,向中国买家输送英伟达高端服务器 [1][3] - 为欺骗美国合规审计,搭建了数千台虚假服务器以充场面 [1][3] - 使用吹风机加热并更换服务器序列号标签,以掩盖真实来源 [1][3] 公司应对与市场反应 - 超微电脑在事发后迅速公告,宣布廖义贤已即刻辞去公司董事职务 [6] - 资本市场反应剧烈,消息公布后公司股价在盘后交易中暴跌12%,市值瞬间蒸发 [1][6] 涉案人员与后果 - 廖义贤是公司联合创始人,持有价值4.64亿美元的公司股票 [1][3] - 涉案人员廖义贤、张瑞曾及孙廷伟一旦被定罪,最高将面临30年监禁 [1][7]
“反英伟达联盟”正在变强,4.4万亿美元芯片帝国遭遇“四面围猎”
36氪· 2026-03-20 13:22
文章核心观点 - AI芯片市场格局正从英伟达一家独大转向多方竞争,其主导地位面临来自定制芯片阵营、云服务商自研、传统对手及初创公司的多重挑战,竞争焦点正从训练转向推理,效率与成本的重要性日益凸显 [3][4][33][34] 大客户倒戈:云服务商自研芯片 - 谷歌自研TPU已近十年,第七代TPU Ironwood峰值性能达4.6 petaFLOPS,略高于英伟达B200且功耗更低,已开始对外出租给Meta等公司,AI初创公司Anthropic计划使用上百万颗Ironwood运行Claude模型 [5] - 亚马逊AWS推出专用训练芯片Trainium和推理芯片Inferentia,Anthropic正使用50万颗Trainium 2芯片训练模型,未来亚马逊将为其建设拥有上百万颗芯片的数据中心集群 [6] - 微软自研Maia 100加速器专为Azure工作负载设计,Meta内部已部署超过150万颗自研MTIA芯片,其逻辑是避免英伟达赚取73%的高毛利 [9] 定制芯片的围剿 - 博通专注于AI定制芯片(ASIC),占据该市场超过50%的份额,是谷歌TPU、Meta MTIA及OpenAI Titan等大客户自研芯片的技术后台 [3][11] - 博通2026年在台积电的CoWoS晶圆预定量达20万片,同比猛增122%,这些产能主要分配给谷歌(60%-65%)、Meta(20%)及OpenAI(Titan芯片占5%-10%,2027年将超20%) [11][12] - 博通与OpenAI签署大单,共同开发规模达100亿瓦特的定制AI加速器和机架系统,计划2026年底开始部署,2029年完成,其定制芯片在推理任务上成本可比英伟达GPU低30%到50% [13] 老对手反击:AMD与英特尔 - AMD坚定进行AI转型,市值从不到千亿美元涨至3500多亿美元,其MI300X加速器(192GB HBM3内存,带宽5.3TB/s)已部署在微软Azure上为ChatGPT做推理,2024年向微软、Meta、甲骨文出货约32.7万颗,新一代MI325X已出货,MI350系列声称推理性能提升35倍 [14] - 英特尔以高性价比和低功耗反击,Gaudi 3加速器定价约为英伟达H100的一半,功耗600W(比H100低100W),官方宣称在某些训练任务上比H100快1.5倍,性价比高2.3倍,已获得戴尔、慧与、联想等系统厂商支持 [16][19] 新秀突袭:初创公司的机会 - 初创公司Groq专攻推理芯片,以速度快、成本低让英伟达紧张,后者于去年12月斥资170亿美元从Groq购买技术授权并挖走核心团队 [20] - Cerebras估值230亿美元,其“晶圆级”芯片CS-3号称比英伟达H系列快20倍而价格只是零头,今年1月与OpenAI签署了100亿美元大单 [20][22] - 众多初创公司如SambaNova、Tenstorrent等获得数亿至数十亿美元投资,共同判断AI计算正从训练转向推理,预计到2030年推理将占全球AI计算需求的75%,而推理任务对成本和延迟敏感,是专用芯片的机会 [22] 英伟达的应对与绑定策略 - 英伟达采取开放与合作策略,将NVLink网络技术授权给英特尔、高通、富士通、Arm等第三方,旨在使不同架构的CPU都能与其GPU更好兼容 [23] - 公司与xAI深度绑定,xAI的Colossus超级计算机几乎全部采用英伟达Hopper和Blackwell系列GPU,规模已超20万颗并向百万颗迈进,芯片采购达数百亿美元,英伟达还向xAI投资了20亿美元 [23][24] 深层威胁:CPU复兴与电力瓶颈 - 随着智能体AI崛起,需要大量任务调度编排,CPU重要性复兴,英伟达自研数据中心CPU Grace已推出第二代Vera,并与Meta签署多年协议首次大规模独立部署Grace CPU,美国银行预测CPU市场规模将从2025年的270亿美元增长至2030年的600亿美元,但行业面临供应紧张、交付周期拉长至六个月及价格上涨超10%的问题 [25] - 电力成为AI基础设施关键瓶颈,英伟达B200 GPU满配功耗达1200瓦,比H100增加71%,其GB200训练机架整机功耗达120千瓦,德勤调查显示72%的美国数据中心和电力公司高管认为电网与供电容量构成严峻挑战,全球仅不到5%的数据中心能支持单机架50千瓦以上功率密度,而Blackwell需求为60到120千瓦,高盛预测到2030年全球数据中心电力需求将比2023年增长165% [26][29][32] - 电力瓶颈为低功耗方案创造窗口期,谷歌称其Ironwood芯片能效是第一代云TPU的30倍,英特尔也将低功耗作为Gaudi 3核心卖点 [32] 软件生态护城河的挑战 - 英伟达CUDA软件生态是其深厚护城河,拥有数百万开发者及主流框架优化支持,但正面临挑战 [34] - AMD的ROCm软件堆栈正在缩小差距,PyTorch已正式支持ROCm,AMD还开发了CUDA兼容层ZLUDA,微软据称在开发CUDA模型迁移工具,OpenAI的Triton 3.0已支持AMD Instinct加速器,CUDA的锁定效应正逐年减弱 [34]
“反英伟达联盟”变强,4.4万亿美元帝国遭遇“四面围猎”
36氪· 2026-03-19 15:06
英伟达面临的竞争格局 - 过去十年,英伟达是AI芯片市场唯一的“王”,其从2025年2月到10月的芯片和相关硬件销售额达1478亿美元,同比增长62%,市值一度突破4万亿美元[4] - 但当前其芯片帝国正被三股势力围猎:博通领衔的定制芯片(ASIC)阵营、超大规模云服务商的自研芯片浪潮、以及AMD和英特尔等传统芯片对手的反击[5] - 英伟达CEO黄仁勋称公司卖的是“AI工厂”,但如今想开工厂的客户不想只从一家进货[6] 大客户倒戈:云巨头自研芯片 - 谷歌是自研芯片道路上走得最远的公司,其研发张量处理单元(TPU)已近十年,第七代TPU Ironwood峰值性能达4.6 petaFLOPS,功耗低于英伟达B200[7] - 谷歌已开始将TPU租给Meta和通过Fluidstack对外出租,AI初创公司Anthropic计划用上百万颗Ironwood运行Claude模型[7] - 亚马逊AWS推出Trainium和Inferentia芯片,Anthropic正用50万颗Trainium 2芯片训练模型,未来亚马逊将为其建设拥有上百万颗芯片的数据中心集群[8] - Meta内部已部署超过150万颗自研的MTIA芯片,其逻辑是不想让英伟达赚走73%的毛利[11] - 微软的Maia 100加速器专为Azure工作负载设计,仍处于研发早期[11] 定制芯片(ASIC)的围剿 - 博通是定制芯片(ASIC)的关键厂商,占据了AI ASIC市场超过50%的份额,谷歌的TPU和Meta的MTIA芯片均由博通帮助开发[13] - 2026年,在台积电115万片CoWoS晶圆产能中,博通预定量大幅增长到20万片,同比猛增122%,这些订单主要分配给谷歌(60%到65%)、Meta(20%)以及OpenAI[13] - OpenAI计划在2026年底推出自研芯片Titan,将占用博通所占晶圆产能的5%到10%,2027年将超过20%[13] - 博通与OpenAI签署大单,共同开发规模高达100亿瓦特的定制AI加速器和机架系统,计划2026年底开始部署[15] - 博通CEO认为,在推理任务上,ASIC的成本可比GPU低30%到50%[15] 传统芯片对手的反击 - AMD市值从不到千亿美元涨到3500多亿美元,其MI300X加速器已部署在微软Azure上并为ChatGPT做推理,2024年向微软、Meta、甲骨文出货约32.7万颗[16] - AMD MI300X拥有192GB的HBM3内存,带宽5.3TB/s,内存比英伟达H100高,新一代MI325X已出货,MI350系列计划明年推出,官方称推理性能提升35倍[16] - 英特尔Gaudi 3加速器定价约为H100的一半,功耗600W比H100低100W,官方宣称在某些训练任务上比H100快1.5倍,性价比高2.3倍[18][21] - 英特尔新任CEO陈立武将AI芯片业务归为自己直接管理[21] 初创公司的挑战 - 初创公司Groq专攻推理芯片,速度快、成本低,英伟达于去年12月以170亿美元从Groq购买技术授权并挖走核心团队[22] - Cerebras估值230亿美元,其设计的“晶圆级”芯片有餐盘大小,今年1月与OpenAI签署了100亿美元的大单[22] - Cerebras基于CS-3芯片的新推理平台,号称比英伟达H系列快20倍,而价格只是零头[24] - 这些初创公司判断AI正在从训练转向推理,到2030年推理将占全球AI计算需求的75%,而推理任务对成本和延迟敏感,容易被专用芯片替代[24] 英伟达的应对与盟友 - 英伟达将自家NVLink网络技术开放给第三方,英特尔、高通、富士通、Arm都拿到了授权,旨在让不同架构的CPU能与其GPU更好连接[25] - 埃隆·马斯克旗下xAI的Colossus超级计算机几乎全部采用英伟达GPU,目前规模超过20万颗,正在向百万颗迈进,在孟菲斯数据中心的芯片采购花费数百亿美元[25] - 2025年10月,xAI融资约200亿美元,英伟达直接投资了20亿美元,这笔钱最终又回到英伟达账上购买芯片[26] 深层威胁:CPU复兴与电力瓶颈 - 智能体AI崛起导致需要大量任务调度编排,这类任务GPU无法胜任,CPU成为主角,其市场规模有望从2025年的270亿美元增长至2030年的600亿美元[27] - 但CPU产能跟不上需求,交付周期拉长至六个月,价格上涨超过10%,AMD和英特尔已向客户发出供应紧张预警[27] - 电力成为数据中心瓶颈,英伟达B200 GPU满配功耗达1200瓦,比H100增加71%,用于训练大模型的GB200机架整机功耗达120千瓦[28] - 德勤调查显示,72%的数据中心和电力公司高管认为电网与供电容量对AI基建构成了“非常”或“极其严峻”的挑战[32] - 高盛预测,到2030年全球数据中心的电力需求将比2023年增长165%[33] - 功耗更低的替代方案迎来窗口期,谷歌称其Ironwood芯片的能效是第一代云TPU的30倍,英特尔也将低功耗作为Gaudi 3的核心卖点[35] 软件生态护城河的挑战 - CUDA是英伟达深厚的软件生态护城河,拥有数百万开发者,主流深度学习框架优先针对其优化[36] - 但竞争对手正在架桥,AMD的ROCm软件堆栈正在缩小性能差距,PyTorch已正式支持ROCm,AMD还投资了能让CUDA程序在其硬件上运行的兼容层ZLUDA[37] - 微软据称在开发将CUDA模型迁移到AMD芯片的工具,OpenAI的Triton 3.0已支持AMD Instinct加速器[37] - CUDA的锁定效应一年比一年弱[38] 未来市场格局展望 - 短期内,英伟达在大模型训练这一核心赛道上仍保持主导地位[38] - 但训练仅占AI计算的一小部分,推理才是未来的主战场,到2030年将占全球AI计算需求的75%[24][38] - 在推理领域,专用芯片具备成本优势,超大规模云服务商自研芯片是为了降低运营成本,英伟达73%的毛利率代表着客户希望省下的开支[38] - 未来AI芯片市场可能不会赢者通吃,而是走向两条腿并行:英伟达在训练和高性能计算领域保持领先,博通等厂商在推理和定制化应用中切走更大市场份额[38] - 竞争胜负关键在于在性能与价格之间找到最舒适的平衡点[39]
算力博弈升级 英伟达抛出“万亿预期”
北京商报· 2026-03-18 22:35
公司年度大会与战略发布 - 英伟达年度GTC大会在美国加州圣何塞启幕,吸引了数万名科技人士到场,引发对算力博弈的深度审视[1] - 公司CEO黄仁勋在大会上介绍了OpenClaw,称其开启了AI的下一个前沿领域,是“人类历史上最受欢迎的开源项目”,仅用几周就超过了Linux操作系统30年的成就,实质上开源了智能体计算机的操作系统[4] - 黄仁勋发布了由7款芯片、5种机架组成的巨型超级计算机Vera Rubin平台,并宣布Vera CPU是全球首款专为代理式AI与强化学习时代打造的处理器,效率是传统机架级CPU的2倍,速度提升50%,目前已进入全面量产,将于今年下半年向合作伙伴提供[5] - 黄仁勋提出公司正从一家芯片公司转向AI工厂和AI基础设施公司,并介绍了与优步在自动驾驶领域的合作计划:优步计划从2027年开始在洛杉矶和旧金山部署由英伟达软件驱动的自动驾驶出租车车队,并计划到2028年将服务扩展到全球28个城市[7] 财务预测与市场表现 - 黄仁勋预测英伟达算力芯片到2027年将实现1万亿美元营收,而其对2026年芯片市场需求的预测仅为5000亿美元,这意味着目标需要翻倍[5] - 为实现翻倍目标,公司算力需要以更具“性价比”的形象出现,为此黄仁勋提出了“每瓦Token数”作为核心评价指标,并援引相关测算称英伟达目前在这一指标上处于世界领先位置[5] - 受此预测提振,英伟达股价在GTC大会当天一度上涨4%,最终收涨1.2%,暂缓了市场对其增长前景以及“AI泡沫”的疑虑[6] - 在GTC大会召开前,公司股价近月陷入停滞,年内累计跌幅已达3.4%[6] 竞争格局与行业演变 - 尽管英伟达目前仍占据约90%的市场份额,但其周边AI硬件领域的竞争格局已现“合围”之势,一批竞争对手正脱颖而出[9] - Meta等昔日“金主”正加速推进自研芯片,同时原本在训练领域稍逊一筹的CPU因其成本优势,正在部署环节展现出极强的替代潜力[9] - AI的重心正在发生演变,“推理”是一个持续且对成本高度敏感的过程,云巨头与初创公司正纷纷研发竞品AI芯片,尤其侧重于推理领域[9] - 亚马逊已推出Trainium与Inferentia系列芯片作为低成本替代方案,微软近期也发布了名为Maia 200的AI推理芯片,此外一大批初创公司正通过研发比GPU更廉价、高效的专用芯片试图重塑行业标准[9] - 随着数十亿美元资本涌入推理技术浪潮,该赛道已催生出多家极具竞争力的独角兽企业[9] - 在AI硬件领域,英伟达仍处于优势地位,短时间内难以撼动,但“推理”赛道正在涌现更多产品,后续竞争的核心可能是价格[10] 公司战略定位与核心竞争力 - 黄仁勋治下的英伟达表面上是在卖算力,其实一直在卖算力生态,最近更是利用生成式大模型与英伟达3D图形引擎融合来兜售算力需求概念,这是其无可替代的核心竞争力[7] - 公司有三大技术平台:狭义CUDA-X、广义生态系统、广义AI工厂系统[7] - 结合公司在人形机器人、智能驾驶以及六代NVlink Gro系统方面的企业战略和产品策略,公司更倾向于“卖铲子”而非直接去AI数据矿洞“淘金”,其工作可总结为“卖标准”[8] 中国市场动态 - 中国市场对公司的重要性依然突出,公司此前曾估计中国对人工智能处理器的年需求规模可能达到数百亿美元[10] - 过去一年,围绕对华销售先进人工智能芯片的问题,公司在政策与市场之间反复调整,2025年4月美国商务部一度叫停H20芯片出口,但在同年8月改变决定允许有限恢复[10] - 在需求不确定性下,公司于2025年8月底暂停了H20的生产,并重新评估其面向中国市场的产品策略[10] - 转折出现在2025年12月,美国方面允许英伟达向中国销售性能较其最新产品落后一代的H200处理器,但附加条件是公司需将相关销售收入的25%上缴美国政府[10] - 黄仁勋在GTC大会上表示,过去几周来自中国市场的需求有所增强,公司已为多家客户取得出口许可并收到订单,正着手重启生产体系,公司供应链“正在全面启动”[11]
黄仁勋最新发文,价值万亿的AI五层蛋糕,您在哪一层?
创业邦· 2026-03-16 11:46
AI产业的五层蛋糕模型 - 英伟达CEO黄仁勋提出“AI是一块五层蛋糕”的产业模型,将AI还原为一项遵循严苛物理规律和重资产逻辑的基础设施工程 [5][6] - 该模型揭示了AI发展需要调动全球电网、核反应堆、跨洋光缆、精密半导体及数以百万计蓝领工人的现代重工业大建构 [6] - 这可能是人类社会继电力网络和互联网之后,第三次也是最大规模的一次全球基础设施重构 [34] 范式转移:从预录制到实时生成 - 传统计算运行的是“预录制软件”,底层是人类程序员写好的规则,计算机高效但无理解力 [8] - 当前的大模型带来了“实时智能”,直接吞吐海量的非结构化数据,在极短时间内理解上下文并进行概率推算,生成拟人化的行动或答案 [8][10] - 这一转变导致“推理”取代“检索”,成为实时消耗庞大算力的核心活动,智能变成了可度量、生产、交易的实体商品 [11] 第一层:能源 - 能源是五层蛋糕的最底层,已成为制约AI发展的最大物理瓶颈 [13][14] - 训练一个前沿的万亿参数大模型,其耗电量等同于一个中型城市,而每天数百亿次的实时推理请求正将电网负载推向极限 [14] - 算力需求的年增长率已远远甩开摩尔定律带来的节能红利 [15] - 麦肯锡预测,到2030年,美国数据中心电力需求将翻两番,达到80-100吉瓦 [17] - 科技巨头成为全球最大的能源买家,例如微软购买核电站产能,亚马逊接手核反应堆,谷歌寻觅地热能与碳捕集天然气发电 [17] - 数据中心选址逻辑从“跟着光纤走”转变为“跟着发电厂走”,稳定、廉价的基荷电力成为AI时代的“石油” [17] 第二层:芯片与硬件 - 半导体硬件是将电子转化为智能的引擎,包括英伟达GPU、谷歌TPU、亚马逊Trainium及台积电、阿斯麦、SK海力士等全球供应链 [17] - 目前绝大部分行业利润和资本开支都淤积在这一层,原因是行业仍在押注规模法则,对算力储备落后的恐惧支撑着数以千亿美元计的硬件采购 [19] - 对于投资人而言,该层潜藏隐蔽的折旧风险,GPU迭代速度极快,三年后可能面临能效比断崖式落后 [21] 第三层:基础设施 - AI数据中心是充满重工业感的庞然大物,数以万计的GPU通过复杂网络交织,散发可怕热量,需部署液冷管道、高压变电站并重新设计承重结构 [21] - 这场数字革命正在疯狂创造传统实体岗位,如钢铁工人、混凝土工、管线焊工、高压电工和暖通工程师,其薪酬和抢手程度创下历史新高 [23] - 在这场革命中,水泥、铜缆、冷却液与光模块等实体材料获得了最稳妥的红利 [23] 第四层:模型层 - 大语言模型、视觉模型、多模态系统是AI基建的“大脑”,正变得能进行逻辑推理并作为智能体执行跨软件任务 [25][26] - 商业逻辑上,该层正经历惨烈的“绞肉机效应”,开源力量的崛起导致基础大模型能力“商品化”,单靠模型聪明已无法构成商业护城河 [26][28] - 真正的壁垒在于拥有独家的高质量私有数据,并能将通用大脑微调成精通特定业务流程的“行业专家” [28] 第五层:应用层 - 应用层包括AI制药软件、无人工厂、私人AI法律顾问、全球供应链调度引擎等,是真正产生价值、实现资金回流的层级 [28][30] - 整块五层蛋糕的资金流向是单向的,如果应用层赚不到足够的钱来反哺底层巨大的资本开支,整个体系可能因资金链断裂而坍塌 [30] - 当前挑战在于许多企业应用AI仅带来“生产力的局部提升”,而非“商业模式的重塑” [32] - 曙光在于AI原生应用正深度嵌入B端核心工作流,并能为结果负责,例如AI销售客服直接完成订单转化并提高20%营收时,应用的价值闭环才算真正跑通 [32][35] 产业启示与坐标定位 - 对于主权国家,抢占智力主权的本质是抢占能源配额与底层算力基建,这关乎国家安全 [37] - 对于产业投资者,与其在应用层百团大战中下注,不如投资提供水、电、管线、光模块和散热设备等“卖铲人”资产 [37] - 对于企业和个人,算力终将充沛且低廉,生死线在于“如何用AI重组现有的组织结构和技能树”,而非“如何拥有AI” [37] - 最先倒下的将是那些用旧石器时代的组织方式,试图驾驭量子时代工具的人 [37] - 这场五层蛋糕的烘焙,将是一场持续十年的残酷大洗牌 [37]
英伟达(NVDA.US),急了!
智通财经网· 2026-03-15 11:30
AI算力产业链的结构性变化 - 过去两年,英伟达因GPU供不应求而拥有近乎完美的议价权,客户订单排期动辄一年以上 [1] - 近期,AI算力需求的扩张节奏与基础设施(如电力、建设周期)的不确定性开始交织,产业链结构正在悄然发生变化 [1][2] - AI算力扩张的核心瓶颈正从“芯片”转向“基础设施”,包括电力、冷却、网络、土地等要素 [6] Stargate项目停滞及其影响 - OpenAI、软银、甲骨文等公司于2025年初宣布了史无前例的Stargate项目,计划总投资5000亿美元,建设10GW AI算力基础设施 [3] - 2026年3月,由于OpenAI希望部署英伟达下一代芯片,决定不再扩建与甲骨文合作的Stargate数据中心,该项目原计划从1.2GW扩至近2GW [3] - 项目停滞暴露了AI芯片升级速度(每年一代)远快于数据中心建设速度的矛盾,英伟达新一代Vera Rubin芯片的推理性能是Blackwell的五倍 [5] - 项目停滞引来了新的潜在买家,Meta正在考虑接手该数据中心资源,且英伟达主动参与撮合了这笔潜在交易 [6] 甲骨文(Oracle)面临的挑战 - 甲骨文是唯一主要依靠债务支撑建设的超大规模云厂商,其账面债务已超过1000亿美元,且自由现金流已转为负值 [5] - 甲骨文的合作伙伴Blue Owl已拒绝为额外的设施提供资金,并计划裁员3万人 [6] - 尽管甲骨文否认了关于阿比林基地的负面报道,并称已完成额外4.5GW电力的租赁以履行对OpenAI的承诺,但其债务驱动的扩张模式深陷危机 [5][6] 中东成为AI算力新战场 - 中东目前已有约170座数据中心,另有约111个项目在规划或建设,区域现有算力容量约1.2GW,未来规划容量接近4.5GW [7] - 预计到2027年,将有约120亿美元的新投资流入中东地区的数据中心建设 [7] - 市场呈现双中心格局:阿联酋存量最集中(阿布扎比约32座,迪拜约23座);沙特在新兴市场中占据接近60%的总电力容量,预计到2025年底新增约350MW [8] - 中东吸引投资的原因在于同时具备资本(主权基金)、土地、电力和政策窗口四大优势 [8] 全球科技巨头在中东的布局 - **甲骨文**:2023年2月宣布在沙特投资15亿美元扩展云基础设施 [9] - **亚马逊AWS**:2024年3月宣布在沙特建设新云区域,计划投资超过53亿美元,目标2026年启用 [9] - **微软**:2024年4月向阿联酋AI公司G42投资15亿美元;2023-2029年间对阿联酋的总承诺投资规模达152亿美元,已投入73亿美元,包含数据中心建设 [10] - **谷歌云**:2024年10月与沙特PIF合作,计划在沙特建设全球AI hub;2025年5月明确该项目由双方共同投资100亿美元 [10] - **Stargate UAE项目**:落地阿布扎比,由多方推动,最终规划规模达5GW,首期1GW(首批200MW预计2026年上线),对应约10万颗英伟达先进AI芯片 [11] 中东地缘政治风险升级 - 2026年3月2日,AWS位于阿联酋和巴林的部分数据中心在无人机袭击中受损,导致结构性损坏、电力中断及水损,恢复需较长时间,这是美国大型科技公司数据中心首次因军事行动受扰动 [14] - 地区冲突持续将导致数据中心项目的安保支出、保险费用增加,债务融资成本变贵,项目回报周期拉长 [15] - 摩根大通判断,海湾冲突升级将提高当地投资风险,并增加依赖主权基金(如沙特“2030愿景”)的项目的财务和运营约束 [15] - 地缘政治风险导致市场需重新评估中东大型AI项目(如AWS的53亿美元投资、谷歌的100亿美元AI hub、Stargate UAE等)能否按原计划、节奏和规模推进,从而影响对高端GPU需求的预期 [16] 英伟达的角色演变与挑战 - 英伟达的角色从单纯向客户销售GPU,转变为开始帮助客户获取数据中心、电力资源和算力位置,例如撮合Meta接手停滞的Stargate资源 [6] - 公司面临双重局面:一方面需关注美国超大型项目是否放缓,另一方面需确保中东新园区能顺利吸纳其芯片和系统 [13] - 在AI算力战争中,所有产业链的扩张都依赖于英伟达的GPU,当需求波动或基础设施受阻时,公司必须亲自下场以确保GPU有地方可用 [18]
马斯克自建晶圆厂,重磅官宣
半导体行业观察· 2026-03-15 10:20
文章核心观点 - 特斯拉CEO埃隆·马斯克计划在7天后公布其建造名为“TeraFab”的巨型芯片工厂的详细方案,旨在解决公司面临的AI芯片供应瓶颈,并实现每年1000亿至2000亿颗芯片的宏大产量目标,规模将超越台积电的“Gigafab”[2][6] - 该计划被视为应对半导体行业产能紧张、减少对台积电等境外供应商依赖、并满足特斯拉自身在人工智能和自动驾驶领域庞大需求的战略性举措,但同时也因其极高的技术、资金门槛和行业复杂性而面临广泛质疑[2][4][6][7] 马斯克的TeraFab计划与目标 - 马斯克计划建造的“TeraFab”是一个将存储、芯片制造与封装整合在同一厂区内的巨型项目,被认为是实现所需产能规模的唯一途径[2] - 该工厂目标是实现每年1000亿至2000亿颗芯片的产量,建成后将成为全球最大芯片工厂之一,产能超过台积电[2] - TeraFab的月产能将远超过10万片晶圆(即超过“Gigafab”级别),远超现今主流晶圆大厂[6] - 马斯克将TeraFab与台积电总投资1650亿美元的美国亚利桑那州Fab 21园区对比,并称特斯拉的计划规模将更大[6] 计划背后的动机与行业背景 - 在人工智能热潮下,半导体行业正迎来史上最紧张的产能周期,庞大的芯片需求给特斯拉等企业带来了严重限制[2] - 特斯拉为满足快速成长的AI芯片需求,正考虑自建芯片生产业务[6] - 随着特斯拉AI应用持续扩大,外部供应将难以满足需求,因此公司考虑成为类似台积电、三星那样的垂直整合制造商(IDM)[7] - 美国迫切需要扩大本土半导体产业规模,以应对地缘政治风险,目前英伟达、特斯拉、AMD等无晶圆厂企业完全依赖境外芯片生产,面临巨大供应链隐患[4] 潜在的合作模式与实施路径 - 一种可行模式是特斯拉与英特尔、台积电等现有芯片厂商达成技术授权协议,并提供资金协助其搭建产线[3] - 台积电已开放未来产线的提前预订合作模式,这或许是合作路径之一[3] - 作为美国本土企业,特斯拉与英特尔代工服务(IFS)合作的可能性同样存在[4] - 特斯拉目前采用与台积电、三星“双来源代工”的方式,马斯克也表示英特尔可能成为合作对象,但尚未签署任何协议[7] 面临的挑战与业界质疑 - 芯片制造涉及极高技术门槛与巨额投入,英伟达CEO黄仁勋指出,建立先进芯片制造能力极其困难,台积电累积的工程技术、科学研究与工艺经验都是高度挑战[6][7] - 马斯克曾表示不打算使用传统洁净室,这使其实际方案受到质疑[3] - 要掌握先进芯片制造,所需投入的资金与技术远超外界想象。一座月产能约2万片晶圆、可量产尖端制程的晶圆厂,动辄需要数百亿美元的投资,且不包含后续工艺开发与量产调校成本[7] - 先进工艺研发流程漫长且复杂,从工艺制定、设计到成千上万道工艺步骤的调校,皆要求原子级精度,需要深厚的工程经验与反复试验以确保良率[8][9] - 新进厂商能否在短时间内让先进制程达到可盈利的高良率是关键挑战,这往往需要资深工程团队长期驻厂、反复调整[9] 行业参照案例:Rapidus - 日本新创芯片制造商Rapidus正试图挑战先进制程高墙,计划在未来数年内建立2纳米制程的量产能力,并预估至2027年完成可商用生产的厂房,整体支出约达5兆日元(约320亿美元)[8] - Rapidus虽已取得IBM授权的2纳米GAA电晶体架构,并可获得部分技术合作,但电晶体架构只是研发链的起点,后续流程极其复杂[9] - 业界对Rapidus能否在2027年交出成果普遍抱持观望态度[10]