Workflow
Vera CPU
icon
搜索文档
云厂商破天荒涨价,未来一年算力供给会改善吗?| Jinqiu Select
锦秋集· 2026-03-20 23:00
行业核心观点 - 2026年全球云计算行业出现集体涨价,打破了近二十年的降价惯例,主要原因是全球AI需求爆发和核心硬件成本显著上涨 [1] - 云厂商涨价潮的本质是算力正从基础设施转变为稀缺资源,AI创业团队面临算力资源被大规模云服务商锁定、小型团队难以批量获取的局面 [2] - 当前的算力短缺是结构性的产能短缺,而非周期性供需波动,这导致算力从“成本项”转变为关乎产品节奏、商业模式乃至公司生死的“战略资源” [3][4] - 在算力成为战略资源的背景下,能够在正确时间窗口锁定足够算力的公司将在竞争中占据先手,而对供给侧瓶颈缺乏认知则可能在关键增长节点遭遇“有需求、无资源”的困境 [5][6] 云厂商涨价与算力资源现状 - 2026年1月,AWS率先对GPU训练实例上调约15%,谷歌云随即宣布数据传输服务最高涨价100% [1] - 2026年3月,国内云厂商密集跟进:腾讯云率先上调自研大模型价格,涨幅最高达463%;阿里云与百度智能云宣布AI算力及存储产品涨价,最高涨幅34% [1] - 超大规模云服务商的集群资源已被牢牢锁定,小型团队几乎无从批量获取 [2] - 云服务厂商2026年数据中心资本支出预期较一年前大幅增长甚至翻倍,但仍被市场认为“不够用” [2] 算力供给侧的瓶颈分析 - 当前算力瓶颈已彻底进入硅芯片短缺阶段,先进的逻辑和存储器制造能力不足以支撑计算部署的步伐 [19] - 台积电N3逻辑晶圆产能是当前最大的制约因素之一,其产能扩张未能跟上AI需求的激增 [22][37] - 到2026年,所有主流AI加速器系列(包括英伟达、AMD、谷歌TPU、AWS Trainium、Meta MTIA)都将过渡到台积电N3系列工艺节点,AI将成为N3需求的主要来源 [28][29][30][31] - 2026年,人工智能相关应用(加速器、主机CPU和网络N3芯片)的需求将占N3芯片总产量的近60% [45] - 全球内存短缺问题短期内难以缓解,HBM高带宽内存供应紧张是下一个主要制约因素 [61] - HBM消耗的晶圆产能约为普通DRAM的三倍,随着向HBM4过渡,这一差距可能扩大到近四倍,挤占了普通DRAM的产能 [61] - 客户对更高HBM引脚速度(如约11 Gb/s)的需求进一步限制了HBM的有效供应,因为内存厂商难以以可接受的良率大规模交付 [68] - CoWoS先进封装的限制有所缓解,前端晶圆(如N3)供应成为主要瓶颈 [79] - 过去几年,数据中心和电力是主要瓶颈,但当前预测显示电力供应将超过AI计算需求,加速器硅的供应已成为主要制约因素 [81] 供应链竞争与厂商策略 - 在N3晶圆产能争夺中,人工智能基础设施客户的优先级明显高于消费电子产品客户,因为AI加速器设计带来更高的平均售价,且AI驱动的需求是台积电增长的主要动力 [51] - 由于需求远超供应,预计到2026年下半年,台积电N3工艺的有效利用率将超过100% [52] - 台积电受到洁净室空间的限制,未来两年内无法新增足够产能来完全满足市场需求 [52] - 产能限制可能促使客户寻求更广泛的晶圆代工模式,例如转向英特尔或三星晶圆代工 [40] - 英伟达在供应链控制上准备最充分,其通过提前锁定大部分逻辑晶圆、内存等组件供应成为主要受益者,例如2025年的韩国之行旨在确保内存供应 [85] - 最终能够获得最多硅供应的供应商将占据最大的计算部署份额 [85] 潜在的需求转移与产能再分配 - 智能手机是2026年N3晶圆需求的第二大驱动力,但也可能成为需求疲软的领域,从而释放产能用于AI加速器 [58] - 智能手机需求预期可能被下调至同比两位数的低位下滑 [58] - 如果将2026年智能手机N3晶圆总开工量的5%(43.7万片晶圆的5%)重新分配给AI加速器,则可额外生产约10万颗Rubin GPU或约30万颗TPU v7 [58] - 在更极端情况下,如果将25%的智能手机N3晶圆重新分配,则可额外生产约70万颗Rubin GPU或约150万颗TPU v7 [58] - 在消费级设备出货量下降的背景下,部分内存可能从消费级应用重新分配到服务器和HBM [76] - 在消费级内存出货量下滑10-15%的基本预测下,释放的容量增量(约占DRAM总需求的3%)不足以实质性改变整体供需格局 [78] 市场需求与增长数据 - Token需求呈爆炸式增长,推动了对人工智能计算的持续加速需求 [16] - 仅在2026年2月,Anthropic就新增了高达60亿美元的年度经常性收入,主要得益于智能体编码平台Claude Code的广泛应用 [16] - 超大规模云服务提供商的资本支出计划大幅调整,其中谷歌2026年的资本支出预期几乎是此前预期的两倍 [17] - 从H100到Rubin,以及从MI300到MI400等,AI加速器的HBM容量在快速提升(如提升50%甚至4倍),驱动了HBM位出货量的急剧变化 [66] - NVIDIA下一代平台的AI服务器系统内存将大幅增长,VR NVL72机架的DDR内存容量将是Grace的三倍 [71] - 2026年DRAM的整体位需求预计将出现增长,同时AI工作负载正在推动CPU需求,并逐步提高CPU与GPU的比例 [71]
英伟达CEO黄仁勋谈论"Token经济学"——AI的新货币
搜狐财经· 2026-03-20 20:35
AI Token作为新型货币与生产力工具 - AI Token正在成为一种新的货币形式 将在人才招聘、预算制定和生产力提升方面发挥重要作用[2] - Token是新的商品 是推动公司收入增长的基本组成部分 公司获得更多容量就能生成更多Token 从而增加收入[2] - 工作中包含的Token数量已成为硅谷的招聘工具 因为拥有Token访问权限的工程师生产力更高[3] AI Token的定价模式与成本趋势 - 云服务提供商对基于文本的模型提供按AI Token收费的定价方案 基于视频的模型通常按任务或GPU使用时间定价[2] - 对Token的需求前所未有 使价格保持高位 但随着新技术推广 成本应开始趋于稳定或下降[3] - 客户意识到云端Token的成本 正在寻找更具成本效益的投资选择 包括本地部署[6] 英伟达的技术进展与产品战略 - 英伟达在GTC大会上推出了名为Rubin的新GPU和名为Vera的CPU 并与Groq的推理芯片融合[3] - 公司声称Vera Rubin将在系统价格上升的同时降低计算成本 并将Token生成率从2200万提高到7亿 增长350倍[4][7] - 英伟达推出AI工厂概念 其收入等于每瓦Token数 在功耗限制下 每个未使用的瓦特都意味着收入损失[5] - 公司大部分Token信息围绕推理展开 推理是成本敏感且关键的增长领域 生成Token的成本预计更低[5] - 除了数据中心 英伟达也将Token生成带到本地部署 与AI PC的发布相吻合[5] AI智能体框架与行业影响 - 黄仁勋重点介绍了OpenClaw——构建AI智能体的开放框架 并推出了企业级平台NemoClaw[6] - OpenClaw帮助AI智能体交互和协调任务 可实现长期运行的工作流程 并生成大量Token[6] - 该框架的重要性被类比为HTML和Linux 是一个世界级的开放智能体框架[6] AI Token对开发人员与企业的具体影响 - 黄仁勋预测未来公司的每一位工程师都需要年度Token预算 基础工资为每年几十万美元 在此基础上再提供约一半价值的Token 可使生产力提升10倍[3] - AI正被集成到大多数新的软件产品中 将结构化数据与生成式AI融合的模式将在一个又一个行业中重复出现[2]
美国的“阳谋”:让英伟达充当AI基建的“小发改委”
观察者网· 2026-03-20 08:31
GTC 2026 核心观点 - 英伟达通过GTC 2026主题演讲,系统阐述了其作为全球AI产业“总设计师”的战略定位,将AI产业比作一个从能源到应用的五层蛋糕,并致力于垂直整合所有层级 [1][3] - 公司的目标从提供单一芯片转变为提供全栈AI工厂解决方案,旨在控制从能源、芯片、基础设施、模型到应用的整个价值链 [1][9] - 英伟达的战略已超越传统商业公司范畴,其产品路线图和资源调配能力能牵动数万亿美元级别的全球资本开支,实质上承担了产业规划与协调的职能 [13][15][19] 战略框架:“五层蛋糕”模型 - **第一层:能源** - 被视为AI基础设施的“第一性原理”和“绝对约束条件”,决定了系统能产出多少智能,公司已开始介入能源规划,甚至研发太空数据中心系统以突破地球能源限制 [3][9] - **第二层:芯片** - 发布Vera Rubin系统,集成了包括Vera CPU、Rubin GPU、Groq LPU在内的七种芯片,采用“解耦推理”新架构,以同时满足高吞吐与低延迟需求 [4] - **第三层:基础设施** - 定义远超传统,涵盖土地、电力、散热、网络及系统编排,目标是建设“生产Token的工厂”,并通过NVLink等互联技术控制整个系统的扩展能力 [5][6] - **第四层:模型** - 宣布成立Nemotron联盟,联合多家AI公司,旨在优化模型在英伟达硬件上的适配并深度绑定CUDA生态,强化其产业组织能力 [7] - **第五层:应用** - 被视为经济价值的创造层,公司广泛布局于机器人、自动驾驶(与比亚迪、现代、日产、优步合作)等领域,并发布OpenClaw智能体操作系统,将触角延伸至物理世界 [8] 硬件与系统创新 - **Vera Rubin系统**:横跨五个机架,集成七种芯片,通过NVLink融合,实现高吞吐批量推理与低延迟实时响应的结合 [4] - **Vera CPU**:88核设计,专为高单核性能,采用液冷,标志着公司从加速器供应商向提供完整计算节点(整机)的转变,实现垂直整合 [5] - **性能宣称**:对比x86加Hopper架构,Vera Rubin系统的Token吞吐量达到前者的350倍,即7亿Token每秒对比200万Token每秒 [6] - **能效提升**:宣称Vera Rubin系统每瓦性能提升50倍,成本降低35倍 [9] 生态控制与产业协调 - **CUDA生态**:通过“飞轮效应”锁定开发者与客户,全球AI训练和推理几乎完全依赖CUDA生态,使公司能实质影响云服务商的AI业务天花板 [7][12] - **供应链协调**:在全球半导体代工格局中扮演“总指挥”角色,如在台积电与三星之间进行芯片生产任务的精准分配 [12] - **产能分配权**:公司手握GPU产能分配权,能影响甚至决定像OpenAI等关键客户的算力部署在哪个云平台(如宣布OpenAI将登陆AWS) [11] - **路线图即产业政策**:2028年Feynman系统路线图(含新GPU、LPU、CPU、网卡及互联模块)能牵引全球供应链(台积电、三星、ODM/OEM、云服务商)未来数年的资本开支与研发方向 [13] 市场定位与规模预测 - **市场规模预测**:公司CEO预计到2027年,AI基础设施投资需求将达到至少1万亿美元,规模堪比国家级基建计划(对比美国2021年基建法案中约5500亿美元新增投资) [11] - **产业角色**:公司不仅是芯片设计者,更是AI工厂的“总包工头”和“调度中心”,通过技术标准、供应链控制和生态建设,承担了市场化产业协调者的角色 [1][14][19] - **商业与战略融合**:其商业利益与美国国家AI战略高度吻合,通过市场机制(如垂直整合、水平开放)和配合政府出口管制等措施,共同确保美国在AI算力领域的领先地位 [14][15][19]
电力设备行业:GTC 2026点评报告:柜内电源功率提升,全液冷时代来临
银河证券· 2026-03-19 14:28
报告行业投资评级 - 行业评级:推荐(维持)[1] 报告核心观点 - 英伟达GTC 2026大会揭示了AI算力基础设施向更高功率密度和全液冷方案演进的核心趋势,柜内电源功率显著提升与全液冷时代来临将驱动相关产业链投资机会[1][2] 行业进展总结 - AI行业正从生成式AI时代跨入推理式AI和智能体AI时代,推理及渠道训练成为核心计算需求,过去两年AI计算需求增加了约100万倍[2] - Token成为AI工厂的核心生产资料,吞吐效率(token/watt)和推理速度(Token生成速度)是核心指标[2] - 英伟达将2025年定义为“推理年”,旨在优化AI推理全流程以降低客户基础设施成本[2] 公司收入与产品进展总结 - 英伟达对Blackwell和Rubin产品线在2027年前的数据中心营收展望乐观,预计总额将超过1万亿美元,较2025年GTC大会披露的2026年前5000亿美元预期显著增长[2] - 正式发布Vera Rubin全栈AI算力平台系统,包含Vera CPU、Rubin GPU等七款芯片及五款机架[2] - 该平台系统使算力在10年内提升了4000万倍[2] - 产能进展顺利,微软Azure已部署首台Vera Rubin机架,供应链已实现每周数千台产能,每月可支撑多GW级AI工厂建设[2] 电源进展总结 - **柜内电源**:预计Vera Rubin NVL72采用4组Powershelf,每组功率110KW,由6个18.3KW电源组成,合计供电功率440KW,对比GB200/GB300 NVL72的264KW提升达60%以上,相关电源厂商单机柜价值量有望得到较大提升[2] - **柜外电源**:英伟达将全面普及800V高压直流供电、CPO光互联与高密度PCB,以推动数据中心PUE降至1.1以下[2] 液冷进展总结 - Vera Rubin采用100%液冷设计,使用45℃热水冷却,可减少机械冷却步骤,提升能源效率并降低冷却成本,但需要更高冷却流量的液冷系统[2][3] - Vera Rubin部署效率大幅提升,安装时间从传统2天缩短至2小时,显著提升可维护性[3] - 当前采用较传统液冷方案,后续更高功率芯片(如Rubin Ultra、Feynman)可能采用微通道、微流控及金刚石散热等新技术[3] 投资建议总结 - 建议关注以下五个方向的产业链公司:[3] 1. **柜内电源**:麦格米特、欧陆通、新雷能、铂科新材 2. **柜外电源**:金盘科技、伊戈尔、中恒电气、四方股份、特变电工、禾望电气、科华数据、科士达、优优绿能、通合科技、特锐德 3. **液冷方案及零部件**:英维克、申菱环境、高澜股份、飞龙股份、冰轮环境、银轮股份、中航光电、思泉新材、科创新源、同飞股份、川环科技、远东股份 4. **数据中心配储**:阳光电源、宁德时代、阿特斯、盛弘股份、海博思创 5. **备用电源(BBU/柴发/超容)**:亿纬锂能、蔚蓝锂芯、思源电气、江海股份、科泰电源、豪泰科技
AIDC液冷更新-GTC大会
2026-03-19 10:39
电话会议纪要分析:AIDC液冷更新 - GTC大会20260318 一、 纪要涉及的行业与公司 * **行业**:数据中心液冷行业,特别是面向人工智能数据中心(AIDC)的液冷解决方案[1] * **核心公司**:英伟达 (NVIDIA),作为技术路线和供应链的主导者[1][2] * **供应链公司**: * **冷板**:台资企业主导,如Cooler Master、AVC、台达[2] * **快速断开(QD)接头**:欧洲公司丹佛斯(份额最高)、派克,以及台湾双鸿、国内必和电子、英维克、利普达[2] * **分水器(Manifold)**:台湾讯强、Cooler Master、奇鋐、宝德、利普达[2] * **机柜液冷系统集成/供应商**:领益智造(通过收购利普达)、英维克、比亚迪电子、蓝思科技[2] * **冷却液分配单元(CDU)**:英维克、申菱环境[1][6] * **一次侧散热**:申菱环境(冷水机组)、联创股份(压缩机零部件)、雪人股份(磁悬浮压缩机)[5] * **代工厂商**:星瑞科技(丹佛斯的核心QD接头代工厂)[1][6] 二、 核心观点与论据 1. 技术升级驱动单柜价值量显著提升 * **功耗提升**:Rubin系列机柜功耗从GB300的130-140千瓦提升至200-220千瓦,并标配全液冷[1][3] * **冷板价值量跃升**:冷板设计由小转大,并引入150微米以下精度的微通道技术,单块价值量从200多美元跳升至约800美元[1][3];单柜冷板总价值量从GB300的约2.5万美元增至Rubin系列的约5.2万美元(约合26万人民币)[1][3] * **QD接头价值量增加**:因CDU出水温度升至45度,需增加流量以保证散热,对QD接头性能要求更高,单价从50-60美元/对升至80-90美元/对[1][3][4];单柜QD接头总价值量约为1.1万至1.2万美元(约合8-9万人民币)[1][4] * **CDU价值量提升**:为匹配更高功耗,CDU规格从1.3兆瓦升至2.3兆瓦,单台价格从25-30万美元涨至43-45万美元[1][4];由于配置方案倾向于采用“2N”冗余备份,导致CDU整体用量翻倍,分摊到每个机柜的CDU价值量从GB300的3.75万美元提升至Rubin系列的5.6万美元[4] 2. 供应链格局趋于固化,大陆企业机会在于代工 * **供应商地位稳固**:GTC大会展示及AVL名单显示,关键环节(如冷板)仍以台资和欧美企业为主,格局未发生显著变化[2] * **英伟达或收紧控制**:英伟达未来可能收紧供应商认证范围,并可能自主设计统一液冷架构,要求供应商按其设计生产,这将巩固原有供应商地位[2] * **大陆企业转向代工**:台资和欧美原厂为快速响应英伟达、谷歌等客户订单,在2026年将产生较大的代工需求,大陆具备生产能力的企业迎来机会[2] * **代工龙头受益**:星瑞科技作为QD龙头丹佛斯的核心代工厂,受益于丹佛斯2026年订单预计同比翻倍及其自身扩产较慢,代工空间巨大[1][6];未来代工范围有望从QD接头扩展至分水器、CDU内的钎焊板式换热器等[6] 3. 一次侧散热技术趋势明确 * **45度温水技术不会完全取代冷水机组**:该技术旨在降低PUE,但数据中心仍需配备备用冷水机组以应对极端天气等特殊情况[5] * **磁悬浮压缩机成为明确趋势**:相比传统离心式或螺杆式压缩机,磁悬浮压缩机可显著降低PUE,几乎无机械磨损,体积小且模块化,能灵活适应AIDC算力大幅波动的特性,能耗更低[5] 4. 各环节投资标的与核心逻辑 * **柜外(一次侧)**:关注申菱环境(冷水机组)、联创股份(压缩机零部件)、雪人股份(磁悬浮压缩机)[5] * **CDU环节**:重点推荐申菱环境和英维克,二者具备深厚的机房设计、交付和整体应用理解能力,对除英伟达以外的CSP(云服务提供商)客户有吸引力,在伟创力、台达等优先满足英伟达订单的背景下,有望获得谷歌、Meta等客户的订单[1][6];英维克有潜力成为柜外Tier 1供应商,申菱环境已开始获得北美订单[6] * **柜内(二次侧)**:核心逻辑是代工,最受推荐的是星瑞科技,其为市场份额领先者丹佛斯进行代工,将直接受益于丹佛斯订单增长[6] 三、 其他重要内容 * **GTC 2026发布的新液冷产品**:包括Ruby GPU与Vera CPU组合的Viva Rubin NVGL72机柜、Groq 3 LPS机柜以及Viva CPU机架,均采用全液冷架构[2] * **Rubin系列液冷方案细节**:机柜内取消用于补冷的风扇,交换机、网络光模块等原先采用精密空调散热的部件也改为液冷,增加了冷板用量[3] * **分水器价值量**:单柜价值量约2万美元,与之前相比变化不大[4] * **CDU内部升级**:2.3兆瓦CDU中的电子泵升级为两个总功率约2.4兆瓦的泵[4] * **地区技术路径差异**:一次侧散热方案中,中国北方多使用间接蒸发冷却(AHU),而华东、华南及东南亚地区则普遍使用冷水机组[5]
英伟达大会GTC金融分析师问答
2026-03-19 10:39
纪要涉及的行业或公司 * 行业:人工智能、半导体、云计算、数据中心基础设施 * 公司:英伟达 核心观点与论据 **1 人工智能发展进入新拐点** * 人工智能发展正经历三个关键拐点:生成式AI、推理能力、以及当前能够自主运行的智能体系统[2] * 智能体系统最受欢迎的应用之一是软件编写,工程师将消耗大量代币以提升工作效率[2] * 计算机的角色正从工具转变为生产设备,其能源和生产效率直接影响营收[2] **2 产品需求与市场前景极为强劲** * 截至2027年底,Blackwell和Rubin系列产品的合计订单可见性超过1万亿美元[1][3] * 此1万亿美元预期仅包含Blackwell和Rubin系列,未计入Grok、独立销售的Vera CPU等2025年后推出的新产品增量[1][3] * 公司具备备货和稳定供应能力,服务于有紧急算力需求的客户,并持续开发新客户、新市场和新区域[3] **3 通过价值创造维持高毛利率** * 维持高毛利率的关键在于提供远超客户预期的价值,而非成本竞争[1][4] * 客户购买设备是为了生产代币,因此代币产出效率(每秒处理tokens数量及每瓦功率每秒处理tokens数量)至关重要[4][5] * 例如,Vera Rubin通过提升单位功耗Token产出效率,使客户倾向购买高价新品以降低生产成本,尽管其价格更高[1][5] **4 业务结构分布与未来演变** * 当前业务结构:约60%来自超大规模云服务提供商,40%来自区域云、工业领域和企业本地部署[1][7] * 公司是CSPs顶尖的销售团队之一,为其吸引CUDA开发者、AI原生企业及大型企业客户[7] * 在物理AI拐点出现后,工业端AI工厂的占比有望从40%提升,甚至可能达到70%[1][10] **5 推理业务成为核心,算力应用格局将重塑** * 2025年是公司的“推理之年”,业务取得关键进展,展示了从训练、后训练到推理环节的全面领先地位[5][6] * 开源模型按总生成token量计算,已成为仅次于OpenAI的第二大最受欢迎的AI模型[6] * 预计未来全球接近100%的算力将用于推理,以实现Token变现[1][25] * 训练是成本,而推理才能创造经济效益,未来推理与训练的边界将越来越模糊[25] **6 产品与技术路线图清晰** * Vera Rubin将先于Grok发货,已进入生产阶段[11] * 计算架构分为极低延迟和极高吞吐量两类,公司将融合Grok与Vera Rubin及GPU,利用Grok处理自回归语言模型中对带宽需求极高的最后阶段[11] * 互连策略坚持铜缆优先并向CPO演进,下一代Ultra系列将提供纯铜与混合方案,预计两年后高端产品全面转向CPO[1][18] * 公司是全球唯一能在单一AI工厂中跨越HBM、LPDDR5和SRAM三种内存优化架构的公司[14] **7 市场规模与商业模式变革** * 当前IT软件行业规模约2万亿美元,未来通过智能代理的全面融入,软件许可市场规模可能扩展至8万亿美元[9] * 商业模式将从过去的软件授权盈利,转变为通过租赁智能代理系统和生成代币盈利[9] * AI代币作为一种新商品,其成本将持续下降,同时每个代币的智能水平和吞吐量会持续提升[19] **8 现金流分配与供应链管理** * 现金流分配优先保障供应链产能预付及增长投入,与供应商建立长期合作关系,甚至预付款项或共同投资建设产能[1][16] * 在2026年上半年完成既定投资项目后,股票回购和股息合计占自由现金流的比例有望从50%起步[1][16] * 公司预计产能紧张将持续至2027年,但当前供应链各环节处于协调状态,有能力满足超过万亿美元的需求[17] **9 竞争格局与公司优势** * AI下游市场格局:从运行的终端模型看,OpenAI最大,其次是所有开源模型的总和,然后是Anthropic[6][21] * 公司策略是在竞争领域力求超越对手,同时为合作伙伴(如CSP)创造价值,提升市场地位[21] * 公司的关键优势在于其通用性架构,能全面兼容所有类型的AI模型,并完全自主开发完整的软件栈,实现每年全系统升级[20][22][23] 其他重要内容 * **开源软件影响**:2025年开源软件和开源模型爆发式增长,英伟达是全球最佳的开源模型平台[6] * **新工作负载与模型**:为处理超长上下文,混合架构(如状态空间模型)是关键,公司开发并开源相关技术以推动AI整体发展[20] * **组织与运营**:公司组织架构设计旨在支撑其产品体系,管理团队涵盖所有必需技术领域,通过完全掌控软件和硬件实现高速迭代[22][23] * **具体数据示例**:Reddit上有用户一天消耗了5,000万token,成本仅为50美元,展示了token消耗的潜力和成本效益[10] * **产品定价分层**:当前行业普遍的定价是每百万token约6美元,未来希望能提供每百万token 50美元的服务以满足超大型模型需求[13] * **Grok的增量影响**:若将25%的工作负载迁移到Grok,计算支出将增加25%,如果1万亿美元预算全部用于添加Grok,总支出将达到1.25万亿美元[15]
中银晨会聚焦-20260319-20260319
中银国际· 2026-03-19 07:54
3月金股组合 [1] - 报告列出了2026年3月的金股组合,共包含12只股票,涵盖A股和港股,涉及房地产、交通运输、化工、电子、医疗、食品饮料、商贸零售等多个行业 [1] 市场与行业表现 [4][5] - 截至报告日,主要市场指数普遍上涨,其中创业板指涨幅最大,为2.02%,上证综指上涨0.32% [4] - 行业表现方面,通信、计算机、电子行业涨幅居前,分别上涨5.23%、2.46%、2.41%;石油石化、房地产、食品饮料行业跌幅居前,分别下跌1.47%、1.05%、0.91% [5] 电子行业:英伟达GTC 2026技术展望 [2][6][7][8] - 英伟达在GTC 2026上发布了从Rubin到Feynman的技术路线图,核心变化包括采用共封装光学(CPO)和液冷技术,并引入集成大容量SRAM的LPU以增强推理性能 [2][6] - 黄仁勋预计智能体AI和物理AI将成为未来AI的重要增长点,并提出了AI的“五层架构”(能源、芯片、基建、模型、应用) [6][7] - 英伟达预计其2027年营收至少达到1万亿美元 [6] - 报告建议关注与CPO、液冷、LPU、高速互联、服务器组装及散热相关的产业链公司,包括天孚通信、中际旭创、工业富联、英维克等 [8] 电子行业:深南电路公司研究 [2][10][11][12][13] - 深南电路2025年业绩高速增长,全年营收236.47亿元,同比增长32%;归母净利润32.76亿元,同比增长74% [10] - 公司业绩增长由AI、通信、汽车三大领域驱动。2025年PCB业务营收143.59亿元,同比增长37% [11] - 封装基板业务技术突破与客户导入加速,2025年该业务营收41.48亿元,同比增长31%,公司已成为内资最大的封装基板供应商 [12] - 根据Prismark数据,预计2025-2030年全球PCB市场规模将从852亿美元增至1,233亿美元,复合年增长率约8% [10] - 报告调整公司2026/2027年每股收益预测至8.54/11.27元,预计2028年每股收益为13.90元,维持“买入”评级 [13] 电力设备行业:福斯特公司研究 [2][15][16][17] - 中东局势升级导致胶膜原材料EVA粒子等价格大幅上涨,推动胶膜产品涨价。2026年3月11日,EVA粒子报价达1.07万元/吨,环比上涨9.3%;POE胶膜、透明EVA胶膜价格分别环比上涨4.8%、5.1% [15] - 头部胶膜企业短期可享受低价库存红利,提升毛利率;长期来看,原材料涨价有利于行业竞争格局优化,头部企业凭借成本控制能力具备盈利弹性 [16] - 公司是受益于海外光伏产能扩张的核心标的,其境外销售毛利率显著高于境内销售 [16] - 报告将公司2025-2027年预测每股收益调整为0.39/0.86/1.13元,维持“增持”评级 [17] 基础化工行业:宝丰能源公司研究 [3][19][20][21][22][23] - 宝丰能源2025年业绩高速增长,全年营业总收入480.38亿元,同比增长45.64%;归母净利润113.50亿元,同比增长79.09% [3][19] - 业绩增长主要得益于内蒙古300万吨/年煤制烯烃项目全面达产。2025年,公司聚乙烯、聚丙烯销量分别为253.46万吨和246.05万吨,同比大幅增长123.27%和111.22% [20] - 公司财务指标持续优化,2025年加权平均净资产收益率为24.84%,同比提升9.29个百分点;销售毛利率为35.92%,同比提升2.77个百分点 [21] - 公司在建项目有序推进,宁东四期烯烃项目计划于2026年底建成投产,并持续进行技术创新与绿色低碳发展 [22] - 报告调整盈利预测,预计公司2026-2028年每股收益分别为2.14元、2.18元、2.19元,维持“买入”评级 [23]
英伟达不想只卖 GPU
36氪· 2026-03-19 07:49
公司战略定位 - 公司重新定义自身为一家垂直整合、横向开放的计算公司,这与外界对其作为专注GPU芯片公司的固有印象截然不同 [1][2] - 公司战略从专注于高性能GPU和CUDA生态,转向在硬件上进行垂直整合,在软件上走向合作开放 [2] - 公司CEO提出“AI五层蛋糕”理论,认为AI产业从下到上依次为能源、芯片、数据中心、模型、应用,公司正在每一层进行押注,以推动整个AI产业链流动并做大市场 [14][16] 新一代硬件平台:Vera Rubin - 下一代计算平台Vera Rubin从单颗芯片进化为由7款定制芯片和5种不同机架组成的芯片系统 [3] - 通过NVLink 6网络,将72颗Rubin GPU和36颗Vera CPU在微秒级延迟下连接成一个超级芯片 [3] - 其中Vera CPU集成了256颗液冷处理器,计算效率是传统CPU的两倍,并首次作为独立CPU产品向市场出售 [3] - 与上一代Blackwell芯片整合后,Vera Rubin平台单卡推理能力最高提升5倍,大模型生成Token成本降低90% [3] - 阿里巴巴、字节跳动和Cloudflare等云服务商已宣布将部署,预计今年下半年向首批客户交付 [3] 关键硬件收购与整合:Groq 3 LPU - 公司斥资200亿美元收购初创公司Groq,获取其低延迟推理核心技术 [4] - 在Vera Rubin平台中整合了Groq 3 LPU(语言处理单元),用于AI推理任务加速 [4] - Groq 3 LPU将数据留在芯片内处理,无需外置高宽带内存,因此在问答和内容生成时延迟更低、更稳定,弥补了公司原有架构在推理速度上的不足 [4] - 公司通过专门的“Groq 3 LPX推理托盘”,将低延迟技术变为可拔插模块,既弥补短板也消除了潜在竞争风险 [4] 消费级SoC产品:N1X芯片 - 公司与联发科共同研发基于Arm架构的N1X SoC,主要面向高端AI PC和笔记本电脑市场 [5] - N1X效仿苹果M系列芯片,将CPU、GPU和AI加速单元集成在同一物理内存池上,以优化延迟和能耗 [6] - 此举是公司继移动端“丹佛计划”和数据中心Grace CPU后,再次冲击消费级SoC市场,意图在个人PC处理器市场分一杯羹 [6] 软件生态战略:开放与合作 - 公司与开源项目OpenClaw合作,推出面向企业市场的开源AI智能体平台NemoClaw,帮助企业部署、运行和管理AI Agent [9] - NemoClaw不限制硬件,可运行在英伟达、Intel和AMD的芯片上,标志着公司主动解绑了其核心软件生态与自家硬件的绑定 [10] - 公司判断,企业级应用的核心基础是处理结构化数据(如SQL、Spark),因此致力于让企业在处理数据和构建Agent工作流时习惯调用NemoClaw的API和微服务 [13] - 公司近期发布了自身的大语言模型Nemotron 3,以完善软件生态闭环 [13] - 公司CEO认为,用谁的软件比软件在谁家芯片上运行更重要,开源NemoClaw旨在降低企业使用门槛,做大整个AI市场需求,从而带动对高端算力的需求 [14] 市场前景与竞争格局 - 公司CEO预计,到2027年,以Blackwell和下一代Vera Rubin为主的AI加速芯片累积营收将达到一万亿美元 [2] - 云厂商自研芯片(如微软Maia、谷歌TPU)已获得市场近40%的份额 [12] - 公司通过垂直整合硬件(CPU、GPU、交换机、网络协议、低延迟模块)和开放软件生态,显著提升了竞争者的替代门槛 [7] - 公司在AI基础设施硬件上采取全面覆盖策略,意图赚取产业链上的每一块利润 [8]
Nvidia's Jensen Huang Wants To 'Die On The Job' Building A $20 Trillion Giant: 'That's My Dream Come True'
Benzinga· 2026-03-18 22:55
公司战略定位 - 公司已从图形芯片公司转型为人工智能基础设施公司 通过整合GPU、网络交换机和新型Vera CPU来构建“AI工厂” 将自己定位为全球经济的关键参与者 [2] - 公司创始人黄仁勋表示无意放缓发展步伐 即使公司市值已达到此前难以想象的高度 [1] 增长前景与市场扩张 - 公司驳斥了增长可能“见顶”的担忧 指出其正在创造远超谷歌和亚马逊等超大规模云服务商的机会 [3] - 公司承认其规模庞大却仍能加速增长可能难以理解 但强调向本地数据中心和主权人工智能的扩张才刚刚开始 [3] 技术发展与行业影响 - 创始人黄仁勋在采访中揭示了OpenClaw这一开源项目 他认为其影响力将与生成式AI的首次发布一样重大 [4] 长期愿景与领导力 - 当被问及公司是否可能最终成为全球首家市值达20万亿美元的公司时 创始人黄仁勋并未回避 并表示这是其梦想成真 [5] - 关于其任期 创始人黄仁勋表示希望工作至生命最后一刻 且不希望在近期发生 [5]
黄仁勋详解英伟达的AI时代新叙事
中国经营报· 2026-03-18 22:20
GTC 2026 核心发布与战略方向 - 英伟达GTC 2026大会发布多项重磅产品与技术,包括3nm制程的Vera Rubin AI加速平台、集成Groq LPU推理芯片、推出NemoClaw、进军太空计算服务等 [2] - 公司创始人兼CEO黄仁勋在演讲中强调,今年恰逢CUDA推出20周年,其庞大安装量引发的飞轮效应是公司AI算力的核心护城河 [2] - 行业观察指出,英伟达近两年在底层CUDA之上积极开发自身开源大模型,并正从“GPU供应商”彻底转型为“全栈AI基础设施提供商” [2][3] Vera Rubin 平台与 Groq LPU 集成 - Vera Rubin平台已全面投产,正式交付预计在2026年下半年,Blackwell与Rubin架构的综合采购订单预计在2027年前达到1万亿美元规模 [3] - 平台由新一代Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9超级网卡、BlueField-4 DPU、Spectrum-6以太网交换机及新集成的Groq 3 LPU共7类芯片协同设计而成,涵盖计算、网络和存储功能 [4] - Groq 3 LPU定位为Rubin GPU的“推理协处理器”,源自公司2025年12月以200亿美元协议收购Groq公司的技术授权,由三星代工并于2026年第三季度出货 [2][5] - 公司通过Dynamo软件系统进行任务分工:将“预填充”阶段交给Vera Rubin处理高吞吐量任务,将对延迟敏感的“解码”阶段交给Groq LPU,官方数据显示每兆瓦功耗的推理吞吐量最高可提升35倍,万亿参数模型的收益机会最高可提升10倍 [5] - Groq LPU大约能覆盖25%的工作负载,主要涉及大量编码或高价值工程级token生成,其余75%由Vera Rubin负责,且集成无需修改现有CUDA软件生态系统 [5][6] 市场影响与竞争格局 - 摩根士丹利研报称,Groq LPU与Vera Rubin的协同设计为AI推理建立了“英伟达标准”,预计到2028年全球AI推理市场规模将达6500亿美元,占AI芯片总市场的70%以上 [3] - 通过结合Rubin GPU和Groq LPU,公司进入了此前由Cerebras、SambaNova等专用推理芯片公司占据的低延迟推理市场,收购Groq技术是对竞争者的直接回应 [6] - Groq 3 LPU的加入可能降低公司此前专为超长上下文推理设计的Rubin CPX GPU的作用,因为LPU无需CPX所需的大量GDDR7内存 [7] 进军CPU直销与系统级扩展 - 公司推出为智能体AI工作负载定制的Vera CPU,这是全球唯一支持LPDDR5的数据中心CPU,并已开始单独销售,有望成为一项数十亿美元级业务,标志着正式进军CPU直销领域 [8][9] - Vera CPU配合BlueField-4 DPU和CX-9 SuperNIC,能够为智能体系统提供工具使用能力,满足智能体调用工具、访问文件系统等需求 [8] - 公司已与Meta达成多年期战略合作,Meta将部署全球首个大规模独立Grace CPU集群 [9] 技术路线图与未来架构 - 展示了Rubin平台的高性能版本Rubin Ultra,采用垂直插入的Kyber机架设计,每个机架能连接144个GPU形成一个NVLink域,芯片即将流片 [10] - 公布了下一代计算架构Feynman,将首次实现铜线与CPO(共封装光学)的共同部署 [10] - 发布了Space-1 Vera Rubin模块,标志着公司正式推出太空计算服务,该模块专为在太空轨道数据中心直接运行LLM和高级基础模型而设计 [10] - 硬件分工从PD分离进一步演化为AFD,即将注意力模块和前馈网络模块部署在不同设备上,以进一步优化资源利用率和推理效率 [10][11] 软件、生态与全栈协同优势 - 黄仁勋提出“AI五层蛋糕理论”,并强调除了芯片层,公司正积极参与上层设计 [12][14] - 盛赞开源项目OpenClaw为“人类历史上最受欢迎的开源项目”之一,重要性堪比Linux和HTML,并推出与之结合的NemoClaw开源项目,定位为“智能体计算机的操作系统” [12] - 推出了包含安全组件OpenShell的NemoClaw参考架构,为企业级应用提供数据隐私和安全保障 [12] - 介绍了六大系列开源模型的最新进展并开放相关资源,包括Nemotron、Cosmos World Foundation Model、Project GR00T、Drive AV Foundation Models、BioNeMo以及Earth-2,以推动整个AI生态发展 [13] - 在自动驾驶领域,宣布“自动驾驶的ChatGPT时刻已经到来”,车辆已具备解释驾驶决策并执行语音指令的推理能力;在机器人领域,正与ABB、Universal Robots、KUKA等企业合作,将物理AI模型与仿真系统结合 [13] - 行业分析认为,公司“硬件+软件+生态”的全栈协同优势短期内无竞争对手可撼动,Vera CPU的独立商业化与OpenClaw的开源策略分别从硬件垂直整合与软件生态开放两个维度巩固了行业地位 [15]