Workflow
Rubin GPU
icon
搜索文档
云厂商破天荒涨价,未来一年算力供给会改善吗?| Jinqiu Select
锦秋集· 2026-03-20 23:00
行业核心观点 - 2026年全球云计算行业出现集体涨价,打破了近二十年的降价惯例,主要原因是全球AI需求爆发和核心硬件成本显著上涨 [1] - 云厂商涨价潮的本质是算力正从基础设施转变为稀缺资源,AI创业团队面临算力资源被大规模云服务商锁定、小型团队难以批量获取的局面 [2] - 当前的算力短缺是结构性的产能短缺,而非周期性供需波动,这导致算力从“成本项”转变为关乎产品节奏、商业模式乃至公司生死的“战略资源” [3][4] - 在算力成为战略资源的背景下,能够在正确时间窗口锁定足够算力的公司将在竞争中占据先手,而对供给侧瓶颈缺乏认知则可能在关键增长节点遭遇“有需求、无资源”的困境 [5][6] 云厂商涨价与算力资源现状 - 2026年1月,AWS率先对GPU训练实例上调约15%,谷歌云随即宣布数据传输服务最高涨价100% [1] - 2026年3月,国内云厂商密集跟进:腾讯云率先上调自研大模型价格,涨幅最高达463%;阿里云与百度智能云宣布AI算力及存储产品涨价,最高涨幅34% [1] - 超大规模云服务商的集群资源已被牢牢锁定,小型团队几乎无从批量获取 [2] - 云服务厂商2026年数据中心资本支出预期较一年前大幅增长甚至翻倍,但仍被市场认为“不够用” [2] 算力供给侧的瓶颈分析 - 当前算力瓶颈已彻底进入硅芯片短缺阶段,先进的逻辑和存储器制造能力不足以支撑计算部署的步伐 [19] - 台积电N3逻辑晶圆产能是当前最大的制约因素之一,其产能扩张未能跟上AI需求的激增 [22][37] - 到2026年,所有主流AI加速器系列(包括英伟达、AMD、谷歌TPU、AWS Trainium、Meta MTIA)都将过渡到台积电N3系列工艺节点,AI将成为N3需求的主要来源 [28][29][30][31] - 2026年,人工智能相关应用(加速器、主机CPU和网络N3芯片)的需求将占N3芯片总产量的近60% [45] - 全球内存短缺问题短期内难以缓解,HBM高带宽内存供应紧张是下一个主要制约因素 [61] - HBM消耗的晶圆产能约为普通DRAM的三倍,随着向HBM4过渡,这一差距可能扩大到近四倍,挤占了普通DRAM的产能 [61] - 客户对更高HBM引脚速度(如约11 Gb/s)的需求进一步限制了HBM的有效供应,因为内存厂商难以以可接受的良率大规模交付 [68] - CoWoS先进封装的限制有所缓解,前端晶圆(如N3)供应成为主要瓶颈 [79] - 过去几年,数据中心和电力是主要瓶颈,但当前预测显示电力供应将超过AI计算需求,加速器硅的供应已成为主要制约因素 [81] 供应链竞争与厂商策略 - 在N3晶圆产能争夺中,人工智能基础设施客户的优先级明显高于消费电子产品客户,因为AI加速器设计带来更高的平均售价,且AI驱动的需求是台积电增长的主要动力 [51] - 由于需求远超供应,预计到2026年下半年,台积电N3工艺的有效利用率将超过100% [52] - 台积电受到洁净室空间的限制,未来两年内无法新增足够产能来完全满足市场需求 [52] - 产能限制可能促使客户寻求更广泛的晶圆代工模式,例如转向英特尔或三星晶圆代工 [40] - 英伟达在供应链控制上准备最充分,其通过提前锁定大部分逻辑晶圆、内存等组件供应成为主要受益者,例如2025年的韩国之行旨在确保内存供应 [85] - 最终能够获得最多硅供应的供应商将占据最大的计算部署份额 [85] 潜在的需求转移与产能再分配 - 智能手机是2026年N3晶圆需求的第二大驱动力,但也可能成为需求疲软的领域,从而释放产能用于AI加速器 [58] - 智能手机需求预期可能被下调至同比两位数的低位下滑 [58] - 如果将2026年智能手机N3晶圆总开工量的5%(43.7万片晶圆的5%)重新分配给AI加速器,则可额外生产约10万颗Rubin GPU或约30万颗TPU v7 [58] - 在更极端情况下,如果将25%的智能手机N3晶圆重新分配,则可额外生产约70万颗Rubin GPU或约150万颗TPU v7 [58] - 在消费级设备出货量下降的背景下,部分内存可能从消费级应用重新分配到服务器和HBM [76] - 在消费级内存出货量下滑10-15%的基本预测下,释放的容量增量(约占DRAM总需求的3%)不足以实质性改变整体供需格局 [78] 市场需求与增长数据 - Token需求呈爆炸式增长,推动了对人工智能计算的持续加速需求 [16] - 仅在2026年2月,Anthropic就新增了高达60亿美元的年度经常性收入,主要得益于智能体编码平台Claude Code的广泛应用 [16] - 超大规模云服务提供商的资本支出计划大幅调整,其中谷歌2026年的资本支出预期几乎是此前预期的两倍 [17] - 从H100到Rubin,以及从MI300到MI400等,AI加速器的HBM容量在快速提升(如提升50%甚至4倍),驱动了HBM位出货量的急剧变化 [66] - NVIDIA下一代平台的AI服务器系统内存将大幅增长,VR NVL72机架的DDR内存容量将是Grace的三倍 [71] - 2026年DRAM的整体位需求预计将出现增长,同时AI工作负载正在推动CPU需求,并逐步提高CPU与GPU的比例 [71]
英伟达CEO黄仁勋谈论"Token经济学"——AI的新货币
搜狐财经· 2026-03-20 20:35
AI Token作为新型货币与生产力工具 - AI Token正在成为一种新的货币形式 将在人才招聘、预算制定和生产力提升方面发挥重要作用[2] - Token是新的商品 是推动公司收入增长的基本组成部分 公司获得更多容量就能生成更多Token 从而增加收入[2] - 工作中包含的Token数量已成为硅谷的招聘工具 因为拥有Token访问权限的工程师生产力更高[3] AI Token的定价模式与成本趋势 - 云服务提供商对基于文本的模型提供按AI Token收费的定价方案 基于视频的模型通常按任务或GPU使用时间定价[2] - 对Token的需求前所未有 使价格保持高位 但随着新技术推广 成本应开始趋于稳定或下降[3] - 客户意识到云端Token的成本 正在寻找更具成本效益的投资选择 包括本地部署[6] 英伟达的技术进展与产品战略 - 英伟达在GTC大会上推出了名为Rubin的新GPU和名为Vera的CPU 并与Groq的推理芯片融合[3] - 公司声称Vera Rubin将在系统价格上升的同时降低计算成本 并将Token生成率从2200万提高到7亿 增长350倍[4][7] - 英伟达推出AI工厂概念 其收入等于每瓦Token数 在功耗限制下 每个未使用的瓦特都意味着收入损失[5] - 公司大部分Token信息围绕推理展开 推理是成本敏感且关键的增长领域 生成Token的成本预计更低[5] - 除了数据中心 英伟达也将Token生成带到本地部署 与AI PC的发布相吻合[5] AI智能体框架与行业影响 - 黄仁勋重点介绍了OpenClaw——构建AI智能体的开放框架 并推出了企业级平台NemoClaw[6] - OpenClaw帮助AI智能体交互和协调任务 可实现长期运行的工作流程 并生成大量Token[6] - 该框架的重要性被类比为HTML和Linux 是一个世界级的开放智能体框架[6] AI Token对开发人员与企业的具体影响 - 黄仁勋预测未来公司的每一位工程师都需要年度Token预算 基础工资为每年几十万美元 在此基础上再提供约一半价值的Token 可使生产力提升10倍[3] - AI正被集成到大多数新的软件产品中 将结构化数据与生成式AI融合的模式将在一个又一个行业中重复出现[2]
美国的“阳谋”:让英伟达充当AI基建的“小发改委”
观察者网· 2026-03-20 08:31
GTC 2026 核心观点 - 英伟达通过GTC 2026主题演讲,系统阐述了其作为全球AI产业“总设计师”的战略定位,将AI产业比作一个从能源到应用的五层蛋糕,并致力于垂直整合所有层级 [1][3] - 公司的目标从提供单一芯片转变为提供全栈AI工厂解决方案,旨在控制从能源、芯片、基础设施、模型到应用的整个价值链 [1][9] - 英伟达的战略已超越传统商业公司范畴,其产品路线图和资源调配能力能牵动数万亿美元级别的全球资本开支,实质上承担了产业规划与协调的职能 [13][15][19] 战略框架:“五层蛋糕”模型 - **第一层:能源** - 被视为AI基础设施的“第一性原理”和“绝对约束条件”,决定了系统能产出多少智能,公司已开始介入能源规划,甚至研发太空数据中心系统以突破地球能源限制 [3][9] - **第二层:芯片** - 发布Vera Rubin系统,集成了包括Vera CPU、Rubin GPU、Groq LPU在内的七种芯片,采用“解耦推理”新架构,以同时满足高吞吐与低延迟需求 [4] - **第三层:基础设施** - 定义远超传统,涵盖土地、电力、散热、网络及系统编排,目标是建设“生产Token的工厂”,并通过NVLink等互联技术控制整个系统的扩展能力 [5][6] - **第四层:模型** - 宣布成立Nemotron联盟,联合多家AI公司,旨在优化模型在英伟达硬件上的适配并深度绑定CUDA生态,强化其产业组织能力 [7] - **第五层:应用** - 被视为经济价值的创造层,公司广泛布局于机器人、自动驾驶(与比亚迪、现代、日产、优步合作)等领域,并发布OpenClaw智能体操作系统,将触角延伸至物理世界 [8] 硬件与系统创新 - **Vera Rubin系统**:横跨五个机架,集成七种芯片,通过NVLink融合,实现高吞吐批量推理与低延迟实时响应的结合 [4] - **Vera CPU**:88核设计,专为高单核性能,采用液冷,标志着公司从加速器供应商向提供完整计算节点(整机)的转变,实现垂直整合 [5] - **性能宣称**:对比x86加Hopper架构,Vera Rubin系统的Token吞吐量达到前者的350倍,即7亿Token每秒对比200万Token每秒 [6] - **能效提升**:宣称Vera Rubin系统每瓦性能提升50倍,成本降低35倍 [9] 生态控制与产业协调 - **CUDA生态**:通过“飞轮效应”锁定开发者与客户,全球AI训练和推理几乎完全依赖CUDA生态,使公司能实质影响云服务商的AI业务天花板 [7][12] - **供应链协调**:在全球半导体代工格局中扮演“总指挥”角色,如在台积电与三星之间进行芯片生产任务的精准分配 [12] - **产能分配权**:公司手握GPU产能分配权,能影响甚至决定像OpenAI等关键客户的算力部署在哪个云平台(如宣布OpenAI将登陆AWS) [11] - **路线图即产业政策**:2028年Feynman系统路线图(含新GPU、LPU、CPU、网卡及互联模块)能牵引全球供应链(台积电、三星、ODM/OEM、云服务商)未来数年的资本开支与研发方向 [13] 市场定位与规模预测 - **市场规模预测**:公司CEO预计到2027年,AI基础设施投资需求将达到至少1万亿美元,规模堪比国家级基建计划(对比美国2021年基建法案中约5500亿美元新增投资) [11] - **产业角色**:公司不仅是芯片设计者,更是AI工厂的“总包工头”和“调度中心”,通过技术标准、供应链控制和生态建设,承担了市场化产业协调者的角色 [1][14][19] - **商业与战略融合**:其商业利益与美国国家AI战略高度吻合,通过市场机制(如垂直整合、水平开放)和配合政府出口管制等措施,共同确保美国在AI算力领域的领先地位 [14][15][19]
电力设备行业:GTC 2026点评报告:柜内电源功率提升,全液冷时代来临
银河证券· 2026-03-19 14:28
报告行业投资评级 - 行业评级:推荐(维持)[1] 报告核心观点 - 英伟达GTC 2026大会揭示了AI算力基础设施向更高功率密度和全液冷方案演进的核心趋势,柜内电源功率显著提升与全液冷时代来临将驱动相关产业链投资机会[1][2] 行业进展总结 - AI行业正从生成式AI时代跨入推理式AI和智能体AI时代,推理及渠道训练成为核心计算需求,过去两年AI计算需求增加了约100万倍[2] - Token成为AI工厂的核心生产资料,吞吐效率(token/watt)和推理速度(Token生成速度)是核心指标[2] - 英伟达将2025年定义为“推理年”,旨在优化AI推理全流程以降低客户基础设施成本[2] 公司收入与产品进展总结 - 英伟达对Blackwell和Rubin产品线在2027年前的数据中心营收展望乐观,预计总额将超过1万亿美元,较2025年GTC大会披露的2026年前5000亿美元预期显著增长[2] - 正式发布Vera Rubin全栈AI算力平台系统,包含Vera CPU、Rubin GPU等七款芯片及五款机架[2] - 该平台系统使算力在10年内提升了4000万倍[2] - 产能进展顺利,微软Azure已部署首台Vera Rubin机架,供应链已实现每周数千台产能,每月可支撑多GW级AI工厂建设[2] 电源进展总结 - **柜内电源**:预计Vera Rubin NVL72采用4组Powershelf,每组功率110KW,由6个18.3KW电源组成,合计供电功率440KW,对比GB200/GB300 NVL72的264KW提升达60%以上,相关电源厂商单机柜价值量有望得到较大提升[2] - **柜外电源**:英伟达将全面普及800V高压直流供电、CPO光互联与高密度PCB,以推动数据中心PUE降至1.1以下[2] 液冷进展总结 - Vera Rubin采用100%液冷设计,使用45℃热水冷却,可减少机械冷却步骤,提升能源效率并降低冷却成本,但需要更高冷却流量的液冷系统[2][3] - Vera Rubin部署效率大幅提升,安装时间从传统2天缩短至2小时,显著提升可维护性[3] - 当前采用较传统液冷方案,后续更高功率芯片(如Rubin Ultra、Feynman)可能采用微通道、微流控及金刚石散热等新技术[3] 投资建议总结 - 建议关注以下五个方向的产业链公司:[3] 1. **柜内电源**:麦格米特、欧陆通、新雷能、铂科新材 2. **柜外电源**:金盘科技、伊戈尔、中恒电气、四方股份、特变电工、禾望电气、科华数据、科士达、优优绿能、通合科技、特锐德 3. **液冷方案及零部件**:英维克、申菱环境、高澜股份、飞龙股份、冰轮环境、银轮股份、中航光电、思泉新材、科创新源、同飞股份、川环科技、远东股份 4. **数据中心配储**:阳光电源、宁德时代、阿特斯、盛弘股份、海博思创 5. **备用电源(BBU/柴发/超容)**:亿纬锂能、蔚蓝锂芯、思源电气、江海股份、科泰电源、豪泰科技
Groq3LPU与GPU协同作战,系统架构如期升级
开源证券· 2026-03-19 10:55
行业投资评级 - 投资评级:看好(维持)[1] 报告核心观点 - 报告核心观点:Groq 3 LPU超预期发展及Rubin Ultra架构升级将深远影响AI服务器硬件,建议关注算力、互联、散热三大投资主线[6] 技术产品进展:Groq 3 LPU与LPX机架 - Groq 3 LPU单芯片性能跃升:集成500MB SRAM,提供150TB/s带宽,是HBM(22TB/s)的近7倍,精准契合带宽敏感型AI解码需求[3] - Groq 3 LPU算力为1.2 petaFLOPS(8位运算),而Rubin GPU算力为50 petaFLOPS(4位运算),前者以精简设计专精推理[3] - 英伟达将Groq 3 LPU整合为Groq 3 LPX机架,每个机架包含256个LPU,提供128 GB SRAM及40 PB/s推理带宽,芯片间通过640 TB/s扩展接口互联[4] - LPU与Rubin GPU结合后,推理吞吐量/功耗比提升35倍,有望重塑推理成本结构[4] - LPU芯片将由三星代工,量产时间从原计划提前至2026下半年[4] - 后续将推出支持NVFP4的Groq L35以丰富产品矩阵[3] 系统架构升级:Rubin Ultra与Kyber机架 - Rubin Ultra GPU配备高达1 TB HBM4e内存,单封装FP4推理算力达到100 PFLOPS,在内存容量和算力上实现翻倍式提升[5] - Rubin Ultra搭载全新的Kyber机架,全柜合计144个GPU(共计576个 die),采用计算节点垂直插入的颠覆性设计[5] - 架构采用中枢直连架构取代传统铜缆,其中Compute Tray上有4颗Rubin Ultra和2颗Vera CPU,其与Switch tray的连接通过正交背板完成[5] 投资建议与受益环节 - 投资建议关注算力、互联、散热三大主线[6] - PCB环节受益标的包括:沪电股份、胜宏科技、深南电路、景旺电子、鹏鼎控股等[6] - CCL环节受益标的包括:生益科技、南亚新材等[6] - 组装环节受益标的包括:工业富联等[6]
中银晨会聚焦-20260319-20260319
中银国际· 2026-03-19 07:54
3月金股组合 [1] - 报告列出了2026年3月的金股组合,共包含12只股票,涵盖A股和港股,涉及房地产、交通运输、化工、电子、医疗、食品饮料、商贸零售等多个行业 [1] 市场与行业表现 [4][5] - 截至报告日,主要市场指数普遍上涨,其中创业板指涨幅最大,为2.02%,上证综指上涨0.32% [4] - 行业表现方面,通信、计算机、电子行业涨幅居前,分别上涨5.23%、2.46%、2.41%;石油石化、房地产、食品饮料行业跌幅居前,分别下跌1.47%、1.05%、0.91% [5] 电子行业:英伟达GTC 2026技术展望 [2][6][7][8] - 英伟达在GTC 2026上发布了从Rubin到Feynman的技术路线图,核心变化包括采用共封装光学(CPO)和液冷技术,并引入集成大容量SRAM的LPU以增强推理性能 [2][6] - 黄仁勋预计智能体AI和物理AI将成为未来AI的重要增长点,并提出了AI的“五层架构”(能源、芯片、基建、模型、应用) [6][7] - 英伟达预计其2027年营收至少达到1万亿美元 [6] - 报告建议关注与CPO、液冷、LPU、高速互联、服务器组装及散热相关的产业链公司,包括天孚通信、中际旭创、工业富联、英维克等 [8] 电子行业:深南电路公司研究 [2][10][11][12][13] - 深南电路2025年业绩高速增长,全年营收236.47亿元,同比增长32%;归母净利润32.76亿元,同比增长74% [10] - 公司业绩增长由AI、通信、汽车三大领域驱动。2025年PCB业务营收143.59亿元,同比增长37% [11] - 封装基板业务技术突破与客户导入加速,2025年该业务营收41.48亿元,同比增长31%,公司已成为内资最大的封装基板供应商 [12] - 根据Prismark数据,预计2025-2030年全球PCB市场规模将从852亿美元增至1,233亿美元,复合年增长率约8% [10] - 报告调整公司2026/2027年每股收益预测至8.54/11.27元,预计2028年每股收益为13.90元,维持“买入”评级 [13] 电力设备行业:福斯特公司研究 [2][15][16][17] - 中东局势升级导致胶膜原材料EVA粒子等价格大幅上涨,推动胶膜产品涨价。2026年3月11日,EVA粒子报价达1.07万元/吨,环比上涨9.3%;POE胶膜、透明EVA胶膜价格分别环比上涨4.8%、5.1% [15] - 头部胶膜企业短期可享受低价库存红利,提升毛利率;长期来看,原材料涨价有利于行业竞争格局优化,头部企业凭借成本控制能力具备盈利弹性 [16] - 公司是受益于海外光伏产能扩张的核心标的,其境外销售毛利率显著高于境内销售 [16] - 报告将公司2025-2027年预测每股收益调整为0.39/0.86/1.13元,维持“增持”评级 [17] 基础化工行业:宝丰能源公司研究 [3][19][20][21][22][23] - 宝丰能源2025年业绩高速增长,全年营业总收入480.38亿元,同比增长45.64%;归母净利润113.50亿元,同比增长79.09% [3][19] - 业绩增长主要得益于内蒙古300万吨/年煤制烯烃项目全面达产。2025年,公司聚乙烯、聚丙烯销量分别为253.46万吨和246.05万吨,同比大幅增长123.27%和111.22% [20] - 公司财务指标持续优化,2025年加权平均净资产收益率为24.84%,同比提升9.29个百分点;销售毛利率为35.92%,同比提升2.77个百分点 [21] - 公司在建项目有序推进,宁东四期烯烃项目计划于2026年底建成投产,并持续进行技术创新与绿色低碳发展 [22] - 报告调整盈利预测,预计公司2026-2028年每股收益分别为2.14元、2.18元、2.19元,维持“买入”评级 [23]
TrendForce集邦咨询:CSP自研ASIC规模升级 英伟达(NVDA.US)多元产品线分攻AI训练与推理需求
智通财经网· 2026-03-18 21:08
行业竞争格局与趋势 - 大型云端服务供应商正加大自研芯片力度,预计ASIC AI服务器占整体AI服务器的出货比例将从2026年的27.8%上升至2030年的近40% [1] - 英伟达为应对竞争,其市场策略从以往专注云端AI训练,转向着重推动各领域的AI推理应用落地 [1] 英伟达产品战略与布局 - 公司通过推动GPU、CPU以及LPU等多元产品线,分别满足AI训练和AI推理需求,并借由整柜式方案带动供应链成长 [1] - 公司积极推动GB300、VR200等整合CPU、GPU的整柜式方案,强调可扩展至AI推理应用 [4] - 在GTC发表的Vera Rubin被定义为高度垂直整合的完整系统,涵盖七款芯片和五款机柜 [4] 关键产品出货与供应链进度 - 预计2026年第二季存储器原厂可提供HBM4给Rubin GPU搭载使用,助力英伟达于第三季前后陆续出货Rubin芯片 [4] - GB300整柜系统已于2025年第四季取代GB200成为主力,预估至2026年其出货占比将达近80% [4] - VR200整柜系统则约在2026年第三季度末可望逐步释放出货量能 [4] - 第三代Groq LP30 LPU芯片由三星代工,已进入全面量产阶段,预计于2026年下半年正式出货 [5] 技术创新与架构演进 - 为应对AI代理模型时代在译码阶段面临的延迟与存储器带宽瓶颈,公司整合Groq团队技术,推出专为低延迟推理设计的Groq 3 LPU,单颗内建500MB SRAM、整机柜可达128GB [4] - 由于LPU存储器容量限制,公司提出“解耦合推理”架构,通过Dynamo AI工厂作业系统,将推理流水线拆分:将Pre-fill、Attention运算交由Vera Rubin执行,而将译码与Token生成阶段卸载至LPU机柜 [5] - 公司规划在下一代Feynman架构中推出效能更高的LP40芯片 [5]
从GPU到LPU:英伟达大举进攻推理芯片,黄仁勋再落关键一子
华夏时报· 2026-03-18 08:59
行业趋势:AI算力需求从训练转向推理 - AI产业风向转变,从过去几年专注于“训练模型”转向“推理”成为主流,智能体(如Manus、OpenClaw)涌向市场,模型厂商和云服务商开始靠卖token赚钱 [1] - 业界意识到,随着AI能力从基础大模型训练向构建工作流的智能体演进,AI算力需求重心已从训练转向推理,智能体核心场景更侧重于推理 [5][6] - 竞争轴心发生偏移,模型参数比拼进入边际效应递减瓶颈期,大模型训练在狂奔两年后慢下来,2025年开始智能体与上下文工程站上核心位置 [5] 公司战略:英伟达推出LPU并升级生态 - 英伟达在GTC 2026上正式推出新武器Groq 3 LPU(语言处理单元),大举进攻AI推理芯片市场 [1] - 推出LPU是应对AI算力需求从“训练”转向“推理”的战略性布局,旨在补齐短板,用更精细化的产品布局回应市场变化和竞争对手挑战 [3] - 公司进行整个生态层面的升级,不仅推出LPU,还联合OpenClaw创始人等团队推出NeMoClaw参考架构,并推出Vera Rubin DSX AI工厂参考设计,教客户如何设计、建设和运营整个AI工厂基础设施堆栈 [6] 产品与技术:Vera Rubin平台与性能提升 - 英伟达正式推出Vera Rubin平台,共搭载7款芯片,包括Rubin GPU、Vera CPU及新集成的Groq 3 LPU等 [2] - Rubin GPU结合Groq LPU,计划将AI模型token吞吐量从当下每秒100个推向每秒1500个甚至更多,以完美支撑AI智能体交互场景 [2] - 推出专用于容纳新型Groq加速器的完整机架Groq LPX,据称将提升“每个令牌上AI模型每一层”的解码性能,并使平台能够服务于需要推理数万亿参数模型的多智能体系统 [2] 市场与竞争:市场格局变化与对手 - 根据高盛全球投资研究部模型预测,在AI服务器的AI芯片中,非GPGPU芯片(如ASIC)的出货占比将从2024年的36%增长至2027年的45%,而GPGPU芯片占比将从2024年的64%下降至2027年的55% [3] - GPU在基座大模型训练、通用性要求更高的场景(如公有云)和并行计算场景更有竞争力,而ASIC(包括TPU、DPU、NPU、LPU等)在模型部署和推理场景下,因对能效比、响应延迟要求更高而相对更有优势 [3] - 在ASIC市场,英伟达的对手包括国外的Cerebras,以及中国的寒武纪、华为、燧原科技等,英伟达进军推理芯片领域对国内厂商而言既是挑战也是催化剂,可能加速行业洗牌和技术升级 [7] 财务与业务:收入预测与市场进展 - 英伟达CEO黄仁勋在GTC 2026上表示,到2027年底,Blackwell和Rubin两条产品线的年收入将达1万亿美元,比半年前的预测翻了一倍 [1] - 英伟达为应对推理需求所做的计划已带来回报,OpenAI上月表示已与英伟达达成协议,将采购具有“专用推理能力”的芯片 [4] - 英伟达在2025年12月以约200亿美元的价格收购了Groq的核心技术资产,Groq 3 LPU是收购后首个公开成果 [3] 专家观点与未来展望 - 专家认为,英伟达进军推理芯片市场,并不意味着其GPU业务会因此受损,反而会在与LPU的协同中迎来更广阔的市场空间 [7] - 专家指出,短期内GPU凭借强大的场景适应性和生态壁垒主导市场(尤其在AI训练场景),长远看GPU与专用芯片将走向融合与市场分层,硬件上GPU会集成更强的专用核心,专用芯片也会增加可编程性 [7] - 预计市场将形成GPU主导创新与通用平台、专用芯片深耕规模化推理的分层格局 [7]
超百亿估值!液冷独角兽拿下近10亿融资
DT新材料· 2026-03-18 00:04
公司融资与估值 - 硅谷热管理创新领导者Frore Systems于2026年3月16日完成1.43亿美元D轮融资[2] - 公司估值飙升至16.4亿美元,成功跻身AI散热赛道新晋独角兽[2] 行业背景与痛点 - 全球AI算力朝着2030年三倍增长的目标发展,NVIDIA下一代Rubin GPU的功率密度已突破1950W[4] - 传统风冷或液冷技术(如冷板切割、管道焊接)受限于毫米级机械加工精度,存在界面热阻高、漏液风险大、流动阻力大及热交换效率低下的弊端,无法适配超高功耗芯片[4] - 机械加工的局限性导致散热模块依赖定制化生产,难以实现标准化与规模化,这是液冷技术(目前冷板式液冷占液冷市场65%)整体渗透率仍偏低的核心原因之一[5] 技术突破与优势 - 公司通过3D短回路射流通道设计,将散热通道直径从毫米级缩减至微米级,冷却介质直接冲击芯片热源核心,热传导效率较主流冷板提升75%[7] - 公司跳出传统机械加工思维,采用专属精密制造工艺,通过微观结构的“生长式”构建来打造极致精细的散热体系,构筑了技术壁垒[7] - 其产品LiquidJet Nexus采用“零软管”设计,基于芯片级制造进行一体化重构,取消所有软管、连接器与歧管,冷却介质通过内置一体化密闭通道实现闭环循环[8] - 该设计使液冷部署从“工程活”简化为类似插拔内存的操作,部署效率提升50%以上[8] - 散热系统重量减少55%,体积大幅压缩,完美适配NVIDIA Kyber ½U高密度计算托盘,使单机架GPU部署数量翻倍,算力密度提升2倍[8] - 无接口、无软管的设计将漏液率降至0[8] - 产品可将关键器件运行温度降低8°C,直接推动AI Token每秒生成效率提升4%[13] 商业化与制造能力 - LiquidJet Nexus可实现模块化、标准化量产,摆脱了传统液冷定制化的桎梏[11] - 依托位于台湾的自有制造基地,该系列产品良率稳定在95%以上[11] - 产品成本较传统定制液冷降低30%[11] 公司简介与产品矩阵 - Frore Systems是先进散热技术领域的创新企业,致力于释放数据中心与边缘设备的计算性能[12] - 主要产品包括: - LiquidJet™:用于数据中心的多级3D短回路喷射通道液冷冷板,可提升GPU性能、优化PUE并降低总体拥有成本[15] - LiquidJet™ Nexus:轻量化一体化冷板系统,通过整合多个LiquidJet冷板并取消软管、连接器和歧管,实现½U计算托盘架构[15] - AirJet®:全球首款固态主动空气冷却芯片,广泛应用于消费电子、工业设备及IoT领域[15]
GTC2026黄仁勋主题演讲点评:CPO/液冷/LPU重构算力底座,英伟达定义下一阶段算力范式
中银国际· 2026-03-17 21:18
报告行业投资评级 - 强于大市 [1] 报告的核心观点 - 英伟达在GTC 2026上发布的技术路线演进,特别是CPO(共封装光学)、液冷和LPU(大容量SRAM集成)的应用,将重构AI算力底座,定义下一阶段算力范式 [1] - 智能体AI(Agentic AI)和物理AI将成为未来AI的重要增长点 [1][5] - 随着AI发展重心向推理端性能和收益表现聚焦,CPO、液冷、LPU三大技术将共同重构AI算力基建基石 [5] 根据相关目录分别进行总结 英伟达GTC 2026技术发布与展望 - 英伟达发布Rubin至Feynman的技术路线演进图,其中最大变化是CPO和液冷技术的应用,并同步引入集成大容量SRAM的LPU以增强推理性能 [1] - 英伟达发布旗舰计算平台Vera Rubin,集成7种芯片和5种机架,包括Rubin GPU、Vera CPU、ConnectX-9 SuperNIC、BlueField-4 DPU、NVLink 6 Switch、Spectrum-X 102.4T CPO、Groq 3 LPU [5] - Rubin架构下的Oberon系统支持铜缆和光学纵向拓展 [5] - 英伟达预计Feynman计算平台将在2028年发布,有望集成Feynman GPU(定制HBM)、LP40 NVLink、Rosa CPU、Bluefield-5 DPU、NVLink 8 CPO、Spectrum7 204T CPO、ConnectX-10 SuperNIC [5] - Feynman架构下的Kyber系统将同时支持铜缆和共封装光学的纵向拓展 [5] - 英伟达推出的Groq 3 LPU单颗将集成500MB SRAM,可提供150TB/s的带宽,为推理应用带来显著的性能提升 [5] - 英伟达Vera Rubin另一大重要变化是100%采用液冷解决方案,互联不再依赖外部线缆,而是在液冷模块内部做板级/背板式集成互联 [5] - 黄仁勋透露,英伟达正在和合作伙伴积极开发应用于太空数据中心的计算机Space One [5] - 展望2027年,英伟达预计营收至少达到1万亿美元 [5] AI未来增长点与架构 - 黄仁勋提出AI的“五层架构”,即能源、芯片、基建、模型、应用 [5] - 在生成式AI时代,数据中心(算力节点)将成为生成AI推理Tokens的“工厂”,而企业软件将转向具备“长上下文推理”能力的“智能体AI(Agentic AI)” [5] - 英伟达推出开源智能体基础设施NemoClaw和开源模型Nemotron 3 Super,以支持Agentic AI行业的发展 [5] - 物理AI有望成为AI的下一个重要增长点,数字工厂、人形机器人、自动驾驶对算力的需求都在快速增长 [5] 投资建议与关注方向 - 建议关注CPO芯片及封装相关公司:天孚通信、中际旭创、晶方科技、长电科技、环旭电子 [3] - 建议关注光纤相关公司:长飞光纤、亨通光电、中天科技 [3] - 建议关注PCB及材料相关公司:深南电路、沪电股份、鹏鼎控股、胜宏科技、生益科技、菲利华、国际复材、中材科技、宏和科技 [3] - 建议关注服务器组装相关公司:工业富联 [3] - 建议关注电源和散热相关公司:英维克、麦格米特、领益智造、飞龙股份、中富电路、顺络电子、铂科新材、江海股份、海星股份 [3] - 建议关注高速铜缆相关公司:兆龙互连、沃尔核材 [3]