AI 推理
搜索文档
——计算机行业动态研究:云计算涨价:AI推理驱动供需持续趋紧
国海证券· 2026-03-23 17:06
报告行业投资评级 - 行业评级为“推荐”,并维持该评级 [1][44] 报告核心观点 - 核心观点:AI推理需求驱动算力供需持续紧张,导致云厂商对AI算力产品提价,这一趋势预计将延续,并使云服务商及相关产业链企业受益 [3][44] 根据相关目录分别总结 一、AI推理需求持续增长,OpenClaw贡献大 - AI推理需求旺盛,Tokens调用量高速增长:顶尖模型的周度tokens调用量从2025年3月24日前周的1.62T增长至2026年3月16日前周的18T,增幅约1011% [6][11] - 国产模型调用量占比显著提升:2026年3月22日前周,国产模型(小米、阶跃、深度求索、MiniMax、Z-ai)合计tokens调用量占比约53.4%,而在一年前,海外模型(Anthropic和Google)占比超60% [6][24] - 开源AI助手OpenClaw成为tokens消耗重要增量:截至2026年3月22日,OpenClaw是当月tokens调用量最高的App,调用量达13.4T,其日tokens调用量从2026年2月20日的298B上升至3月21日的649B [6][17] - OpenClaw技能商店(ClawHub)覆盖多场景:其技能涵盖生产力与办公、开发者与DevOps、AI模型集成、浏览器自动化与数据采集等多个应用场景 [7][23] 二、云厂商硬件成本提升,涨价主要针对AI算力产品 - 主要云厂商相继宣布涨价:2026年3月18日,阿里云宣布对AI算力等服务价格最高上涨34%,百度智能云宣布最高涨价30%,均于4月18日生效 [5] - 硬件成本大幅上涨是直接原因:截至2026年3月20日,DDR5内存(16G)现货均价为39.17元,较2024年3月5日价格上涨约731%;DDR4内存(16G)价格上涨约2072.1% [8][29] - CPU价格亦面临上涨压力:据报道,英特尔计划从3月底起将大部分PC CPU价格调涨10%,部分笔记本CPU此前已涨价超15% [30] - 涨价产品集中于AI智算领域:阿里云和百度云的调价主要针对AI算力、并行文件存储(如CPFS智算版)等产品,适用于AIGC、自动驾驶等高性能计算场景,而通用版产品未涨价 [8][33] 三、Tokens消耗量或持续攀升,AI算力瓶颈短期仍将持续,云计算涨价或将延续 - IDC预测Agent生态将指数级扩张,驱动Tokens消耗量激增:预测全球活跃Agent数量将从2025年的约2860万增长至2030年的22.16亿;年执行任务数将从440亿次增长至415万亿次;年度Token消耗将从2025年的0.0005 PetaTokens增长至2030年的152,667 PetaTokens,年复合增长率高达3418% [9][37][38] - AI算力扩张面临多重瓶颈:当前瓶颈或重回芯片制造,推理模型引爆HBM需求,其晶圆消耗是普通DRAM的四倍,存储可能吞噬科技巨头2026年30%的资本开支,终极产能天花板受限于ASML年产量不足百台的EUV光刻机 [9][41] 四、行业评级及投资策略 - 维持对计算机行业“推荐”评级:云服务商对AI智算产品涨价不仅反映硬件成本上升,也显示其议价权提升,AI时代算力和Tokens需求持续上涨将使云服务商及相关上下游企业获益 [10][44] - 报告列出相关受益公司,涵盖云计算、AI芯片、CPU、服务器、连接、模型、网络安全、IDC等多个产业链环节 [10][45]
美股科技行业周报:英伟达GTC2026召开,推理时代正式来临,持续好看算力需求加速增长-20260322
国联民生证券· 2026-03-22 21:05
报告行业投资评级 - 报告对美股科技行业给出“推荐”评级 [31] 报告的核心观点 - 英伟达GTC 2026大会标志着AI从“训练驱动”全面转向“推理驱动”,推理时代正式来临,算力需求将持续加速增长 [2][14] - 英伟达的核心竞争力正从卖芯片拓展至“算力+存储+网络”的系统级交付能力,实现了范式转移 [31] - AI Agent的普及将驱动Token消耗快速增长,持续增长的KV Cache将推动对HBM、DRAM、SSD的存储需求,而供给侧扩产谨慎,供不应求的局面可能持续更长时间 [31] - 看好Scale-up中光互连渗透率的持续提高,Agent-to-Agent协作将产生海量通讯流量,驱动更高带宽迭代 [31] - 投资上应关注具备系统级底层基础设施能力、存储以及高速光互连领域的标的 [31] 根据相关目录分别进行总结 1 科技行业动态 - **英伟达上调收入预期**:随着AI转向“推理驱动”,英伟达进一步上调2027年收入预期至1万亿美元,此前预测Blackwell与Rubin平台至2026年累计订单达5000亿美元 [2][14] - **Vera Rubin平台量产**:该超级AI平台已全面投产,由七款芯片组成,覆盖计算、网络、存储功能,包含40个机架、1.2千万亿个晶体管、近2万个芯片、1152个Rubin GPU,拥有60 exaflops运算能力和10 PB/s总扩展带宽,核心客户包括Anthropic、OpenAI、Meta、Mistral AI及全球主要云提供商 [2][16] - **推出Vera CPU**:英伟达推出全新的数据中心NVIDIA Vera CPU,针对单线程性能、大规模数据处理和能效优化,是全球首个在数据中心采用LPDDR5内存的CPU,已开始单独销售,有望成为数十亿美元级核心业务 [3][19] - **平台技术特点**:Vera Rubin平台采用100%液冷架构,使用45℃热水散热,降低制冷成本;系统内部布线简化,整机安装时间从两天缩短至约两小时 [19] - **网络互连创新**:平台引入第六代NVLink互连架构,强化GPU间横向扩展与通信带宽;同时推出全球首款基于CPO技术的NVIDIA Spectrum-X以太网交换机,将光模块集成于芯片封装内,已进入量产阶段 [3][23] - **发布Groq LPU推理芯片**:正式发布集成Groq LPU架构的推理芯片,Groq3LPU单芯片集成500MB片上SRAM,存储带宽高达150TB/s(对比主流GPU片外HBM4带宽约22TB/s);Groq 3LPX机架搭载256个LPU,提供128GB片上SRAM和高达40PB/s的推理加速带宽,每个机架专用扩展接口带宽为640TB/s,该芯片由三星电子代工,已进入生产阶段 [4][25] 2 美股科技公司动态 - **美光科技FY26Q2业绩创纪录**:实现收入239亿美元,同比增长196%,环比增长75%;Non-GAAP毛利率为75%,环比提升18个百分点,创历史新高;Non-GAAP EPS为12.20美元,环比增长155% [5][29] - **业务驱动因素**:AI推动DRAM与NAND需求显著提升,数据中心存储需求占比将在2026年首次超过行业总需求的50%;HBM4已开始量产并应用于下一代AI平台(如Vera Rubin),HBM4E预计2027年放量 [5][30] - **业绩细分**:DRAM收入188亿美元(占比79%),同比增长207%,环比增长74%;NAND收入50亿美元(占比21%),同比增长169%,环比增长82% [29] - **供给紧张**:行业供给极度紧张,仅能满足核心客户约50%-70%的需求,供需紧张状态预计将持续至2026年以后 [30] - **业绩指引强劲**:预计FY26Q3收入335亿美元(±7.5亿美元),将再创历史新高;毛利率约81%;EPS约19.5美元(±0.4美元) [30] - **资本开支计划**:预计FY26全年CapEx超过250亿美元,FY27将进一步显著提升,主要用于HBM与DRAM产能扩张及全球晶圆厂建设 [5][30] 3 本周观点 - **投资主线**:看好具备系统级别底层基础设施能力的标的、存储标的与高速光互连标的 [31] - **具体关注公司**:建议关注【GOOG】(谷歌)、【NVDA】(英伟达)、【MU】(美光科技)、【SNDK】(闪迪)、【LITE】(Lumentum)、【COHR】(Coherent)[31]
推理利器LPX问世,AgentAI、太空算力架构迎革新
东方证券· 2026-03-19 23:00
报告行业投资评级 - 电子行业评级为“看好”(维持)[7] 报告核心观点 - 2026年GTC大会英伟达发布多项创新产品,包括Vera Rubin POD、Groq 3 LPX推理机架、Vera CPU机架及太空计算模组,这些革新将推动AI推理、Agent AI及太空算力发展,并带动PCB、液冷、供电、光通信等产业链需求[3][10][13] - 在通信架构上,短期一层scale up域内铜缆是较优解,双层架构则需铜光配合,高算力密度的Kyber架构将采用正交背板,scale out场景下CPO方案逐步成熟[3][30] - 散热方面,高密度AI场景风冷已退出,Vera Rubin POD中五种机架均采用**100%全液冷**[3][31] - 供电方面,**800V HVDC** 正从“可选”成为“AIDC标配”[3][31] - 太空算力方面,英伟达加入并优化设计,有望推动生态成熟,加速太空IDC发展[3][31] 根据目录总结 1. 英伟达新发LPX、CPU机架,推理、Agent AI、太空算力架构迎革新 - **Vera Rubin POD发布**:包含5种机架级系统,拥有40个机架、**120万亿晶体管**、近**2万颗** NVIDIA芯片、**1152颗** NVIDIA Rubin GPU、**60 Exaflops**算力及**10PB/s**的总scale up带宽,公司预计到**2027年总订单额将达到1万亿美元**(2025年预计约为**5000亿美元**)[13] - **推理利器Groq 3 LPX**:专注低时延推理任务,单个机架包含32个液冷1U compute tray,提供**315 PFLOPS** AI推理算力、**128GB**总SRAM容量及**640TB/s**总scale up带宽,其LPU(LP30)带宽高达**150TB/s**,约为Rubin带宽的**7倍**,通过与Rubin GPU协同(Dynamo架构),在高端模型上相较于Blackwell可提供**超35倍**的每兆瓦tokens处理能力和**超10倍**的营收机会[10][17][20] - **Vera CPU机架**:包含32个液冷CPU tray,合计**256颗** CPU,提供**400TB**内存、**300TB/s**内存带宽,单线程性能比传统x86 CPU提升**50%**,单个机架可支持**超过22500个**并发强化学习或Agentic沙箱环境,性能比传统机架规模CPU高效**两倍**且速度快**50%**,旨在支持大规模AI Agent部署[10][24] - **太空计算与Kyber架构**:英伟达研发**Space-1 Vera Rubin Module**太空计算模组,并公布**Rubin Ultra Kyber**架构,采用正交背板互联,Kyber NVL144通过光互连支持scale up至NVL1152,算力密度持续提升[10][29] 2. 技术架构演进与产业链需求影响 - **通信架构**:Scale up域内,铜缆短期是较优解;若采用双层架构则为铜+光配合;高算力密度的**Kyber架构**采用正交背板;Scale out场景下,**CPO方案**逐步成熟[3][30] - **散热架构**:高密度AI场景下,风冷已彻底退出,**Vera Rubin POD中五种不同机架均采用100%全液冷**,将带动冷板、快接头等需求,为未来**1MW级机柜**铺路[3][31] - **供电架构**:**800V HVDC**供电方案已全面落地,成为AIDC标配,多家厂商展示可为单机柜提供**200-600kW**稳定电力的Sidecar电源系统[3][31] - **未来产品路线**:包括Rubin Ultra、LP35 LPU、Feynman GPU(2028年量产)、LP40 LPU、Rosa CPU、NVLink 8 CPO等,将持续提升网络带宽与计算性能[13][29] 相关投资标的 - **PCB相关厂商**:沪电股份、胜宏科技、景旺电子、深南电路、方正科技、中富电路、鹏鼎控股(买入)、东山精密(买入)等[4] - **CPO相关厂商**:源杰科技、长光华芯、仕佳光子、光迅科技、天孚通信、太辰光、致尚科技、长芯博创等[4] - **液冷相关厂商**:英维克、领益智造(买入)、申菱环境、高澜股份、思泉新材等[4] - **太空算力相关厂商**:复旦微电(买入)、成都华微等[4]
黄仁勋抢吃龙虾:英伟达新核弹10倍算力提升,OpenClaw自由了
机器之心· 2026-03-17 06:59
行业趋势与市场前景 - 公司正引领一个全新平台变革的开端,其重要性堪比个人电脑和互联网革命 [4] - 全球公司在Blackwell和Rubin系统上的支出预期大幅上调,预计2025年至2027年间市场将达到1万亿美元,其中60%的业务将来自超大规模云计算 [4] - 行业正经历“推理拐点”,AI应用从训练全面进入推理和生成阶段,算力需求刚刚爆发 [6] - 数据中心正从存储文件的地方转变为生成token的工厂,推理是工作负载,token是新的商品 [15] 新一代AI算力平台:Vera Rubin - 公司推出基于全新Vera Rubin架构的NVL72系统,这是一个为智能体AI时代注入强大动力的引擎,包含七款全新芯片 [9][17] - Vera Rubin NVL72集成了72个Rubin GPU和36个Vera CPU,通过NVLink 6连接,并配备ConnectX-9 SuperNIC和BlueField-4 DPU [18] - 与Blackwell平台相比,Vera Rubin NVL72使用四分之一数量的GPU即可训练大型混合专家模型,每瓦推理吞吐量提高10倍,每token成本仅为十分之一 [18] - 公司推出更强大的NVIDIA Vera Rubin Ultra NVL576,通过新型双层全互连NVLink拓扑,可将系统纵向扩展至最多576块GPU [21][24] - Vera Rubin平台已在微软Azure上开始部署,落地速度相比上代架构显著加快 [29] - 公司正在研发用于轨道数据中心的Nvidia Vera Rubin Space-1芯片/计算机 [27] 全新AI推理芯片:LPU - 公司通过约200亿美元的战略交易获得了Groq推理技术授权,并推出了NVIDIA Groq 3 LPX推理芯片 [31][33] - Groq LPU与Vera Rubin GPU协同工作,专门针对智能体系统所需的低延迟与超长上下文推理进行优化 [33] - 在该协同架构下,每兆瓦推理吞吐量最高可提升35倍,并为万亿参数模型带来最高10倍的营收潜力 [34] - LPX机架采用全液冷设计,包含256个LPU处理器,提供128GB片上SRAM和640 TB/s的纵向互联带宽 [36][37] - Nvidia Groq 3 LPX预计将在2024年下半年正式推出 [44] 智能体平台与软件生态 - 公司推出企业级安全解决方案NemoClaw,在OpenClaw基础架构上添加多层安全防护,定位为企业级安全解决方案 [47] - 公司认为OpenClaw/Claw系统未来的重要性将与Linux、Kubernetes、HTML等基础软件设施相提并论 [47] - NemoClaw通过NVIDIA Agent Toolkit简化部署,提供隔离的沙箱环境,并支持本地开源模型与云端前沿模型的结合 [49][50][52] - 与NemoClaw搭配部署的最佳模型之一是公司发布的Nemotron 3 Super,这是一款1200亿参数、面向智能体场景并优化了长上下文任务的开源大语言模型 [54][56] AI在物理世界的应用 - 公司展示了110台机器人,并与比亚迪、现代、日产和吉利等车企合作,将采用NVIDIA DRIVE Hyperion技术打造L4级自动驾驶汽车 [60] - 公司与Uber计划在2028年于四大洲的28个城市推出完全由NVIDIA DRIVE AV全栈软件驱动的自动驾驶车队,预计2027年上半年在洛杉矶和旧金山湾区率先推出 [62] - 公司发布了全新的NVIDIA Isaac仿真框架、Cosmos、Isaac GR00T开放模型以及Blueprint开放式物理AI数据工厂,用于推动生产规模的物理AI发展 [62]
计算机事件点评:英伟达 GTC 前瞻:或将推出 LPU 核心 AI 推理系统
国海证券· 2026-03-08 23:10
报告行业投资评级 - 行业评级:推荐(维持)[1] 报告核心观点 - 英伟达计划在2026年GTC大会上推出基于LPU架构的全新AI推理芯片系统,标志着AI算力需求正从训练侧向推理侧加速转移,这将为国产AI芯片及硬件产业链带来确定性的发展机遇[4][5][8] 事件与核心产品分析 - **事件**:2026年3月5日,CIME国际液冷散热技术公众号指出,英伟达计划于3月16日开幕的GTC大会上推出一款全新AI推理芯片系统,核心芯片预计融合其收购的Groq的LPU架构技术[4] - **GTC大会核心议程**:预计涵盖新一代AI加速芯片(如Vera Rubin平台及首发台积电1.6纳米制程的Feynman芯片)、Agent系统、CUDA架构、高性能推理、物理AI及量子计算等关键领域[5] - **LPU推理系统细节**:系统为整机架级推理方案,单机架可能搭载256个LPU单元,分布于32个服务器托盘上,每个托盘配置8颗LPU芯片,整体面向规模化、低延迟推理场景[5] 技术架构与优势 - **推理瓶颈**:在基于GPU的推理架构中,模型参数存放于HBM,计算核心与HBM间频繁的数据搬运影响了decode阶段的时效性,而decode时延是决定用户推理体验的关键[6] - **LPU技术优势**:Groq LPU专为推理加速设计,采用离计算核心更近的SRAM存储模型参数,其230MB片上SRAM可提供高达80TB/s的内存带宽,数据处理速度远超GPU架构[6] - **分布式策略**:Groq采用分布式推理策略,建立千卡互联集群,每张卡仅存储并计算模型的一小部分,最后聚合输出,从而更好地适配低延迟推理场景[6][7] 行业趋势与市场机遇 - **算力需求结构转移**:随着Agent应用爆发,全球算力需求重心正从训练转向推理。据彭博社,2025年训练成本占大型云计算公司数据中心支出的40%以上,但到2032年,这一比例将降至14%左右[8] - **服务器市场结构变化**:IDC指出,到2028年,中国非GPU服务器的市场规模占比将逼近50%,结构转型趋势明确[8] - **海外订单印证趋势**:海外模型厂商正达成大规模推理芯片订单,如OpenAI与Cerebras签署数十亿美元订单,Anthropic、Meta分别与谷歌签订210亿美元、数十亿美元的TPU合作协议,Meta与AMD也达成大规模推理芯片合作[8] - **国产化机遇**:国产模型(如DeepSeek V4)正加速转向本土算力方案(如昇腾、寒武纪平台),国内推理基础设施市场建设或已进入加速期,国内AI芯片厂商有望迎来广阔增长机遇[8] 投资策略与重点关注领域 - **投资逻辑**:随着大模型加速进化、Agent应用大规模普及,推理端市场需求有望进一步释放,维持对计算机行业“推荐”评级[8] - **重点关注个股**: - **AI芯片**:海光信息、寒武纪、芯原股份、沐曦股份、摩尔线程、壁仞科技、天数智芯[8] - **CPU**:海光信息、龙芯中科、中国长城(飞腾信息)[8] - **连接**:澜起科技、盛科通信、锐捷网络、华工科技、华丰科技[8] - **服务器**:中科曙光、浪潮信息、华勤技术、紫光股份、工业富联、软通动力、神州数码、中兴通讯、中国长城[8] - **液冷**:曙光数创、英维克、飞荣达、鼎通科技、高澜股份等[8]
电子行业周报:英伟达预告Arm芯片,国产算力产业链持续看好
东方财富· 2026-02-10 21:25
行业投资评级 - 强于大市(维持) [2] 核心观点 - 预期AI推理主导创新,看好推理需求导向的Opex相关方向,主要为:存储、电力、ASIC、超节点 [2][28] - 从供给侧看,国内先进制程良率与产能爬升,推动国产算力芯片供给侧将有较大幅度改善;从需求侧看,国内CSP厂商商业化模式逐渐明朗,AI相关资本开支持续向上,同时国内模型也在持续迭代,有望带动国产算力在训练侧的放量需求,建议重点关注国产算力产业链的整体机会 [7][30] - 端侧:豆包AI手机开售,看好2026年端侧产品迭代 [7][31] 行情回顾总结 - 本周(2026年2月2日至2月6日)沪深300指数下跌1.33%,上证指数下跌1.27%,深证成指下跌2.11%,创业板指下跌3.28% [1][13] - 申万电子指数本周下跌5.23%,在31个申万行业中涨幅排名第29位 [1][13] - 2026年年初至今,申万电子指数下跌4.73%,排名14/31 [1][13] - 个股层面,本周申万电子行业上市公司中有129家上涨,346家下跌 [20] - 截至2026年2月6日,电子行业估值水平(PE-TTM)为61.75倍,处于历史中部水平 [21] 本周关注总结 - 英伟达预告其即将推出的基于Arm架构的N1X + N1处理器,这是与联发科合作开发的系统级芯片(SoC),专为“人工智能计算机”而设计,经过优化以兼顾低功耗和高性能 [26] - 英伟达的新款N1X和N1处理器将采用台积电的3nm工艺制造,其设计与GB10迷你AI超级计算机系统中的GB10芯片类似 [26] - 报告指出,下一代处理器N2X和N2有望在2027年第二季度上市 [26] - 英伟达计划推出AVL(认可供应商清单)与RVL(推荐供应商清单)分级制度,以规范并加速生态成熟 [27] 投资机会与产业链梳理 - **存储**:随着长江存储新产品和长鑫的HBM3等最新产品逐渐突破,叠加数据中心对于SSD及HBM需求快速提升导致供需错配,激发了长存及长鑫扩产动能,判断2026年有望是两存扩产大年 [2][28] - NAND&DRAM半导体(长存相关)产业链:中微公司、拓荆科技、安集科技、京仪装备、中科飞测、微导纳米 [6][29] - 长鑫&HBM存储芯片相关产业链:北方华创、兆易创新、精智达、汇成股份 [6][29] - 存储原厂:美光、海力士、三星、闪迪、兆易创新、聚辰股份等 [6][29] - **电力**:看好电力产业链产品,重点关注用电侧和发电侧的新技术 [2][30] - 发电侧:三环集团 [6][30] - 用电侧:中富电路、顺络电子、东方钽业、英诺赛科、华峰测控 [6][30] - **ASIC**:看好ASIC推理全栈模式,预期未来ASIC份额提升,关注国内外主要CSP厂商 [2][30] - ASIC芯片:博通集成、寒武纪、芯原股份 [6][30] - 配套:沪电股份、福晶科技 [6][30] - **超节点**:预计未来机柜模式会迭代,看好高速互联、机柜代工、液冷散热、PCB等需求增长 [2][30] - 高速互联:澜起科技、万通发展、盛科通信 [2][30] - 机柜代工:工业富联 [2][30] - 液冷散热:中石科技、捷邦科技等 [7][30] - PCB:生益科技、菲利华、东材科技、鼎泰高科、大族数控、芯碁微装等 [7][30] - **国产算力产业链**: - 先进工艺制造:中芯国际(港股)、华虹半导体(港股)、燕东微 [8][30] - 国产算力龙头:寒武纪、海光信息、芯原股份 [8][30] - 先进封装:通富微电、长电科技、甬矽电子、长川科技、金海通等 [8][30] - 先进设备:北方华创、拓荆科技、微导纳米 [8][30] - **端侧产业链**: - 果链:苹果、立讯精密、蓝思科技 [8][31] - SOC:瑞芯微、恒玄科技、晶晨股份 [8][31] - AI眼镜:歌尔股份、水晶光电 [8][31] - 其他:中兴通讯、传音控股、豪威集团 [8][31]
电子行业周报:英伟达预告Arm芯片,国产算力产业链持续看好-20260210
东方财富证券· 2026-02-10 19:45
行业投资评级 - 强于大市(维持)[2] 核心观点 - 预期AI推理主导创新,看好推理需求导向的Opex相关方向,主要为:存储、电力、ASIC、超节点[2][28] - 国产化方向:从供给侧看,国内先进制程良率与产能爬升,推动国产算力芯片供给侧将有较大幅度改善;从需求侧看,国内CSP厂商商业化模式逐渐明朗,AI相关资本开支持续向上,同时国内模型也在持续迭代,有望带动国产算力在训练侧的放量需求[7][30] - 端侧:豆包AI手机开售,看好2026年端侧产品迭代[7][31] 本周行情回顾 - 本周(截至2026年2月6日)沪深300指数下跌1.33%,上证指数下跌1.27%,深证成指下跌2.11%,创业板指下跌3.28%[1][13] - 申万电子指数本周下跌5.23%,在31个申万一级行业中涨幅排名第29位[1][13] - 2026年年初至今,申万电子指数下跌4.73%,排名14/31[1][13] - 当前电子行业估值水平(PE-TTM)为61.75倍,处于历史中部水平[21] - 个股层面,本周申万电子行业上市公司中129家上涨,346家下跌[20] - 涨幅前五个股为欧莱新材(+32.25%)、利通电子(+23.02%)、科森科技(+19.42%)、晨丰科技(+17.57%)、阿石创(+17.16%)[20][24] - 跌幅前五个股为聚辰股份(-20.26%)、香农芯创(-18.25%)、寒武纪-U(-17.63%)、深科技(-16.31%)、华虹公司(-16.02%)[20][24] 本周关注:英伟达预告Arm架构新芯片 - 英伟达CEO黄仁勋提到与联发科合作开发基于Arm架构的N1X + N1系统级芯片(SoC),专为“人工智能计算机”设计,优化了低功耗和高性能[26] - 新款N1X和N1处理器将采用台积电的3nm工艺制造,其设计与GB200 AI超级计算机系统中的芯片类似[26] - 英伟达的全新N1品牌与该公司进军AI PC和笔记本电脑的战略密不可分,将直接与AMD、英特尔和高通在笔记本电脑市场展开竞争[26] - 下一代处理器N2X和N2有望在2027年第二季度上市[26] - 英伟达计划推出AVL(认可供应商清单)与RVL(推荐供应商清单)分级制度,以规范并加速生态成熟[27] 投资机会细分 存储 - 随着长江存储新产品和长鑫的HBM3等最新产品逐渐突破,叠加数据中心对于SSD及HBM需求快速提升导致供需错配,激发长存及长鑫扩产动能,判断2026年有望是两存扩产大年[2][28] - 建议关注产业链:NAND&DRAM半导体(长存相关)产业链(中微公司、拓荆科技、安集科技、京仪装备、中科飞测、微导纳米);长鑫&HBM存储芯片相关产业链(北方华创、兆易创新、精智达、汇成股份);存储原厂(美光、海力士、三星、闪迪、兆易创新、聚辰股份等)[6][29] 电力 - 看好电力产业链产品,重点关注用电侧和发电侧的新技术[2][30] - 发电侧关注:三环集团[6][30] - 用电侧关注:中富电路、顺络电子、东方钽业、英诺赛科、华峰测控[6][30] ASIC - 看好ASIC推理全栈模式,预期未来ASIC份额提升,关注国内外主要CSP厂商[2][30] - ASIC芯片关注:博通集成、寒武纪、芯原股份[6][30] - 配套关注:沪电股份、福晶科技[6][30] 超节点 - 预计未来机柜模式会迭代,看好高速互联、机柜代工、液冷散热、PCB等需求增长[2][30] - 高速互联关注:澜起科技、万通发展、盛科通信[2][30] - 机柜代工关注:工业富联[2][30] - 液冷散热关注:中石科技、捷邦科技等[7][30] - PCB关注:生益科技、菲利华、东材科技、鼎泰高科、大族数控、芯碁微装等[7][30] 国产算力产业链 - 先进工艺制造关注:中芯国际(港股)、华虹半导体(港股)、燕东微[8][30] - 国产算力龙头关注:寒武纪、海光信息、芯原股份[8][30] - 先进封装关注:通富微电、长电科技、甬矽电子、长川科技、金海通等[8][30] - 先进设备关注:北方华创、拓荆科技、微导纳米[8][30] 端侧产品 - 看好2026年端侧产品迭代[7][31] - 果链关注:苹果、立讯精密、蓝思科技[8][31] - SOC关注:瑞芯微、恒玄科技、晶晨股份[8][31] - AI眼镜关注:歌尔股份、水晶光电[8][31] - 其他关注:中兴通讯、传音控股、豪威集团[8][31]
西部数据20260130
2026-02-02 10:22
电话会议纪要关键要点 一、 公司业绩与展望 * **2026财年第二季度业绩**:营收达30亿美元,同比增长25%,每股收益2.13美元,均超出业绩指引上限[2][6] 毛利率为46.1%,同比提升770个基点,环比提升220个基点[3][7] 营业利润略超10亿美元,营业利润率33.8%[7] 经营现金流7.45亿美元,自由现金流6.53亿美元,自由现金流利润率21.6%[7] * **2026财年第三季度展望**:预计营收32亿美元(上下浮动1亿美元),同比增长约40%[2][7] 预计毛利率在47%至48%之间[2][7] 预计摊薄后每股收益为2.30美元(上下浮动0.15美元)[2][7] * **业务结构**:云业务营收27亿美元,占总营收89%,同比增长28%[2][6][7] 客户端业务营收1.76亿美元,占总营收6%;消费端业务营收1.68亿美元,占总营收5%[7] * **出货量与交付**:本季度交付215艾字节(EB)存储,同比增长22%[6][18] 其中包括超过350万台最新一代EPMR产品,容量达103艾字节[6] 二、 核心战略与市场观点 * **AI与云计算驱动增长**:公司认为AI从训练转向推理将产生大量数据,推动存储需求,对HDD未来发展非常积极[4][16] 生成式AI成为主流以及通用AI规模化,是存储需求惊人速度扩张的背景[5] * **以客户为中心的模式**:公司围绕大型超大规模客户建立专属团队,深化了技术路线图合作与需求理解[10] 与超大规模客户紧密合作,规模化交付高容量硬盘,提供最佳性能和总拥有成本(TCO)优势[2][5] * **产品组合与成本优化**:持续推动客户转向更高容量硬盘,上季度每TB成本同比下降约10%[2][3][18] 近线存储产品组合中Ultra SMR占比已超过50%,且持续提升,这是纯软件解决方案,对毛利率贡献显著[2][11] 三大主要客户已全面采用UltraSMR硬盘,还有两到三家处于技术导入阶段[11] * **长期协议(LTA)**:已与多家客户签订长期协议,最长至2028年,涵盖采购量、执行条款和价格[2][9] 2026年的产能已基本售罄,并与前七大客户签订了明确的合作协议[9] 这些协议反映了客户对公司价值(尤其是降低总体拥有成本方面)的认可和结构性转变[2][9] 三、 产品与技术进展 * **EPMR产品**:上季度出货超过350万台最新一代EPMR产品,包括26TB CMR及32TB Ultra SMR规格[2][5] EPMR产品收益率处于90%出头区间,可靠性和质量表现出色[12] * **Hammer及下一代产品**:已启动Hammer及下一代EPMR产品的认证工作[2][5] 已将Hammer认证时间提前了半年至2026年上半年,并已与一家客户启动认证,即将与第二家启动[13][17] Hammer项目已研发十年,工程进展顺利,预计2027年初开始量产爬坡[14] * **技术收购与投资**:对Collab进行战略投资,旨在推进下一代纳米制造工艺,提升量子比特性能[4][8] 收购了相关知识产权、资产及人才,以助力内部激光技术能力开发[4][5] 该激光技术能大幅减少硬盘所需物理空间并降低能耗[16] * **软件与平台**:本季度与软件生态合作伙伴推出了支持Ultra SMR的J Bot平台,将Ultra SMR技术推广至更广泛客户群体[5] 四、 财务与运营细节 * **毛利率驱动因素**:毛利率提升得益于稳定的定价环境(上季度每TB平均售价同比增长2%至3%)和持续下降的成本(每TB成本同比下降约10%)[3] 增量毛利率约为75%[3] * **资本配置**:自2025年5月宣布20亿美元股票回购授权后,已使用13亿美元资金,回购约1,300万股股票[9] 仍持有750万股闪迪(Sandisk)股票,计划在分拆一周年之前变现,可能用于进一步降低负债[9] * **资本支出**:预计按年化计算,资本支出占营收比例仍维持在4-6%区间内[15] * **成本与效率**:随着产能利用率提升和Ultra SMR产品占比增加,成本持续下降[12] 未来通过推出更高容量硬盘(包括Ultra SMR和Hammer),每TB成本有望进一步降低[18]
海光信息-澜起科技-网宿科技
2026-02-02 10:22
涉及的行业与公司 * **行业**:AI算力产业链、云计算与CDN、半导体与芯片设计、服务器与数据中心 * **公司**:海光信息、澜起科技、网宿科技、鼎通科技、中科曙光、曙光数创、飞荣达、英维克、工业富联、税友股份、科大讯飞[1][2][13] 核心观点与论据 一、 市场趋势与资本开支 * **北美资本开支高增长**:北美五大云服务提供商(CSP)2026年资本开支预计接近**7,000亿美元**,较2025年的**4,000亿美元**增长**50%**,主要基于Meta和微软的超预期数据[1][4] * **国内资本开支先抑后扬**:受H20/H200影响,2025年国内互联网资本开支放缓,但预计2026年有望达到**5,700-6,000亿人民币**[1][4] * **2027年增长潜力**:预计2027年北美资本开支仍保持**40%左右**增长,而国内因AI推理应用深化,增速有望超越海外[1][4] 二、 AI需求侧变化 * **AI推理需求爆发**:MudBot等Agent应用推动多线程任务管理和人机交互,导致流量、数据及算力消耗**指数级增长**[1][5] * **流量结构转变**:流量从人为主转向机器人主导,实现**24小时不间断**使用,一次可使用数百款APP[1][5] 三、 AI供给侧技术进展 * **服务器架构演进**:未来超级节点(超节点)技术将内存池化、高速互联并统一协议与IP,显著提高集群效率[6] * **技术普及趋势**:随着超级点技术普及和对推理性能要求提高,该技术将成为时代主要趋势[6] 四、 海光信息 * **产品进展**:深算3号已量产,支持**FP8/FP4**精度;深算4号性能预计翻倍,有望成国内最强单卡AI芯片[3][7] * **CPU性能提升**:海光4号新版本核数突破**128核**甚至达到**160核**,多线程数量增加,大幅提升AI推理效率[7] * **供应链优势与估值**:基于国产供应链进行规模化量产,在国家级重大项目中具有优势[7];其CPU估值为**9,000亿人民币**,GPU估值为**1.3万亿人民币**[3][7] * **市值预期**:2026年市值目标为**1.2万亿**,2028年预计达到**2万亿以上**[8] 五、 澜起科技 * **业务布局**:内存互联芯片(占总收入**90%**)、PCIe CXL芯片(**5%**)、与CPU和服务器相关的产品(**5%**)[10] * **技术领先与增长点**:在CXL领域取得显著进展,2022年5月发布全球首款CXL MXC芯片[10];其CXL芯片有望被谷歌下一代TPU采用,带来巨大增量市场[1][10] * **产品单价提升潜力**:PCIe Retimer和Switch产品有望显著提高单价,特别是Switch单价可能从**50美元**提升至**1,200美元**,增幅接近**20倍**[10] 六、 网宿科技 * **市场地位**:中国最大的第三方中立CDN公司,CDN业务占收入约**60%至70%**[11] * **行业机遇**:受益于谷歌云CDN涨价(北美地区价格上涨近**一倍**),预示海外市场CDN和云计算价格战趋势反转,大厂战略调整将为传统CDN厂商带来市场份额和盈利机会[1][2] * **业绩与估值潜力**:预计2026年净利润达**10亿元**,若考虑涨价因素,利润弹性极大[3][12];目前市值接近**400亿元**,若估值达30倍PE或更高,估值空间至少有**50%以上**增长潜力[12] 其他重要内容 * **近期市场表现**:2026年第一季度,海光信息市值涨幅超过**900亿元**,成为1月市值绝对值涨幅领先的A股公司;澜起科技自2025年11月20日发布深度报告以来,涨幅超过**60%**[2] * **潜在涨价压力**:自2025年底以来英特尔与AMD不断提示涨价,随着需求回升,本土AI芯片可能面临涨价压力[7] * **产业链相关公司**:除核心三家公司外,还提及鼎通科技、中科曙光、曙光数创、飞荣达、英维克、工业富联,以及应用厂商税友股份和科大讯飞值得关注[13]
NV-Rubin新架构-Agent存储最强方向-GPU-Native数据库-星环科技
2026-01-07 11:05
行业与公司 * 涉及的行业:人工智能(AI)计算与推理、数据中心存储与数据库软件、GPU硬件生态[1] * 涉及的公司:英伟达(NVIDIA)、星环科技、VAST Data、Wakanda、Cloudian、DataBricks(Databricks)[1][4][7][11] 核心观点与论据:硬件架构创新 * 英伟达在2026年CES大会上推出新型存储架构,核心是**BlueField 4与Context Memory平台**,通过DPU连接**150TB**的上下文内存,使每个GPU能高速访问**16TB**的分布式存储[1][2] * 此举旨在解决AI推理的存储瓶颈:随着上下文变长和AI agent记忆功能发展,HBM容量不足,远程访问存储服务器导致显著时延[2] * 产业趋势是**GPU取代CPU成为数据访问控制中心**,实现GPU直连SSD或HBM,以应对推理阶段高频次、小数据块的访问需求,避免GPU因CPU调度效率低下而空转[5][6] 核心观点与论据:软件生态重构 * 新型存储架构要求软件生态从以CPU为中心向以**GPU为中心**迁移[1] * 英伟达发布**NVIDIA Demo和NXL**等关键软件组件以支持开发者[4] * **传统基于CPU x86架构的数据库软件面临深度重构**,需开发**GPU native数据库**,进行引擎变化、算子优化和寻址宽度增加等改造[1][4][7] * 数据库将从AI Ready演变为**AI Native产品**,成为直接调度计算与存力资源的**数据中心级操作系统内核**[1][7] * VAST Data、Wakanda、Cloudian、DataBricks等厂商已开始将其软件迁移至GPU中心架构或推出相关解决方案[1][4][7] 核心观点与论据:市场空间与商业模式 * 高速存储访问的数据库使用费用高昂,达**2000万美元/年**,是传统数据库的**4倍**,但推理效率也提升**4倍**[2][8] * 尽管成本高,但由于性能显著提升,客户愿意买单,**DataBricks已有17%的客户**采用其相关产品(Dial Cache)[2][8] * 存储硬件架构变化将带来全新的增量软件市场,预计规模可达**1,600亿美元**[2][9] * 测算依据:每个GPU新增**2TB**存储(1TB用于高并发用户,1TB用于存储处理后的向量数据),平均每张卡对应**2万美元**数据库年费;远期假设**800万张**NV卡用于推理任务[9] * 当前以CPU为中心的数据库市场全球规模约**1,400亿美元**,预计AI推理爆发将使其翻倍至**2,800亿美元**,新增的1,600亿美元市场是增量而非替代[10] 关于星环科技的关键信息 * 公司具备强大的技术实力,其产品在**TPC官方跑分中排名全球第一**[11] * 公司董事长孙总曾任英特尔数据中心软件亚太区CTO,对AI数据库技术及外企商务关系非常了解[11] * 星环科技**已与NVIDIA中国区合作进行适配**,以加快NVIDIA芯片在AI推理时代的速度[11] * 预计在**2026年第一季度**完成与NVIDIA的软件调优和适配工作,相关信息可能在GTC大会上提及[12] * 公司面临一个**600亿市值、1,600亿美元想象空间**的新兴市场,发展前景广阔[12] 其他重要细节 * DataBricks的Dial Cache产品收费标准高达**0.55美元每分钟每GB**[7] * 英伟达的新价格策略包括为每张卡平均增加**16GB**存储[10]