Workflow
Feynman 芯片
icon
搜索文档
计算机事件点评:英伟达 GTC 前瞻:或将推出 LPU 核心 AI 推理系统
国海证券· 2026-03-08 23:10
报告行业投资评级 - 行业评级:推荐(维持)[1] 报告核心观点 - 英伟达计划在2026年GTC大会上推出基于LPU架构的全新AI推理芯片系统,标志着AI算力需求正从训练侧向推理侧加速转移,这将为国产AI芯片及硬件产业链带来确定性的发展机遇[4][5][8] 事件与核心产品分析 - **事件**:2026年3月5日,CIME国际液冷散热技术公众号指出,英伟达计划于3月16日开幕的GTC大会上推出一款全新AI推理芯片系统,核心芯片预计融合其收购的Groq的LPU架构技术[4] - **GTC大会核心议程**:预计涵盖新一代AI加速芯片(如Vera Rubin平台及首发台积电1.6纳米制程的Feynman芯片)、Agent系统、CUDA架构、高性能推理、物理AI及量子计算等关键领域[5] - **LPU推理系统细节**:系统为整机架级推理方案,单机架可能搭载256个LPU单元,分布于32个服务器托盘上,每个托盘配置8颗LPU芯片,整体面向规模化、低延迟推理场景[5] 技术架构与优势 - **推理瓶颈**:在基于GPU的推理架构中,模型参数存放于HBM,计算核心与HBM间频繁的数据搬运影响了decode阶段的时效性,而decode时延是决定用户推理体验的关键[6] - **LPU技术优势**:Groq LPU专为推理加速设计,采用离计算核心更近的SRAM存储模型参数,其230MB片上SRAM可提供高达80TB/s的内存带宽,数据处理速度远超GPU架构[6] - **分布式策略**:Groq采用分布式推理策略,建立千卡互联集群,每张卡仅存储并计算模型的一小部分,最后聚合输出,从而更好地适配低延迟推理场景[6][7] 行业趋势与市场机遇 - **算力需求结构转移**:随着Agent应用爆发,全球算力需求重心正从训练转向推理。据彭博社,2025年训练成本占大型云计算公司数据中心支出的40%以上,但到2032年,这一比例将降至14%左右[8] - **服务器市场结构变化**:IDC指出,到2028年,中国非GPU服务器的市场规模占比将逼近50%,结构转型趋势明确[8] - **海外订单印证趋势**:海外模型厂商正达成大规模推理芯片订单,如OpenAI与Cerebras签署数十亿美元订单,Anthropic、Meta分别与谷歌签订210亿美元、数十亿美元的TPU合作协议,Meta与AMD也达成大规模推理芯片合作[8] - **国产化机遇**:国产模型(如DeepSeek V4)正加速转向本土算力方案(如昇腾、寒武纪平台),国内推理基础设施市场建设或已进入加速期,国内AI芯片厂商有望迎来广阔增长机遇[8] 投资策略与重点关注领域 - **投资逻辑**:随着大模型加速进化、Agent应用大规模普及,推理端市场需求有望进一步释放,维持对计算机行业“推荐”评级[8] - **重点关注个股**: - **AI芯片**:海光信息、寒武纪、芯原股份、沐曦股份、摩尔线程、壁仞科技、天数智芯[8] - **CPU**:海光信息、龙芯中科、中国长城(飞腾信息)[8] - **连接**:澜起科技、盛科通信、锐捷网络、华工科技、华丰科技[8] - **服务器**:中科曙光、浪潮信息、华勤技术、紫光股份、工业富联、软通动力、神州数码、中兴通讯、中国长城[8] - **液冷**:曙光数创、英维克、飞荣达、鼎通科技、高澜股份等[8]
AI 上游涨价延续,中国大模型调用量首超美国
国金证券· 2026-03-05 08:45
报告行业投资评级 报告未明确给出行业投资评级 报告的核心观点 AI需求旺盛,上游供给紧张,涨价蔓延,硬件、模型、应用端均呈现积极信号,今年或将是国产算力链加速向上的元年 [9] 根据相关目录分别进行总结 一、产业前沿 AI 基础层:高端 GPU供给紧张,存储、云服务等环节涨价 - 美国“星际之门”AI数据中心项目进展缓慢,OpenAI因融资困难转向重度依赖云伙伴合作模式 [13] - 全球高端GPU(如B200、A100、H100)实时可用率持续大幅下滑,创下历史新低或多年最低水平,主因市场需求激增 [14][15] - 云计算定价迎来战略转折点,亚马逊AWS部分服务涨价约15%,谷歌云上调全球数据传输价格,国内厂商优刻得宣布全系云产品与服务价格上浮 [16][17] - 存储芯片市场供给严重短缺,苹果以高价采购NAND Flash和DRAM,后者接受三星报价涨价100% [17] - 中国芯片制造商计划在两年内将尖端工艺(7nm/5nm级)芯片产量提高五倍,以满足国内AI需求,中芯国际是主要参与者 [17] AI 模型层:OpenAI融资1100亿美元,中国模型调用量首次超过美国 - OpenAI宣布获得1100亿美元新投资,公司估值达7300亿美元,投资方包括软银、英伟达和亚马逊 [18] - OpenAI与亚马逊签署战略合作协议,将在现有380亿美元多年期协议基础上,未来8年内追加1000亿美元合作规模,并共同创建有状态运行时环境 [18][19] - 2026年2月9日至15日当周,中国模型的API调用量为4.12万亿Token,首次超过美国模型的2.94万亿Token,2月16日当周中国模型调用量进一步冲高至5.16万亿Token [20] - 全球调用量前五的模型中,中国占据四席,分别为MiniMax M2.5、月之暗面Kimi K2.5、智谱GLM-5以及DeepSeek V3.2 [20] - 中国模型通过采用“混合专家”架构等技术大幅降低推理成本 [21] - DeepSeek在重大模型更新前,未向英伟达、AMD等美国芯片商提供早期访问,转而与华为等国内供应商合作适配 [21] AI 应用层:Gemini和Claude活跃度上升,Anthropic推出智能体AI工具 - 海外聊天助手应用中,Gemini和Claude活跃度持续上升 [22] - Anthropic推出旨在实现人力资源、投资银行等领域工作自动化的智能体AI工具Claude Cowork [22] 二、资本风向 AI 基础层:英伟达25Q4财报良好,Meta将使用AMD、Google的AI芯片 - 英伟达2025年第四季度营收680亿美元,同比增长73%,数据中心收入620亿美元,同比增长75% [24] - 英伟达第四季度GAAP毛利率为75%,网络业务收入110亿美元,同比增长超过3.5倍 [24][25] - 英伟达给出2026年第一季度营收指引780亿美元,超市场预期 [24] - NVIDIA GTC 2026大会将首次公开下一代Feynman芯片,该芯片将搭载全球首款台积电1.6nm制程工艺 [27] - AMD与Meta签署多年协议,将提供高达6吉瓦的AI算力,协议金额或达数百亿至上千亿美元 [28][35] - Meta已与谷歌达成价值“数十亿美元”的协议,将在未来数年租用谷歌TPU开发新AI模型 [30] - 谷歌正通过金融化方式(如与投资机构成立合资公司)加速TPU外部租赁业务,目标获取相当于英伟达年收入约10%的份额(英伟达过去12个月收入约2000亿美元) [30] - 中芯国际正在研发“类5纳米”的N+3制程,已用于生产华为最新移动处理器和昇腾AI芯片 [31] - 中际旭创2025年全年收入382.40亿元,第四季度收入132.35亿元,同比增长102% [32] AI 模型层:Google推出Nano Banana2,千问位列中国企业模型市场第一 - 谷歌推出基于Gemini 3.1 Flash Image架构的Nano Banana2图像生成模型,输出分辨率提升至4K [33] - 2025年下半年,中国企业级大模型日均调用量中,阿里千问占比32.1%位列第一,较上半年17.7%的占比几乎翻倍 [33] AI 应用层:千问预计将陆续发布AI眼镜、AI指环、AI耳机等产品 - 阿里千问将在2026年世界移动通信大会上发布AI眼镜,并计划在年内陆续发布AI指环、AI耳机等产品 [35] - 阿里云Coding Plan订阅服务新增支持千问3.5、GLM-4.7、Kimi-K2.5等编程模型 [34] 三、 本周观点 - 英伟达第四季度业绩及第一季度指引均超预期 [35] - 全球算力需求持续增长,中国模型调用量首次超过美国,硬件端中国芯片制造商计划大幅扩产 [35] - 今年或将是国产算力链加速向上的元年 [9][35] 四、产业链数据更新 - 覆铜板涨价、拉货紧张程度继续升级,行业保持高景气度 [35] - 台系电子铜箔、电子玻纤布、覆铜板、PCB厂商月度营收同比增速数据更新(具体数据见图表) [36][38]