Workflow
算力通胀
icon
搜索文档
再论算力通胀-中美产业链区别-AI-infra产业链详解
2026-03-24 09:27
纪要涉及的行业或公司 * **行业**:人工智能基础设施(AI Infra)与算力产业链 [1] * **公司**: * **云厂商**:百度、阿里、华为、腾讯、火山引擎、金山云 [2][10][11][12] * **AI Infra平台/工具厂商**:第四范式、硅基流动、潞晨科技、商汤科技、星环科技、海天瑞声 [2][10][12] * **芯片厂商**:NVIDIA(A100, H100, H800, H200)、国产芯片厂商 [5][6][7] * **其他**:CoreWeave、Oracle、Hugging Face、Snowflake、Databricks [10][12] 核心观点与论据 * **算力通胀与Token供需逻辑**:AI应用(Coding、Agent、多模态)爆发驱动Token消耗呈指数级增长,而算力供给受物理约束呈线性扩张,导致Token供需缺口持续扩大,预示算力价格上涨及产业链持续通胀 [1][3] * **中美算力需求路径分化**: * **美国**:推理算力需求启动早(2023年下半年),预计2025年推理占比达70%,训练占30% [1][4][5] * **中国**:过去以训练为主,推理需求于2024年启动,预计2025年下半年随多模态与Agent能力提升迎来爆发 [1][5] * **算力形态演进**: * **训练侧**:向万卡、10万卡级别的大集群集中,依赖高端GPU和高速互联 [6][11] * **推理侧**:向分布式、边缘及CPU+ASIC混合架构演进,强调弹性调度和按Token计费 [1][6][11] * **中国AI Infra市场格局**:向头部云厂商(百度、阿里、华为等)收敛,其通过算力、模型与MLOps工具强绑定占据主导;垂直平台(如第四范式)在B端私有化市场具备差异化优势 [2][12] * **中国市场特有环节**:异构AI算力芯片调度平台(如“无问星穹”),核心是跨不同国产芯片及英伟达显卡进行统一管理和调度,以解决异构算力并存问题 [10] 国内算力产业链受益传导阶段 * **第一阶段(短期)**:推理需求爆发最直接利好**头部云厂商**及提供**NVIDIA算力租赁**服务的厂商,因其API调用主要依赖云厂商的NVIDIA算力基础设施(如H200) [1][6][7][14] * **第二阶段(中期)**:随企业级Agent应用和私有化部署需求增加,**国产芯片及一体机产业链**将受益 [1][7][14] * **第三阶段(长期)**:长尾开发者和轻量化应用普及,利好**端侧/边缘ASIC**等轻量化算力解决方案厂商 [1][7][14] AI Infra产业链结构详解 * **L1 芯片与硬件层**:包括GPU(NVIDIA A100/H100等)、TPU、NPU、ASIC等芯片,以及服务器、网络设备 [9] * **L2 云计算与算力平台层**:将硬件资源池化,提供弹性算力,包括公有云厂商、GPU专用云、智算中心及**异构算力调度平台** [9][10] * **L3 AI框架与运行时层**:连接硬件与上层应用的软件引擎,如TensorFlow、PyTorch、CUDA;国内有百度飞桨、华为升思 [10] * **L4 数据基础设施层**:涵盖数据采集、清洗、存储、管理,向量数据库因RAG和Agent兴起而重要,代表公司有星环科技、海天瑞声等 [10] * **L5 工具链与MLOps层**:提供模型全生命周期管理工具,包括训练框架、**推理加速引擎**(如硅基流动)、模型部署平台等,旨在优化成本与效率 [1][10][12] 推理成本制约与关键环节价值 * **推理成本成为核心制约因素**,不同推理引擎或调度引擎可能导致成本出现数倍差异 [1][12] * **L5工具链与MLOps层价值凸显**,具备**模型推理加速引擎**(如硅基流动)和**算力调度能力**的厂商将获得显著溢价 [1][11][12] 投资逻辑与市场疑虑解读 * **宏观叙事优先**:AI算力需求爆发式增长、需求远大于供给是“蛋糕做大”的第一层逻辑,决定中长期方向;供给侧格局变化是第二层逻辑,影响短期波动 [13] * **投资逻辑优先级**:由产业链上游向下游递减,越靠近前端(上游)环节,受益确定性越高 [14] * **对云厂商的疑虑**:市场关注的毛利率等问题多基于供给侧微观视角,但宏观的算力需求爆发逻辑更为重要 [13]
警惕算力通胀!超节点的好用标准该由谁定义?
半导体芯闻· 2026-03-20 18:08
文章核心观点 - 算力发展的核心问题正从追求规模转向追求与应用场景的适配性和可及性,行业存在“算力通胀”现象,即供给规模膨胀但有效支撑业务落地的算力并未同步增长[1] - 行业对“超节点”的定义趋于单一化,将其等同于千卡或万卡级大规模集群,这种技术标杆的泛化压缩了多元技术路径,导致讨论重心从“适配使用”偏移至“更大更强”[3] - AI应用广泛渗透的真正推动者是数量庞大的普通企业、传统行业及公共服务机构等“沉默的大多数”,其核心需求是算力的可部署性、稳定性和成本结构,而非极限性能[4] - “好用”的评价标准不应由技术参数或供给方单方面定义,而取决于技术能否进入广泛的应用场景并获得真实用户反馈,普及是形成有效标准的前提[5][6] - 健康的算力体系应具备层次结构,同时包含前沿超大规模集群、服务行业应用的中等规模单元及支撑创新试验的灵活形态,技术需从“少数人掌握的能力”转化为“多数人使用的工具”[8] 根据相关目录分别进行总结 算力发展现状与问题 - 算力意义发生变化,从“越多越好”的资源问题演变为“何种算力真正服务于应用”的复杂命题[1] - 出现“算力通胀”现象,即算力供给规模快速膨胀,但能有效支撑业务落地的算力并未同步增长,本质是供需结构错位[1] “超节点”概念的演变与影响 - 技术层面,“超节点”本应是提升算力组织效率的系统形态,但现实中被头部厂商和市场传播塑造成等同于千卡或万卡级超大规模集群的单一形态[3] - 大规模集群对基础模型训练和极限性能探索具有不可替代价值,但将其外推为普遍参照系后,导致行业讨论重心偏移,多元技术路径和围绕“适配性”的探索空间收窄[3] 真实算力需求侧分析 - AI应用的主要承载者是广泛的中小企业、传统行业、公共服务机构及细分领域创新团队,而非少数头部企业[4] - 这些主体的核心需求是模型在具体业务中稳定运行,算力价值体现在可部署性、稳定性与成本结构,以及根据业务逐步扩展的能力,而非一次性到达上限的配置[4] - 行业模型微调、推理服务并发处理及新模型架构的动态算力需求,均强调算力系统需具备“适配业务”而非仅“堆叠规模”的能力[4] - 行业叙事被单一标准主导,导致部分用户被高门槛阻挡,部分用户在不匹配方案中试错,有效供给稀缺[4] “好用”标准的定义与形成 - “好用”是不可被定义的指标,而是需要依赖真实场景、持续使用和广泛用户参与验证的结果[5] - 当技术仅被少数人接触和使用时,其优劣难以充分检验,评价体系易陷入以参数代替体验、以规模代替价值的误区[5] - 超节点的“好用”取决于其能否进入更广泛的应用场景,没有普及和真实反馈,“好用”就无从谈起[5][6] - 对算力通胀的警惕并非否定大规模集群,关键在于行业是否只有单一叙事而忽视了不同层次的真实需求[5] 健康算力体系的构建 - 健康的算力体系应呈现清晰层次结构,包含面向前沿探索的超大规模集群、服务行业应用的中等规模算力单元及支撑创新试验的灵活资源形态[8] - 只有当多层次结构并存,技术才能从“被少数人掌握的能力”转化为“被多数人使用的工具”[8] - “好用”标准的定义权不应在媒体或参数体系,而在更广泛的使用过程中,由用户完成最终定义,在此之前任何单一答案都需谨慎对待[8]
超节点“断层之痛”:谁偷走了中小企业的AI入场券?
傅里叶的猫· 2026-03-20 17:16
AI算力市场供需错配与断层 - 当前国产超节点市场存在显著断层,一端是8卡算力的“入门级玩具”,另一端是数百卡集群的“天价巨兽”,而最广阔的“中产阶层”算力需求处于真空地带[2] - 算力断层导致大量有业务场景的企业被迫降级妥协牺牲效率,或超前消费背上沉重算力成本包袱,供需错配正在拖慢AI产业化脚步[2] 8卡服务器的局限性 - 8卡服务器曾是AI普及的功臣,门槛低、部署快,适用于小规模、轻量级推理场景[3] - 随着千亿参数大模型和复杂MoE架构成为行业标配,8卡机器在商业化微调和推理任务中暴露显存瓶颈,仅加载参数就需要数百GB显存,8卡显存容量仅能勉强容纳模型本身[4] - 8卡服务器存在通信瓶颈,多机协同依赖外部网络导致延迟和带宽损耗,集群实际算力利用率大幅下降,在多机训练场景下线性加速比随机器数量增加急剧下滑[4] - 8卡机器并发能力有限,对于需要低延迟响应的推理业务,当数十、数百个用户同时请求时,单机易成为性能瓶颈[4] 大规模算力集群的不可及性 - 当前主流大规模超节点产品售价普遍在亿元级别,让绝大多数企业望而却步[5][6] - 一家中型互联网公司年IT预算约3000万,采购一套亿元级算力设备意味着需牺牲未来三年其他技术投入,且后续机房改造、电力扩容、运维人力等持续支出构成“隐形税”[6] - 对于大部分企业业务体量,数百卡算力是一种“奢侈浪费”,为应对峰值需求持有数百卡资源会导致大部分时间闲置,造成巨大资金占用和资源浪费[6] 32卡规格成为主流刚需门槛 - 综合行业反馈,千亿级模型商业化落地的门槛是32卡,这种规模的全参数微调通常需要数百GB显存承载参数、梯度和优化器状态[8] - 32张主流加速卡组成的算力池,显存容量足以支撑模型完整加载并为训练数据留出空间[8] - 在成本维度上,32卡规格产品可将超节点采购门槛从“亿元级”拉低至“千万级”,对于年营收数亿的中型企业是“垫垫脚能够到”的标准[8] - 32卡既能勉强支撑千亿模型训练,也能满足中等规模推理并发,对大多数垂直行业应用是“进可攻、退可守”的够用配置[8] 对弹性扩展能力的需求 - 业务是动态的,模型参数和并发量可能快速升级,一套固定算力配置很难覆盖业务全生命周期[9] - 市场共识是32卡虽是当下主流选择,但若在此基础上留出扩展空间,产品会更有吸引力[10] - 用户希望从32卡扩展到40卡或48卡,形成“32+N”的“黄金分割点”,这被视为从“够用”到“好用”的更佳区间[11] “32+N”黄金区间的优势 - 合理冗余:额外算力可作为“缓冲池”应对复杂MoE模型或突发推理需求,避免业务中断或性能下降,小幅增配能为业务升级提供保障[12] - 平滑升级:理想的扩展能力意味着企业可在不改变物理架构、不增加机柜前提下原地实现算力扩容,让系统随业务自然增长[13] - 投资保护:若一套系统能在未来2-3年内持续满足业务需求而无需频繁更换,其实际性价比将远超“刚好够用”的产品[14] 对行业“算力通胀”的警示与市场分层呼吁 - 国产超节点市场出现“算力通胀”隐忧,厂商热衷推出“参数怪兽”但忽略真实广泛用户需求,产品规格上探、价格门槛攀升,导致能落地、买得起、跑通业务的产品稀缺[15] - 此现象若持续可能导致大量中小企业和创新团队被挤出市场,算力资源进一步向头部集中,同时行业陷入“参数竞赛”内卷,忽视用户体验、交付能力等基础能力打磨[15] - 健康的算力市场应呈金字塔结构:塔尖是服务于超大规模训练的巨型集群,塔基是服务于小微企业和个人开发者的入门级产品,塔身是服务于广大成长型企业的“中产算力”[15] - 32卡尤其“32+N”黄金区间是塔身最具代表性的规格,覆盖最广、性价比最高,能帮绝大多数用户跑通场景、撑起业务[15] - 行业需要尽快构建一个功能分层、规格清晰、价格合理的成熟市场[16]
从阿里云涨价看算力通胀演绎的节奏和阶段
2026-03-20 10:27
关键要点总结 一、 行业与公司 * 涉及的行业:**人工智能(AI)算力产业链**,涵盖**上游硬件**(GPU、芯片、存储、光模块、PCB)、**中游基础设施**(IDC/数据中心、算力租赁、云服务)、**下游应用**(大模型厂商、AI应用)[1][2][5] * 涉及的公司: * **云服务商**:**阿里云**、**百度云**、腾讯云、亚马逊云科技(AWS)、谷歌云、网宿科技、优刻得、字节跳动(未明确表态)[1][2] * **大模型厂商**:**智谱AI**、Minimax、DeepSeek、OpenAI、Anthropic(Claude)[4][8][9][10] * **硬件与上游**:英伟达(GPU)、台积电、中芯国际(晶圆代工)[5][19] * **其他**:OpenRouter(API聚合商)、Devin(龙虾,Agent应用代表)[4][12] 二、 核心观点与论据 1. 算力通胀趋势确立,价格传导路径明确 * **核心观点**:算力通胀已从上游明确传导至国内主流云厂商和模型厂商,**Token价格上涨是必然趋势** [1][2] * **论据**: * **传导顺序**:2026年1月起,通胀从**GPU、存储**(甚至CPU)开始,传导至**云服务**(1月下旬亚马逊、谷歌云提价),2月国内中小云商跟进,近期**阿里云、百度云、腾讯云、智谱AI**正式宣布涨价,标志趋势确立 [2] * **传导路径**:**晶圆代工/芯片 -> IDC/算力租赁 -> 云厂商/模型厂商 -> 应用/用户**,由上游向下游传导 [1][5][21] * **驱动逻辑**:**需求指数级增长**(Coding、Agent、多模态应用) vs **供给线性增长**(上游产能受物理约束)[3][4][20] 2. 需求侧:AI应用演进是Token消耗激增的核心驱动力 * **核心观点**:大模型向**编程(Coding)、智能体(Agent)、多模态**演进,催生Token消耗量呈指数级增长 [3][4][7] * **论据**: * **AI Coding**:是目前全球AI应用中**渗透率最高**的领域,市场规模巨大(国内中期预计550-1000亿美元)[10][11] * **Agent应用**:是当前最热门方向之一,其Token消耗量**较Chatbot高100-1,000倍** [1][13] * 增长逻辑:Coding能力提升(10倍消耗增长)、Agent数量/工作时长/上下文窗口(乘数效应)、多模态应用普及 [12] * 具体原因:上下文积累、多轮循环、定时任务(7x24小时运行)、工具调用日志、多智能体协作 [14] * **多模态应用**:**视频生成**消耗巨大,如生成1秒视频约耗**2万Token**,成本约**1元**,将重塑影视工业流程 [1][17] 3. 供给侧:资本开支增长但面临多重约束 * **核心观点**:尽管资本开支增长,但受**物理约束和集群损耗**影响,**供给增速远不及需求** [18][20] * **论据**: * **资本开支**:2026年初海外主要云厂商资本开支总额预计**6300-6600亿美元**,同比增长**70%-80%**,但面临GPU产能、数据中心硬件(变压器)、电力供应等约束 [18] * **单卡性能**:新卡(如GB200相比H100)能显著降低单位Token推理成本(从1.73美元/百万Token降至0.45美元),但**新卡优先用于训练**,推理主力仍是上一代产品(如H100),存在应用滞后 [19] * **集群损耗**:业务负载率通常仅**50-60%**,国内部分可能低至**30-40%**,制约有效供给 [20] 4. 市场与商业策略变化 * **核心观点**:2026年资本市场风向转变,大模型厂商策略从**扩张转向追求盈利与轻量化** [1][8] * **论据**: * **驱动因素**:二级市场开始关注**投入产出比**,一级市场融资难度增加 [8] * **策略变化**:海外厂商在迭代旗舰模型同时,推出**性价比更高的中端及免费模型**(如GPT 5.4的Mini和Nano版本)[8] * **盈利验证**:**Coding和Agent方向**被验证具备强大盈利潜力,如Anthropic在Coding Agent领域实现**10-15个月内收入增长20倍** [9] 5. 对算力基础设施的结构性影响 * **核心观点**:Agent等应用的普及对算力基础设施产生**结构性需求变化** [15] * **论据**: * **本地/企业算力**:对个人PC/服务器显存要求提高,企业私有化部署需求将爆发 [15] * **云端算力**:需要极高吞吐率和低延迟,增加对**高速互联(光通信)、HBM和先进封装**的需求 [15] * **边缘计算**:个人/企业对边缘服务器、NAS、IoT设备需求增加 [15] * **存储**:增加对**DRAM和企业级SSD**的需求 [15] * **CPU需求**:主要增加**数据中心服务器CPU**需求(高核心密度、高I/O、低功耗),个人PC CPU需求增长感知尚不明显 [16] 6. 投资策略与市场轮动 * **核心观点**:投资应坚持 **“上游优先”** ,重仓竞争格局优、涨价确定性高的环节;市场轮动关注边际变化 [1][22][23] * **论据**: * **投资逻辑**:越靠近上游(如GPU、核心硬件),**竞争格局越集中,议价能力越强**,涨价确定性和持续性越强 [5][6][23] * **市场轮动**:近期市场焦点从GPU转向云服务,是关注**涨价向下游传导的边际变化**;未来若Token需求量再次出现指数级增长,焦点将**重新回归GPU环节**,开启新传导周期 [22] * **配置建议**:算力产业链内,**上游配置较重仓位**,下游适当减轻;短期关注涨价传导机会 [23][24] 三、 其他重要但可能被忽略的内容 * **视频生成成本具体数据**:生成一段15秒视频消耗**30.88万Token**,每分钟视频消耗约**120万Token**;生成100万个10秒短视频,总Token消耗量达**2000亿** [17] * **AI Coding能力迭代速度**:Anthropic的Claude处理代码能力从2025年7月的**1000行**,增长至11月的约**1万行**,再到2026年2月达**10万行** [10] * **Agent应用的市场热度**:Devin在OpenRouter上的Token调用量份额从2025年12月的**10%** 增长至2026年3月的**17%** [12] * **图片生成消耗对比**:每张图片大约消耗**1000个Token**,远低于视频 [17] * **IDC环节涨价预期**:目前涨价已传导至云服务和算力租赁,**IDC环节尚未明显上涨,但预计未来会跟进** [22]
【研选行业】OpenClaw爆红将如何引爆下轮算力通胀?(核心受益股一览)机构推荐算力+大模型双主线
第一财经· 2026-03-09 19:44
今日速览核心观点 - 文章核心观点围绕当前市场热点,聚焦于AI算力产业链的多个细分领域、地缘政治影响下的能源替代以及算力基础设施的协同发展,认为这些领域存在投资机会 [1] AI Agent与算力需求 - Agent时代来临,OpenClaw的爆红可能引爆下一轮算力通胀 [1] - 机构推荐算力与大模型双主线投资机会,并梳理了核心受益股 [1] AI散热材料市场前景 - AI算力驱动散热行业发生变局 [1] - 某种散热材料可能在2026年迎来产业化“0-1”的拐点 [1] - 到2030年,该材料市场空间有望冲击900亿元 [1] - 文章梳理了该领域的核心受益标的 [1] 地缘冲突与能源替代 - 地缘冲突对石油供应造成影响 [1] - 此背景下,煤化工板块的价值重估已经启动 [1] 算力与电力基础设施 - “算电协同”首次被写入政府工作报告 [1] - 算力与电力相结合的新基建领域正驶入发展快车道 [1]
行情展望-两条主线-看好国内算力需求-半导体设备
2026-02-13 10:17
纪要涉及的行业或公司 * 行业:国内算力租赁行业、半导体设备行业、云计算行业[2] * 公司:协创数据、科玛科技(或科马科技)、长川科技、中微公司[2] 核心观点与论据 行情主线与行业趋势 * 行情展望有两条主线:看好国内算力需求与半导体设备[1] * 中国大模型技术加速追赶,与美国差距可能只有几个月,引发全球算力通胀[3] * 云计算和算力租赁行业核心在于需求逻辑闭环与残值重估[2] * 云计算Token需求爆发,国内外云服务提供商业务增速普遍超预期并加速[9] * 算力租赁板块因大模型训练与推理需求持续爆发,云厂算力投入不断超预期[9] * 未来相当长时间内,GPU、CPU、存储等硬件产能释放节奏缓慢,难以匹配需求爆发,算力资源稀缺性将更为突出[10] * NV公司投资20亿美元于全球算力租赁龙头CoV5,表明市场对该领域的重视[10] 协创数据(算力租赁) * 市场明显低估了国内算力租赁赛道的需求[4] * 公司正从轻资产公司转变为重资产公司,近期发布采购110亿元服务器公告[5] * 未来几年资本开支巨大:2026年200多亿元、2027年800亿到1,000亿元、2028年1,000亿元以上[5] * 通过与阿里签订5年保价保量合同锁定未来收入,支撑巨额资本开支并获得银行贷款支持[6] * 每100亿元资本开支对应每年收入35亿到40亿元,5年租约内可产生175亿到200亿元收入,年利润空间约20%到30%,即每100亿元资本开支能新增8亿元以上利润[6] * 若2026年投入800亿元,将在2027年全年产生利润[6] * 公司计划通过港股融资进一步扩大投资规模[6] * 与闪迪、凯霞等国外存储原厂深度合作,绑定国内最大算力需求方之一,并叠加存储超级周期机会[7] * 预计未来两年公司利润空间可达150亿到200亿元[7] * 公司2026年第一季度预计资本开支达200亿元人民币,接近去年全年水平,今年全年预计累计投入可能超过800亿元人民币,大幅超出预期[10] * 公司四季度业绩指引中值为4.5亿元,根据产业跟踪实际情况或接近5亿元,同比增长接近翻倍[10] * 公司成为国内首批跑通商业模式并稳定获利的算力租赁公司[10] * 作为阿里巴巴最大的第三方训练提供商,深度嵌入阿里云生态[10] * 有望成长为市值2000亿至3,000亿元的企业[2][7],坚定看好其市值目标2000亿元以上[10] 半导体设备板块 * 板块受益于存储厂资本开支增长,但A股市场反应不足[2] * 全球半导体设备处于牛市阶段,核心逻辑是存储厂超高盈利周期带动资本开支增长[8] * 今年半导体设备板块具有全年性的趋势性机会,是产业趋势级别行情,不再是过去两三年的博弈性行情[11][16] * 两大产业逻辑支撑:1) 长鑫招股书利润超预期,带动对Kaitai及充值的判断上修,从原来的700亿美元上修至600亿美元,有50%的上浮空间,将带动产业趋势型重估行情;2) 区域化加速,fab厂要求设备厂排查日系零部件占比并评估风险,同时部分品类供不应求引起涨价[11] * 个股筛选标准:高存储敞口或增量主要来自存储;尽可能选择替代日系且国产化率较低的细分;后道测试兑现业绩情况优于前道[11] * 从空间角度看,耗材标的弹性更大[11] 科玛科技(或科马科技) * 公司半导体耗材敞口100%用于存储,目前产能每年翻倍增长[9] * 作为存储耗材龙头,核心客户包括长存、长新和拓荆[11] * 今年订单同比去年至少翻4-5倍,产能将在一季度开始陆续释放[11] * 公司陶瓷加热器市场供不应求,目前国产化率仅为5%,符合去日化加速逻辑[11] * 今年退换货比例下降,将显著影响2026年业绩表现[11] * 未来五年国内市场预计达150-200亿元人民币规模,公司作为陶瓷加热器龙头可占40%份额,对应80亿元收入和40亿元利润,仅此单品即可看到1,200亿元市值潜力[12] * 公司还在扩展静电卡盘和碳化硅套件业务,每年新增产值至少20亿元人民币,对应10亿元利润增量,总市值潜在增加300亿元左右[12] * 考虑新业务潜力,总体市值可达2000亿元水平[12] 长川科技 * 全球第三大测试设备公司[9],国内测试设备龙头[12] * 在AI需求推动下,SOC、GPU、CPU等测试机用量不断提升,同时测试难度增加使得价值量提升明显[12] * 2025年公司收入达到52至53亿元[13] * 2026年收入预计至少达80亿元,利润25亿元[4][13] * 目前市值约800亿元,对应2026年估值30至35倍PE,显著低于海外龙头爱德万(市值超9,000亿元,PE 45倍)和泰瑞达(市值3,500亿元,PE 40倍以上)[13] * 被市场显著低估,市场认知仍停留在过去,实际上公司过去两年在产品化和客户多元化方面取得显著进展[13] * 中国大陆测试机市场2025年总量约200亿元,预计三年内翻一倍以上达400至500亿元规模[14] * 基于公司在SoC、数字测试机、存储测试机及功率模拟测试机等领域的布局,其国内份额可达40%至50%[14] * 到2030年,公司预计收入体量200亿元、利润70亿元,以30倍PE计算,市值可达2000亿元[14] * 公司一季度将发定增,并承诺未来12个月不再减持[14] 中微公司 * 公司70%下游敞口为存储厂[9],是高存储敞口前道设备龙头[15] * 在武汉客户处,2025年扩产订单已达3亿美元;合肥客户处订单超过1亿美元,并有望提升至3亿美元体量[15] * 峰值年份,两大存储厂商每年扩产20至25万片,仅此两家贡献订单就能达到75亿美元[15] * 在先进逻辑领域(如7纳米),单万片资本开支达20至25亿美元,公司有望获得3至4亿美元体量订单[15] * 成熟制程领域每年稳定订单贡献也十分可观[15] * 公司收入体量可超100亿美元,以25%净利润率及25至30倍PE计算,市值目标为4,500至5,000亿元人民币[15] * 2026年目标市值预计超过3,500亿元[15] * 远期市值有1至2倍增长空间[9] 其他重要内容 * 存储超级周期高景气度预计至少持续到2027年底至2028年[10] * CoV5(全球算力租赁龙头)第二大业务存储也进入超级周期[10] * 协创数据自2025年第三季度以来积极备货,并与闪迪签署晶圆保供协议,为国内头部云厂提供企业级SSD[10] * 协创数据每个季度业绩有望大超预期[10] * 随着AI应用爆发和Token消耗指数级增长,协创数据具备丰富高端NV卡资源储备,有望迎来估值重构,实现戴维斯双击行情[10] * 今年一季度以来海外测试设备龙头爱德万与泰瑞达表现突出,泰瑞达涨幅65%,优于前道设备公司,表明后道环节先放业绩,美股投资者偏好EPS确定性高标的,同样适用于中国大陆市场[12]
未知机构:华泰科技全球大模型厂商在Coding和Agent能力上卷疯了-20260213
未知机构· 2026-02-13 10:05
纪要关键要点总结 涉及的行业与公司 * **行业**:人工智能(AI)大模型、算力基础设施、AI Agent[1] * **提及的公司**: * **算力基础设施相关**:网宿科技、深信服、优刻得、金山云、首都在线、青云科技[1] * **模型厂商**:智谱、Minimax、讯飞[1] 核心观点与论据 * **核心趋势判断**:AI Agent(智能体)在2024年爆发是确定趋势[1] * **核心驱动因素**:全球大模型厂商正激烈竞争,重点提升Coding(编程)和Agent能力[1] * **关键市场影响**:Token(大模型处理单位)的消耗量将持续非线性上涨,并导致其价格与用量齐升[1] * **贯穿全年的投资主线**:算力通胀[1] 其他重要内容 * **看好的投资环节**: 1. **算力通胀环节**:包括GPU、存储、CPU、互联及AI基础设施(AIInfra)[1] 2. **模型厂商**:看好智谱、Minimax、讯飞等公司[1]
人工智能ETF(515980)盘中涨近2%,近10日累计“吸金”9.68亿元,成分股光云科技20cm涨停!
新浪财经· 2026-01-29 10:58
市场表现与资金流向 - 截至2026年1月29日10:02,中证人工智能产业指数(931071)强势上涨2.17%,成分股光云科技20cm涨停,星环科技上涨14.85%,科大讯飞10cm涨停,吉比特、合合信息等个股跟涨 [1] - 人工智能ETF(515980)当日上涨1.83% [1] - 截至2026年1月28日,人工智能ETF最新资金净流入7431.20万元,近10个交易日内有6日资金净流入,合计“吸金”9.68亿元 [1] 行业趋势与涨价动态 - 头部云厂商密集上调算力服务价格,AI训练与推理需求激增正加速推动“云、边、端”全栈算力通胀 [1] - 谷歌于2026年1月27日宣布自5月1日起上调CDN Interconnect等数据传输服务价格,北美、欧洲、亚洲地区单价分别上涨100%、60%、42% [1] - AWS将搭载H200芯片的p5e.48xlarge实例价格上调约15% [1] - TrendForce预计2026年一季度DRAM合约价涨幅达55%-60%,服务器CPU产能已被大型云厂商基本预售一空 [2] 核心驱动力与产业链传导 - 本轮涨价核心驱动力在于AI训推带来的算力供需持续趋紧,叠加存储、CPU等上游环节价格普涨 [2] - 该趋势有望进一步向产业链中下游传导,并为算力基础设施相关公司带来显著利润弹性 [2] 海外巨头业绩与投资 - 三星电子四季度净利润19.29万亿韩元,高于分析师预期的15.08万亿韩元,四季度营业利润20.07万亿韩元,销售额93.84万亿韩元 [2] - 三星电子四季度芯片运营利润16.4万亿韩元,移动/网络运营利润1.9万亿韩元,其存储芯片业务季度收入与利润均创历史新高 [2] - SK海力士将以资本投入的方式向人工智能部门投入100亿美元 [2] 产品结构与投资逻辑 - 华富人工智能ETF(515980)以40%权重聚焦应用端、60%布局算力基础设施 [2] - 春季躁动窗口期,AI作为核心主线确定性高,全球AI浪潮由中美引领,A股是布局中国AI产业的核心阵地 [2] - 华富人工智能ETF(515980)跟踪中证人工智能产业指数,依托标的指数三层闭环编制逻辑与季度调仓紧跟产业趋势的优势 [2] - 没有股票账户的场外投资者可以选择华富人工智能ETF联接基金(A类008020,C类008021) [3]
国海证券晨会纪要-20260129
国海证券· 2026-01-29 09:05
核心观点 - 晨会纪要包含四份研究报告摘要 分别覆盖动力新科公司深度研究、宏观策略周报、金工深度研究以及AI算力事件点评 [2] - 报告核心观点包括:动力新科在剥离亏损业务后轻装上阵 AIDC电源用发动机业务有望驱动增长[3] 宏观资金面均衡偏松但ETF大幅净流出[9] 委托挂单手数蕴含选股信息并可构建有效因子[11] AI驱动算力需求激增 头部云厂商相继涨价 算力产业链正经历通胀[14][15][16] 动力新科公司深度研究 - 公司未来核心增长潜力在于AIDC电源用兆瓦级发动机、拓展上汽体系外客户、切入新能源业务以及聚焦国际化[3] - 动力新科是国内少数具备大功率大排量中高速内燃机制造能力的厂商之一 拥有菱重发动机与上柴动力双品牌覆盖[3][4] - AIDC电源用发动机行业壁垒高 需满足高功率和可连续满负载运行等条件 国内具备相关能力的厂商包括潍柴动力、玉柴机器与动力新科[4] - 菱重发动机2025年上半年净利润约1亿元 2026年产量或持续快速增长[4] - 并表的上柴动力兆瓦级vk16已投产 2026年销量或明显增长 且单台盈利能力较强[4] - 2025年12月公司完成上汽红岩重整出表 持股比例从100%降至14.66% 该业务不再纳入合并报表[5] - 出表带来33.67-34.67亿元一次性股权处置收益 预计2025年归母净利润扭亏为盈[5] - 剥离整车业务后 合并资产负债率预计较此前大幅下降并靠拢行业合理区间 母公司ROE预计呈现向上拐点[5] - 2025年新领导班子上任 提出“十五五”战略目标 计划在2025年基础上实现销量与收入双倍增长 核心聚焦新能源与国际化[6] - 新业务方向包括动力电池与电驱桥 相关产品偏向系统集成与解决方案属性 有望凭借更高毛利率潜力成为新增长引擎[6] - 公司将加大体外配套比例 提升非上汽体系市场渗透 优化产品结构与整体毛利率[6] - 预计公司2025-2027年实现营业收入60.9、67.7、76.9亿元 同比增速-6%、+11%、+14%[7] - 预计2025-2027年实现归母净利润27.9、3.0、4.6亿元 同比增速+239%、-89%、+51%[7] - 预计2025-2027年EPS分别为2.01、0.22、0.33元 对应PE估值分别为4.5、41.6、27.5倍[7] 宏观策略周报 - 2026年1月19日至1月23日 宏观资金面均衡偏松 央行通过7天逆回购净投放2295亿元[9] - 资金价格方面 短端利率与长端利率均下行 且长端下行幅度大于短端 期限利差走窄[9] - 权益基金发行显著回升 两融余额仍在高位震荡[9] - 融资净流入较多的行业为有色金属、非银金融等 融资净流出较多的行业有电子、计算机等[9] - 股票ETF净流出3331.17亿元[9] - 宽基ETF资金主要流入中证2000、科创200等指数 净流出的宽基指数主要有中证1000、沪深300[9] - 行业主题ETF中细分化工、电网设备主题等板块净流入较多 净流出较多的指数为科创AI、卫星通信[9] - 策略风格方面 红利低波资金净流入较多 净流出较多的指数为中证红利[9] - 中证A500本周净流出100.81亿元 上周净流出99.28亿元[9] - 股市资金需求端压力缓和 股权融资规模回落至56.81亿元 限售解禁规模小幅回升至595.5亿元 产业资本减持回落至145.08亿元[10] 金工深度研究报告 - 报告挖掘Level2逐笔委托数据挂单手数中的微观结构信息 构建具备选股能力的因子[11] - 挂单手数占比因子具备稳健选股能力 其中 体现机构算法拆单的1手极小单与体现大资金介入的50、100、200手大额挂单占比对股价有显著正向预测作用[11] - 带有“整数偏好”特征、反映散户过度参与的5、10、15手小额挂单占比则对股价构成负向压制[11] - 合成后的委买主要手数占比因子在2015至2025年T1-T6 VWAP RankIC为0.048 多头年化超额收益18.6% 多空年化收益30.6%[11] - 通过识别投资者参与主体构建的活跃度指标能捕获长效稳健Alpha 游资比机构挂单因子在2015-2025年RankIC为-0.032 ICIR为-0.863 多头年化超额收益10.6% 多空年化收益15.2%[12] - 纯机构标的展现出稳健的趋势性上涨潜力 而游资介入仍能提供一定的流动性支撑[12] - 投资者参与主体指标可拓展至时序维度 刻画如寒武纪(机构主导)与新易盛、农业银行及上海建工(散户追涨)等个股的资金流向差异[12][13] - 通过识别AAAA、AABB等4位数异常委托单构建的“游资股票池” 在叠加低波动与低换手逻辑过滤后形成的“游资吸筹组合”年化超额收益8.6%[13] - 引入机器学习因子增强后 年化超额收益提升至14.7% 信息比率改善至1.083[13] - 该策略在市场下行期表现出良好的净值韧性 能够有效捕捉处于低位隐蔽吸筹阶段的标的机会[13] AI算力事件点评 - 2026年1月27日 谷歌宣布自5月1日起上调其数据传输服务价格 北美地区从0.04美元/GB上调至0.08美元/GB 欧洲地区从0.05美元/GB上调至0.08美元/GB 亚洲地区从0.06美元/GB上调至0.085美元/GB[14][15] - 此前 AWS已将其EC2机器学习容量块实例p5e.48xlarge(搭载8颗H200)的每小时单价在多数区域从34.61美元上调约15%至39.80美元 其中美国西部等热门区域价格上涨至近50美元/小时[15] - 本轮云涨价核心驱动为AI训练与推理需求激增下的算力供需趋紧[15] - 腾讯、甲骨文等指出AI推理市场规模远大于训练市场 或将驱动AI云需求持续释放[15] - 微软Azure、阿里云等头部云厂商有望评估调价策略 全球云计算市场或迎来定价重整[15] - 2025年至2026年初 算力产业链正经历一轮通胀 范围覆盖存储、CPU及其他半导体芯片[16] - 存储领域 Trendforce预计2026年一季度DRAM合约价上涨55%-60% NAND合约价上涨33%-38%[16] - CPU方面 受AI挤占产能、代工厂涨价、AI Agent需求拉动 芯片巨头计划将服务器CPU产品价格上调10%-15%[16] - 2026年服务器CPU产能已基本被大型云服务商预售一空[16] - 中微半导指出受严峻供需形势影响 对MCU、Nor flash等产品进行价格上调15%至50%[16] - 产业头部厂商正通过战略投资强化生态协同 例如英伟达向CoreWeave追加投资20亿美元 支持其到2030年前增加超5GW AI基础设施[16] - 英伟达此前承诺在2032年前从CoreWeave采购超过60亿美元的服务[16] - 当前算力链供需失衡尚未见顶 成本压力或进一步向其他环节传导 形成更广泛的产业通胀效应[16] - 2025年头部AI模型厂商密集出新 包括OpenAI的GPT-5.2、Sora 2和Codex 谷歌的Gemini 3.0 Pro、Nano Banana Pro及Veo 3.1 字节的豆包1.8、Seedream 4.0等[17] - 新模型解锁更多应用场景 包括具身智能、智能硬件、巡检安防、短剧制作、漫画生成、PPT设计与海报创作等[17] - 截至2025年10月 全球企业级MaaS服务市场中 OpenAI大模型日均tokens调用量接近70万亿 谷歌大模型日均tokens调用量接近43万亿[17] - 2025年12月 字节跳动旗下豆包大模型超100家客户累计tokens调用量超1万亿 总日均tokens调用量突破50万亿 同比增长超10倍[17] - 报告维持对计算机行业的“推荐”评级[18] - 报告列出重点关注个股 涵盖云计算、CDN/MSP、边缘计算、端侧计算及云链核心上游等多个细分领域[19]
算力通胀终结者!凭一招把大模型Token成本砍到1/2
创业邦· 2026-01-28 20:58
行业核心痛点:算力通胀与效率困局 - 行业面临“算力通胀”,企业为追赶GPT-4/5能力陷入参数竞赛,但大量算力被浪费,智能效益未线性增长[2] - 大规模训练集群中,算力有效利用率仅约40%,推理场景下利用率甚至不足20%[2] - 算法迭代快(约每六个月巨变)与硬件研发周期长(两年以上)严重错位,导致针对上一代模型优化的专用芯片交付即面临淘汰,加速算力折旧[2][3] 公司战略:聚焦高质量算力 - 天数智芯提出“高质量算力”新战略,核心定义为高效率、可预期、可持续,不再单纯强调芯片峰值参数[3][5] - 公司发布架构路线图,计划在2025年至2027年间,通过天枢、天璇、天玑、天权系列架构,实现对英伟达Hopper、Blackwell及下一代Rubin架构的对标与超越[8] - 2025年推出的天枢架构,通过自研核心技术,实现算力效率较行业平均提升60%,在DeepSeek V3场景性能比英伟达Hopper架构高20%[8] 技术解决方案:提升效率与控制成本 - 通过kv cache量化与无损反量化技术,将模型推理的实际内存占用削减50%以上,降低对昂贵DDR存储的依赖[10] - 利用自研IX-SIMU软件系统,实时追踪存储市场价格,为客户推算性价比最高的硬件组合[10] - 在头部互联网客户的Chatbot场景中,其单机性能比国际方案提升一倍以上,每Token成本下降二分之一[17] - 通过提供与主流框架兼容的接口,客户仅需花费其他产品1/3的精力即可完成开发调优,降低迁移门槛[17] 产品创新:端侧算力与形态下沉 - 推出“彤央TY1000”等系列算力模组,尺寸小巧但拥有媲美云端的大算力,推动算力形态从数据中心下沉至物理世界[12][14] - 彤央系列包括TY1100、TY1100_NX及算力高达300TOPS的TY1200,旨在为具身智能和工业机器人提供强大端侧算力[14] - 在DeepSeek 32B大模型及计算机视觉场景下,彤央TY1000实测性能全面优于英伟达AGX Orin,特别是在自然语言处理上表现突出[14] 商业化应用与市场验证 - 公司已拥有300多家行业客户与1000多次实际部署,数千卡集群稳定运行超1000天[19] - 具体应用案例包括:瑞幸数千家门店的智能运营、太平金科信贷风控提效、视源科技打造的数万间智慧课堂[19] - 在金融领域,帮助研报生成效率提升70%;在医疗领域,将结构化病历生成时间缩短至30秒[18] - 公司联手多家硬件厂商和解决方案提供商,建设算力生态,旨在实现算力普惠[21]