Workflow
AI推理
icon
搜索文档
未知机构:东吴计算机无惧回调持续推荐GPUNative数据库-20260129
未知机构· 2026-01-29 10:10
涉及的公司与行业 * **公司**:星环科技[1][2][3]、海力士[2][3]、英伟达[2][3] * **行业**:GPU-Native数据库[1][2][3]、AI推理[2][3]、存储[2][3]、云服务[2][3] 核心观点与论据 * 星环科技股价回调被判断为资金交易因素,基本面未发生变化[1][2] * AI推理时代是大势所趋,GPU-Native数据库需求旺盛[2][3] * 英伟达已推出新的存储架构[2][3] * 星环科技正与英伟达紧密联合研发和调优GPU-Native数据库,且进展顺利[3] 其他重要信息 * 海力士业绩大超预期,带动美股存储板块盘前大涨[2][3] * 近期如moltbot等应用火爆,云服务出现涨价[2][3]
微软这颗芯片,撼动英伟达?
半导体行业观察· 2026-01-29 09:15
微软Maia AI加速器战略背景 - 微软是OpenAI模型的最大用户及构建GPT模型的最大计算合作伙伴,这为其打造更强大的Maia AI加速器提供了双重动力[2] - 大型云服务商及主要GenAI模型开发商(如OpenAI、Anthropic、Meta)均在开发定制AI XPU,以降低生成式AI推理的单代币成本[2] - 人工智能推理预计所需计算能力将比训练高出一个数量级,为超过一百家人工智能计算引擎初创公司创造了市场机会[2] 云服务商自研芯片的行业逻辑 - 微软等云服务商希望掌控自身硬件资源,同时保留通用x86 CPU及英伟达/AMD GPU以满足客户租用需求[3] - 云服务商通过自研计算引擎并以低于第三方产品的价格竞争,旨在减少对传统芯片供应商的依赖[3] - 类似逻辑也适用于亚马逊AWS、谷歌、百度、阿里巴巴、腾讯等自行设计CPU和XPU的公司[3] - Meta Platforms虽非严格意义上的基础设施云,但通过出租硬件运行Llama模型API,正成为面向主权国家的GenAI平台云[3] Maia 100 (Athena) 芯片设计与性能 - 芯片发布于2023年11月,设计初衷是支持AI训练和推理,并专门用于运行OpenAI的GPT模型[4] - 芯片采用台积电5纳米工艺,面积820平方毫米,晶体管数量1050亿个[12] - 计算引擎包含64个核心(推测良率下有效核心数可能为52-56个),运行频率约2.86 GHz[12] - 芯片上L1/L2缓存总容量约500MB,SRAM带宽估计为132 TB/秒[12] - 配备4组HBM2E内存,总容量64GB,带宽1.8 TB/秒[12] - 每个核心的张量单元支持微软特有的MX6(6位)和MX9(9位)数据格式[13] - 互连I/O带宽为12个400 Gb/s端口,总计4,800 Gb/s(600 GB/s)[14] - 网络设计支持构建包含576个节点、总计2304个计算引擎的集群域[19] - 芯片峰值热设计功耗(TDP)为700瓦,持续功耗为500瓦[20] Maia 200 (Braga) 芯片的升级与改进 - 芯片于2026年1月发布,专门针对AI推理任务,简化了设计[5] - 采用台积电N3P(3纳米高性能版)工艺,面积836平方毫米,晶体管数量1440亿个[21] - 核心数量增至96个,良率约92%,主流产品预计有88个可用核心[20][22] - 运行频率提升至3.10 GHz[20] - L1/L2缓存SRAM容量降至272MB,SRAM带宽降至80 TB/秒[20] - HBM内存升级为6组HBM3E,总容量216GB,带宽大幅提升至7 TB/秒[20][22] - 后端网络带宽提升至56个400 Gb/s端口,总计22.4 Tb/s(2.8 TB/s)[20][21] - 主机互连升级为PCI-Express 5.0 x16,带宽64 GB/秒[20] - 集群相干域规模扩大,支持最多1536个节点和6144个计算引擎[19][20] - 性能方面,FP4精度达10.15 petaflops,FP8精度达5.07 petaflops,BF16精度达1.27 petaflops[20][24] - 持续热设计功耗(TDP)为750瓦[20] - 张量单元仅支持FP4和FP8格式,向量单元支持BF16和FP32,不再支持Maia 100特有的MX6/MX9格式[13] Maia 200的部署与应用 - 首批Maia 200机架已部署在美国中部的Azure云区域(爱荷华州得梅因),美国西部3区域(亚利桑那州凤凰城)也将跟进[26] - 微软将使用Maia 200计算引擎为OpenAI GPT-5.2大型语言模型提供推理服务,驱动Microsoft Foundry AI平台及Office 365 Copilot[26] - 微软的AI研究人员还将使用Maia 200生成合成数据,用于训练内部模型[26] - 目前尚未有关于Azure何时会提供基于Maia 200的虚拟机实例供租用的消息[26]
曦望发布启望S3推理成本较上一代降约90%,押注「极致性价比」GPU与算力新范式
IPO早知道· 2026-01-29 08:15
行业背景与公司战略定位 - AI产业正从“训练驱动”转向“推理驱动”,推理阶段更强调长期交付能力、单位成本和系统稳定性 [2] - 公司(曦望)的战略是围绕推理场景,构建“芯片+系统+生态”的整体布局,而非仅销售芯片 [2] - 公司希望通过推理算力体系的系统性创新,助力AI应用实现规模化落地与可持续增长 [3] 新一代推理芯片“启望S3”的核心性能 - 启望S3是一款面向大模型推理深度定制的GPGPU芯片,定位为“All-in 推理” [4][5] - 相比上一代产品,S3在典型推理场景下的整体性价比提升超过10倍 [5] - S3支持从FP16到FP4的精度自由切换,以提升低精度推理效率 [5] - S3在国内GPGPU产品中率先采用LPDDR6显存方案,显存容量较上一代提升4倍,缓解大模型推理的显存瓶颈 [5] - 在DeepSeek V3/R1满血版等主流大模型推理场景中,S3的单位Token推理成本较上一代降低约90%,实现“百万Token一分钱” [5] 围绕S3构建的算力产品体系 - 公司已构建与CUDA兼容的基础软件体系,支持推理应用低成本迁移,相关能力已覆盖ModelScope平台90%以上的主流大模型形态 [6] - 公司发布了面向大模型推理的寰望SC3-256超节点方案,可适配千亿、万亿级参数的多模态MoE推理场景 [6] - 寰望SC3采用全液冷设计,在同等算力规模下,整体交付成本控制在千万元级别,较行业内同类亿元级方案降低一个数量级 [6] - 公司推出了覆盖PCIe、OAM模组、一体机及AI计算集群在内的S3产品矩阵,覆盖从单机推理到大规模集群部署的多样化需求 [6] 推理云生态与交付模式创新 - 公司推出共建推理云计划,旨在将推理算力从“设备能力”转化为可标准化、可规模化的服务能力 [7][8] - 共建推理云以启望S3为底座,通过GPU池化与弹性调度整合算力资源,以MaaS(Model as a Service)为核心入口提供开箱即用的服务 [9] - 该推理云在千卡级集群场景下可用性达到99.95%,横向扩展效率超过95% [9] - 公司联合商汤科技、第四范式等生态伙伴发起“百万Token一分钱”推理成本计划,标志着大模型推理正从“技术可行”走向“经济可行” [9] 市场进展与产业合作 - 2025年,公司专注于推理GPU的芯片交付量已突破万片 [2][3] - 公司与浙江大学签署战略合作协议,联合成立“智能计算联合研发中心”,围绕光互连GPU超节点架构、计算光刻及AI气象预测等前沿方向展开研究 [10] - 公司与中交信科集团、杭钢数字科技、浙江算力科技、三一集团、协鑫科技等企业达成战略合作,推动推理算力在交通、制造、医疗等行业的落地应用 [10]
云天励飞陈宁:AI推理爆发带动全球产业进入“中国时刻”
上海证券报· 2026-01-27 03:16
行业趋势:AI发展重心由训练转向推理 - 2026年是AI发展核心推动力由AI训练转向AI推理的转折之年,是未来五年AI应用大规模落地的开端[3] - 2025年相当于互联网时代的“iPhone时刻”,2026年将是未来五年大规模AI应用落地的开端[5] - 随着AI应用大规模落地,AI推理市场将进入一个指数级增长的时代,其增速和规模将远超过往的AI训练[6] 市场前景:AI推理市场规模巨大 - 保守估计,到2030年,全球AI训练的算力市场会达到1万亿美元的规模,而全球AI推理市场的规模将会达到4万亿美元至5万亿美元的规模[6] - AI推理计算将增长超过10亿倍[6] - 博通2024财年AI收入同比大增220%至122亿美元,2025财年达200亿美元,同比增长超65%,目前在手订单达730亿美元[7] 竞争格局:中国在AI应用时代的优势 - 随着AI进入应用爆发期,全球AI产业将进入“中国时刻”的新发展阶段[9] - 中国发展AI应用的优势包括丰富的互联网应用场景、数据资源以及强大的工程化能力[9] - 中国拥有全球最为齐全的工业门类和全球最大量的工程师群体,两者协同将产生最为丰富的AI应用场景及解决方案[10] 公司战略:云天励飞聚焦AI推理芯片 - 公司瞄准并等待AI推理市场,从早期的行业解决方案,到大模型时代的标准硬件及服务,再到当前发力的AI推理芯片[3][12] - 公司经历了AlexNet带动的小模型时代、以ChatGPT为代表的大模型时代,并进入到当前的算力驱动阶段[12] - 公司构建了包括AI算法、云天天书大模型、AI芯片和AI应用及解决方案在内的完整数据飞轮[12] 产品与技术:云天励飞的芯片路线与目标 - 公司目标是在三年内,将百万token的综合推理成本压缩到1分钱[4][11] - 评估AI推理芯片公司的重点不是看其芯片架构或技术路线,而是看其是否能让用户获得更低成本的token[4] - 公司全新的第五代AI芯片Nova500采用GPNPU架构,研发正在有序推进中[11] - 公司的GPNPU架构可理解为“中国版TPU”,在统一技术架构下融合了三方面技术优势:GPU的可编程性和生态兼容、“算法芯片化”理念、以及存算一体和3D堆叠等先进封装技术[12] 应用落地:AI应用渗透加速 - 到2027年,全球80%以上的企业都会有业务运行在大模型之上;到2030年,全球范围内AI的智能总和将超越全人类[5] - 公司已将AI大模型应用到公司的研发、销售与管理等全业务链条中[5] - 随着推理算力市场爆发,公司推理芯片的出货量将迎来增长拐点,互联网大厂、运营商及AI初创公司的需求都在快速增长[13]
美股异动 | 金山云(KC.US)盘前涨6% 星流平台完成战略升级
智通财经网· 2026-01-26 22:24
公司战略与产品动态 - 金山云高级副总裁宣布,其智算平台“金山云星流”已完成从资源管理平台向一站式AI训推全流程平台的战略升级 [1] - 升级后的平台构建了从异构资源调度、训练任务故障自愈到机器人行业应用支撑、模型API服务商业化落地的全链路闭环 [1] - 金山云星流平台通过提升平台效率、突破行业边界、加速推理布局的三维进阶,为迎接AI应用爆发做准备 [1] 行业市场前景 - 麦肯锡报告预测,2028年全球AI推理市场规模将达到1500亿美元 [1] - 2025年至2028年,全球AI推理市场复合年增长率预计将超过40% [1] - 智算作为承接AI推理需求爆发的核心基础设施,将迎来前所未有的市场增量空间 [1] 市场反应与机构观点 - 消息发布后,金山云(KC.US)在美股盘前交易中上涨6%,股价报13.08美元 [1] - 申万宏源认为,AI对业务的拉动作用与生态协同效应将在未来持续释放 [1]
研报掘金丨国海证券:维持澜起科技“买入”评级,或受益于CPU与GPU比例的提升
格隆汇APP· 2026-01-26 16:32
公司业绩与预测 - 澜起科技预计2025年归母净利润同比增长52.29%至66.46% [1] - 公司互连类芯片出货量预计将增加 [1] 行业趋势与市场机遇 - AI推理在扩大HBM、DRAM需求的同时,也提高了对CPU的要求 [1] - 当GPU频繁访问DDR内存时,CPU的并发请求需求将增加,其对GPU和内存资源管理的要求也将提高 [1] - AMD预计其人工智能服务器CPU市场将从2025年的约82亿美元增长到2030年的约300亿美元 [1] - 澜起科技互连类芯片需求,或受益于CPU与GPU比例的提升 [1] 公司技术与竞争地位 - 内存互联技术持续迭代 [1] - 澜起科技的Retimer芯片市场份额位居全球前二 [1] - 公司深度布局CXL技术 [1] 投资观点 - 公司有望受益于AI时代对内存互连芯片需求的增加 [1] - 维持对澜起科技的“买入”评级 [1]
AI推理刚需,NAND“周期更长更稳”!摩根大通:本轮主角是eSSD,铠侠成为首选
华尔街见闻· 2026-01-26 11:34
文章核心观点 - AI推理浪潮正驱动NAND闪存行业进入一个由企业级SSD需求引领的全新超级周期,其增长逻辑从强周期大宗商品转变为高增长的AI基础设施资产,市场对此存在严重低估 [1] 行业增长逻辑与市场前景 - NAND行业潜在市场规模年均复合增长率将从过去多年的7%-12%区间,在2025-2027年跳涨至34%,迎来断层式增长 [3] - 本轮增长呈现“量价齐升”的罕见共振,2026年NAND混合平均销售价格预计同比大幅上涨40%,2027年价格预计仅微跌2%,维持高位运行 [3] - 市场对存储股的定价正从“周期属性”转向“AI成长属性”,自2025年1月以来全球存储板块市值已激增242%,且重估远未结束 [6] AI推理驱动eSSD成为核心需求 - 在AI推理阶段,企业级固态硬盘的重要性不亚于HBM高带宽内存,是AI的“隐形基石” [7] - AI推理的核心是延迟与上下文,需要从海量参数中快速检索,这对外部存储提出了极高要求 [10] - KV Cache Offloading技术突破允许将GPU显存中的中间状态数据卸载到外部存储,eSSD因此演变为AI计算系统中的“二级内存” [8][9] - 2024年eSSD的比特出货量同比增长了惊人的86%,增速水平上一次出现是在2012年 [11] - AI服务器单机存储容量需求预计达70TB以上,是通用服务器的3倍以上,到2027年eSSD将占据全球NAND比特需求的48%,成为第一大需求支柱 [11] HDD供应瓶颈与QLC替代机遇 - 机械硬盘供给出现危机,大容量近线HDD交货周期已长达2年,且供应极度短缺 [14][15] - HDD厂商因过去几年市场低迷大幅削减资本开支,无法在短期内扩产以满足AI带来的数据存储需求井喷 [15] - HDD缺货迫使数据中心客户转向NAND闪存,为QLC闪存提供了绝佳的上位机会,尽管其价格是HDD的6-8倍 [16] - SSD在“业务关键型”存储领域的渗透率仅为19%,未来替代HDD空间巨大,其渗透率每提升1个百分点将为NAND行业带来约20亿美元的增量收入 [16] 供给侧结构性限制与资本开支克制 - 未来三年NAND行业资本开支占销售额的比例预计将降至15%-16%,远低于过去十年30%-50%及2018年68%峰值的水平 [20] - 供给侧表现出前所未有的克制,产能扩张受技术瓶颈严重制约,而非简单的资本开支驱动 [19][20] - 技术瓶颈包括:堆叠层数突破300/400层后刻蚀难度指数级上升、晶圆翘曲问题以及混合键合技术的高门槛和高成本 [23] - 2026年全球NAND晶圆产出同比增速预计仅为3%,供应增长几乎完全依赖技术升级,在比特需求21%的增速下将导致全年供不应求 [24] 主要厂商竞争力分析与投资排序 - **铠侠**:被列为亚洲首选标的,因其独特的CBA架构能实现极高的I/O速度,完美契合AI推理需求,且作为纯NAND厂商最能直接享受涨价红利,其服务器业务营收占比预计将从2023年的20%飙升至2027年的61% [26][34] - **SK海力士**:被长期看好,其子公司Solidigm在QLC技术及超大容量eSSD市场拥有极强定价权,且公司是唯一同时在AI训练和AI推理两端占据主导地位的厂商 [27][34] - **三星电子**:被视为短期补涨标的,正在加速QLC技术量产以夺回市场份额,其服务器业务占比预计将从2023年的29%提升至2027年的66%,估值具有修复空间 [28][34] - **美光科技**:采取差异化策略,用232层TLC技术竞争QLC市场,预计将持续受益于美国本土数据中心的强劲需求 [29]
金山云大涨超9%,金山云星流平台完成战略升级
金融界· 2026-01-26 10:07
公司战略与产品升级 - 金山云智算平台“金山云星流”已完成从资源管理平台向一站式AI训推全流程平台的战略升级 [1] - 该平台提供从模型开发、训练到推理的完整生命周期管理,具备开发、训练、推理和数据处理四大模块能力 [1] - 平台旨在通过降低多模块协同复杂度,实现“开箱即用”的AI开发体验 [1] 财务与业务表现 - 公司智算云业务2023年第三季度账单收入达7.8亿元,同比增速近120% [1] - 业务增长主要受益于行业内具身智能场景及AI推理场景的爆发 [1] - 来自小米金山生态的贡献显著,2025年上半年相关收入占年度关联交易总额的40% [1] - 除小米金山生态基本盘外,金山云的外部客户用量也在齐增 [1] 市场反应 - 金山云股价于1月26日早盘大涨超9%,最高触及7.05港元 [1]
港股异动|金山云大涨超9%,金山云星流平台完成战略升级
格隆汇· 2026-01-26 09:56
公司股价与市场反应 - 金山云股价大幅上涨超过9%,最高触及7.05港元 [1] 公司战略与产品升级 - 金山云宣布其智算平台“金山云星流”已完成从资源管理平台向一站式AI训推全流程平台的战略升级 [1] - 该平台提供从模型开发、训练到推理的完整生命周期管理,具备开发、训练、推理和数据处理四大模块能力 [1] - 平台通过降低多模块协同复杂度,旨在实现“开箱即用”的AI开发体验 [1] 业务表现与财务数据 - 公司智算云业务在第三季度的账单收入达到7.8亿元人民币,同比增长速度接近120% [1] - 业务增长主要受益于行业内具身智能场景及AI推理场景的爆发 [1] 客户生态与收入构成 - 来自小米金山生态的贡献显著,2025年上半年相关收入占公司年度关联交易总额的40% [1] - 除了小米金山生态这一基本盘,金山云的外部客户用量也在同步增长 [1]
爱芯元智通过港交所聆讯:或成「中国边缘AI芯片第一股」,营收复合年增207%
IPO早知道· 2026-01-25 20:18
公司概况与市场地位 - 公司是全球第五大视觉端侧AI推理芯片供应商,并在计算能力不低于1 TOPS的中高端视觉端侧AI推理芯片领域排名全球第一,市场占有率为24.1% [8] - 公司是中国第二大国产智能驾驶SoC供应商(按2024年售出的智能汽车SoC安装量计算),同时也是中国第三大边缘AI推理芯片供应商(按2024年出货量计算) [8][9] - 公司成立于2019年,专注为边缘计算与终端设备AI应用打造高性能感知与计算平台,或将成为“中国边缘AI芯片第一股” [4] 核心技术与产品 - 公司采用“技术通用、芯片专用”策略,核心技术底座包括自研的“爱芯智眸AI-ISP”和“爱芯通元混合精度NPU” [5] - 爱芯通元混合精度NPU采用多线程异构多核架构,能原生支持CNN、BEV、Transformer等多种网络结构,适配DeepSeek、Qwen等主流大模型 [6] - 公司已独立开发并商业化五代SoC(AX630A、AX620A、AX650N、AX620E及AX520C系列),涵盖数十种类型,应用于视觉终端计算、智能汽车和边缘计算AI推理 [8] 运营与财务表现 - 截至2025年9月30日,公司自成立以来累计交付SoC突破1.65亿颗,其中视觉终端计算SoC累计出货量超过1.57亿颗 [8] - 2024年,公司终端计算SoC与边缘计算SoC销售相较2023年分别显著增长约69%和400% [8] - 2022年至2024年,公司营收分别为0.50亿元、2.30亿元和4.73亿元,复合年增长率高达206.8%;2025年前三季度营收同比增至2.69亿元 [12] 行业前景与增长潜力 - 全球边缘及终端AI推理芯片市场规模预计将从2024年的3,792亿元以27.3%的复合年增长率增至2030年的16,123亿元 [10] - 至2030年,视觉终端计算、智能驾驶和边缘推理的全球市场规模预计将分别达到75亿元、1,146亿元和7,262亿元 [10] - 公司已商业化并售出超过51.8万颗智能汽车SoC,预计至2025年年底其智能汽车芯片累计出货量将接近100万颗 [8] 发展战略与资本运作 - 公司已获得韦豪创芯、启明创投、美团、腾讯等众多知名机构及地方国资的投资,IPO前韦豪创芯和启明创投是两大持股超10%的机构投资方 [12] - IPO募集资金净额将主要用于优化现有技术平台、研发项目、销售扩张、股权投资或收购以整合上下游资源,以及补充营运资金 [12]