Workflow
算力访存比
icon
搜索文档
推理需求爆发,国产芯片从“堆算力”转向系统协同
第一财经· 2026-01-27 20:00
行业趋势与共识 - 大模型行业经过2025年发展已形成共识,推理需求将以复合倍速增长,行业需要高性能、高性价比的芯片 [3] - AI应用场景发生变化,多模态需求爆发,智能体需要高频响应与实时交互,物理AI也在加速落地 [3] - 行业成本结构改变,推理成本已从“元级”压到“分级”,未来AI会像水电一样成为普惠基础设施 [3] - 每当百万token的成本降低一半,市场上AI应用数量会显著增长,算力市场的繁荣度也将呈倍数级提升 [5] 公司战略与产品发布 - 曦望公司于1月27日发布第三代推理GPU芯片启望S3,设定目标是将百万token成本打到一分钱 [3] - 公司战略专注推理方向,预计到2030年,推理芯片将占到公司资源分配的80% [3] - 截至目前,曦望已发布三款芯片:云边端视觉推理专用的S1、对标英伟达A100的训推一体芯片S2,以及最新的推理芯片S3 [3] - 公司认为先将推理做到极致能够在商业上形成优势,这是战略定力问题 [3] - 曦望同时发布了AI算力平台,以自研芯片为底座,与多家大模型进行适配,从系统侧提高芯片利用效率 [4] 技术挑战与竞争焦点 - 训推一体芯片存在三大困境:成本高昂且供应不稳定、能耗惊人、部署运维复杂 [4] - 芯片行业竞争核心从“堆算力”转变,随着推理算力需求爆发,“内存墙”逐渐成为芯片性能的主要瓶颈 [4] - 计算单元算力提升速度远快于访存带宽提升速度,导致大多数芯片的纸面算力无法在实际场景中释放,这一矛盾在推理芯片中尤为突出 [4] - 未来合理的算力访存比才是芯片竞争的关键,该指标是衡量芯片算力与数据传输能力匹配度的核心 [4] - 英伟达创始人提出从单芯片优化升级为系统级协同设计的方案,以应对挑战 [4] 产业生态与国产算力定位 - 以DeepSeek为代表的大模型公司,不仅会做大模型,也会牵引框架变化,带动从模型架构到算子开发、推理系统的全链路技术创新 [4] - 大模型公司正推动框架适配新计算范式与跨硬件部署,试图摆脱对英伟达CUDA生态的依赖 [4] - 国产芯片定位越来越准确,从最初盲目追求与国际高性能算力比肩,转变为在追求性能的同时也追求极致成本 [5] - 国产算力正处于一个非常有利的位置 [1][5]