Workflow
木兮500核分
icon
搜索文档
H200最新情况以及国内AI芯片格局趋势推演
2025-12-15 09:55
行业与公司 * **行业**:中国人工智能(AI)芯片行业,涉及AI训练与推理芯片、超级计算节点、半导体先进工艺[1] * **核心公司**: * **国际**:英伟达(NVIDIA)[1][2][5] * **国内**:华为(含升腾)、寒武纪、海光、阿里巴巴(含平头哥、昆仑芯)、百度(昆仑芯)、木兮、BN166等[1][2][5][8][13][16][17] 核心观点与论据 * **政策影响与市场格局**:政策限制主要影响国有企业和国资背景单位对英伟达H200的采购,民营互联网企业受限较小[1][3] 若不受政策影响,2026年英伟达H200在中国出货量预计超过200万片;若受限制,则可能降至120万片左右[2] 2026年国内AI芯片总需求预计420万片,其中国产芯片约占300万片[1][5] 若英伟达完全供货,将占据超过55%的市场份额,挤压国产芯片约120万片市场空间[1][5] * **需求驱动与结构**:互联网行业是AI芯片需求的关键驱动,采购量占国内总需求的45%-50%[1][4] 2026年,字节跳动、阿里巴巴和腾讯分别需要35万、25万和20万片高端AI芯片[4] 除互联网外,运营商和智算中心等领域需求快速增长,占整体需求的25%左右,预计未来三年在AI基础设施上的投入将高速增长,支出占比可能超过50%[1][6] * **国产芯片性能与进展**:目前国内AI芯片性能大致达到H200的60%,部分量产产品(如华为920C、BN166、木兮500核分)在理论算力上接近H100的80%,但综合性能仍有差距[1][5][7] 预计2026年将有七八家厂商推出计算能力达600-800T的产品,性能基本对标甚至超越H200,但完全超越或需等到2027年[1][7] 2025年是国产AI芯片大规模采购元年,以寒武纪和华为为代表,规模接近10万片以上,但整体需求仍高达30-50万片[2][14] * **技术生态与差距**:国内AI芯片与国外存在两代以上设计水平差距,主要受工艺限制[2][9] 若工艺问题解决,差距可缩小至一代(约3-5年)[2][9] 硬件和软件生态均有不足,长期需发展自主创新生态以降低客户适配成本[2][9] 国产芯片在大模型训练中的迁移成本和调试周期高于国际水平,功能性跑通需一两周,性能性跑通则需一两个月,且故障率是英伟达的两倍以上,预计到2027年左右才能看到显著进展[23] * **超级计算节点发展**:国内在超级计算节点方面进展显著,华为(920C超级节点,384卡全互联)、海光(640卡全交换)、阿里巴巴(平头哥128卡全交换)领先[2][8][20] 2026年,华为将推出更高维度的8,000多万卡超级节点[2][8] 其他厂商如彼岸、木兮等的超级节点大多采用PCI Switch拓展方式,成本较低但通信效率相对较低[8] * **供应链与竞争动态**:HBM及CoWos封装目前未显著影响国内AI芯片厂商稳定供货,各家公司已提前囤积了2-3倍库存[18] 在互联网巨头中,华为和寒武纪已进入10万卡以上规模供应[16] 字节跳动主要由寒武纪供应,阿里云主要面向拼多多,百度自用约六七万张卡[16] 其他重要内容 * **行业技术趋势**:摩尔定律正在逐渐失效,先进工艺最多推进到2纳米或1纳米,2025-2026年其提升效果将越来越有限[10] 未来三到五年,芯片性能提升将主要通过芯片合封(如两个GPU或GPU与CPU合封)等技术路径实现[11] 软件生态的投入(编程模型、编译器、计算库)至关重要,依赖于大型互联网或AI客户的双向驱动[11][12] * **厂商具体信息**:海光目前最好的产品是BW1,100系列(采用海外工艺),下一代计划迁移到国内先进工艺,显存从60GB升级到144GB左右,算力可能提升至600 TOPS左右[17] 国内芯片厂商对算法硬件化的理解和重视程度存在差异,背靠互联网或专注NPU架构的公司(如阿里、百度、寒武纪、华为)理解较深[13] * **市场与订单情况**:2026年推理端AI芯片需求中,字节跳动预计需求量约为20万片,其他互联网公司相对较少[15] 当前量产订单主要集中于384卡规模的超级节点,销售量达四五十套,每套近400卡[21] 超级节点技术短期内客户感知度有限,需要市场教育和推广[22] 海光与曙光并购终止对两者生态组合影响不大[23] H200若被限制,目前没有替代产品可通过正规渠道供应[23]