文章核心观点 - 人工智能革命仍在早期阶段,半导体是其中创新最迅猛的领域之一,2026年芯片和AI加速器领域将迎来关键发展趋势 [1] 2026年半导体与AI加速器发展趋势 1. 定制芯片(ASIC)与系统竞争 - 2026年将成为ASIC加速的关键节点,预计自主研发的芯片出货量将超过通用GPU(GPU)[1] - 超大规模数据中心运营商为保持竞争力将超额投入,定制芯片成为维持利润的唯一可行途径 [1] - 谷歌TPU v7、亚马逊Inferentia/Trainium、微软Maia/Cobalt、Meta MTIA以及OpenAI与博通联合设计的加速器都将达到量产规模,从而降低对英伟达的依赖 [1][3] - 竞争焦点将从芯片转向系统,浮点运算性能不再是唯一标准,互连、内存和编译器将决定最终性能表现 [1] - NVLink Fusion和定制交换机ASIC正在重塑集群规模的拓扑结构,软件锁定(编排和编译器)将成为新的护城河 [1] 2. 半导体制造技术演进 - 半导体行业正经历指数级变革,驱动力包括复杂性增长、新兴技术和全球需求变化 [2] - 预计到2025年,先进工艺节点将达到2纳米,研究目标是实现埃级精度 [2] - 2026年,3D封装、量子计算和人工智能加速器等创新技术将塑造下一代芯片 [2] - 人工智能驱动的虚拟孪生仿真和基于模型的系统工程(MBSE)方法将使企业能够以数字化方式优化设计、面向可制造性进行设计、减少对物理原型的依赖并提高系统性能 [2] 3. 算力获取模式转变 - 随着对推理级GPU计算的需求激增,企业将不再自行管理集群,而是采用按需GPU服务 [2] - 无服务器GPU模型将实现动态扩展,降低运维成本,并使高性能计算的获取更加普及,这种转变将成为各种规模企业开展生成式AI(GenAI)工作负载的标准基础设施方案 [2] 4. 市场格局与成本趋势 - 英伟达在AI芯片市场占据主导地位,市场份额估计约为90%,鉴于其生态系统和软件栈,在2026年仍将占据主导地位 [2][3] - AMD在MI400系列发布和ROCm成熟后可能会变得更具竞争力,但能否成功执行其战略尚待观察 [3] - GPU价格呈下降趋势,但AI工作负载量不断增长,AI模型规模也越来越大,这意味着AI基础设施总成本将继续攀升 [3] - 2026年AI定价最终将取决于供需平衡,尽管硬件成本下降,但获取GPU供应仍然不容易,这直接影响AI定价 [3] - HBM和GPU供应紧张将推高云AI的价格,欧洲方面已暗示将在2026年初迎来价格上涨 [1] 5. 互连技术成为关键 - 高速互连对于在现代超大规模数据中心中实现AI/机器学习工作负载所需的速度和密度至关重要 [3] - 数据中心内主要计算单元(如GPU和AI加速器)之间的通信需要结合高速背板和板对板解决方案,这些解决方案专为224Gbps PAM-4速度设计,同时还需要高速可插拔I/O连接器以支持高达400/800Gbps的聚合速度,并提供通往1.6T的路径 [3][4] - 共封装光器件(CPO)对于在AI驱动架构中处理GPU间的互连至关重要,它直接在芯片边缘提供超高带宽密度,从而在降低功耗和电信号损耗的同时实现更高的互连密度 [4] - CPO是专门为满足超大规模数据中心和AI/ML集群的巨大功率和带宽需求而开发的,预计未来一年对其关注度将进一步提升 [4] 6. 市场规模预测 - 2025年全球半导体销售额增长22.5%,达到7720亿美元 [5] - 世界半导体贸易统计(WSTS)预测,到2026年全球半导体销售额将增长26%,达到9750亿美元 [5] - 部分分析师预测全球芯片销售额年均增长率将达到30%,超过1万亿美元 [5] - 到2030年,人工智能数据中心市场规模可能增长至1.2万亿美元,年增长率达38% [5] - 其中大部分增长(9000亿美元)将来自人工智能加速芯片,例如图形处理器(GPU)和定制处理器 [5]
半导体,最新预测