Workflow
大模型需要什么芯片?Transformer发明人最新预测
半导体行业观察·2025-09-09 09:02

人工智能硬件需求增长 - 计算能力提升直接驱动大模型性能改进 更高FLOPS和更多参数带来更好准确性[6][11] - 训练规模从2015年32块GPU扩展到当前数十万块GPU级别[8] - 推理工作负载占比将在未来达到80% 超越训练成为主导需求[15] 数据中心资本支出爆发 - 人工智能基础设施支出预计未来五年达3-4万亿美元[12] - OpenAI年度经常性收入从2025年初50亿美元翻倍至年中100亿美元以上[14] - Anthropic年度经常性收入从10亿美元增长5倍至50亿美元[14] 内存技术革新 - HBM存储器带宽比DDR DRAM高10倍成本 采用16层堆叠技术[21] - 内存设备概念兴起 单个节点可提供18TB DDR5 DRAM[24] - 智能键值缓存分配策略提升tokens/美元价值[22] 网络架构升级 - 超立方体互连支持最多8,192个TPU动态连接[34] - 共封装光学器件降低功耗 使10公里距离带宽翻倍[35] - Tomahawk Ultra交换机提供512个100G-PAM4端口[29] 行业生态演变 - 三巨头每年购买英伟达GPU超100亿美元 同时开发自研加速器[17] - UALink规范支持非英伟达生态连接1,024个GPU[30] - 扩散大模型技术使AMD GPU获得性能提升机会[17] 应用场景分化 - 企业级定制模型兴起 博世等公司构建专用LLM替代通用模型[16] - 客服岗位被AI替代 Salesforce削减4,000个职位[15] - 90%企业AI实验失败 但快速学习者将获得竞争优势[15]