Workflow
晶圆级集成技术
icon
搜索文档
晶圆级芯片,是未来
36氪· 2025-06-30 07:49
大模型算力需求与硬件挑战 - 大模型参数规模已达万亿级别,计算能力需求两年内增长1000倍,远超硬件迭代速度 [1] - GPU集群面临两大瓶颈:单芯片物理尺寸限制晶体管数量,多芯片互联时数据传输延迟与带宽损耗导致性能无法线性增长 [1] - 当前AI训练硬件分为两大阵营:晶圆级集成专用加速器(如Cerebras WSE-3/Tesla Dojo)和传统GPU集群(如英伟达H100) [1] 晶圆级芯片技术突破 - 传统芯片受限于曝光窗尺寸(最大单Die约858mm²),晶圆级芯片通过不切割晶圆实现高密度互连,算力集群占地面积缩小10-20倍,功耗降低30%以上 [2][3] - Cerebras WSE-3采用台积电5nm工艺,集成4万亿晶体管/90万AI核心/44GB缓存,支持1.2PB片外内存,单片面积46,225mm² [6][8] - 特斯拉Dojo采用Chiplet路线,25颗D1芯粒集成在晶圆基板上,单芯粒645mm²含500亿晶体管,单Dojo系统算力达9Petaflops [10] 性能指标对比 - **计算性能**:WSE-3 FP16精度达125PFLOPS,Dojo单Tile 362TFLOPS(BF16),H100单芯片60TFLOPS(FP64) [13] - **内存带宽**:WSE-3达21PB/s,Dojo单Tile 900GB/s,H100 3.35TB/s [13] - **延迟优化**:WSE-3单片架构降低通信延迟10倍,Dojo芯片间延迟100纳秒,H100依赖NVLink但延迟仍高于晶圆级系统 [16] 应用场景与成本分析 - **专用性**:WSE-3擅长超大规模模型训练(如24万亿参数),Dojo针对自动驾驶视频流优化,H100通用性更强 [14][15][16] - **成本结构**:Dojo单系统3-5亿美元,WSE-3单系统200-300万美元,英伟达H100单芯片成本显著更低但长期运营能耗高 [18] - **扩展性**:晶圆级芯片面临可扩展性限制与高制造成本,GPU集群在初期部署成本上更具优势 [17][19] 行业技术演进方向 - 晶圆级芯片代表当前最高算力节点集成密度,英伟达NVL72通过提升GPU集群密度间接向该方向靠拢 [20] - 晶圆级技术路线分化:Cerebras采用单片集成,特斯拉选择Chiplet+先进封装,两者均规避传统GPU的互联瓶颈 [10][13][20]
深度|对话Cerebras CEO:3-5年后我们对Transformer依赖程度将降低,英伟达市占率将降至50-60%
Z Potentials· 2025-04-06 12:55
AI对芯片需求的改变 - AI运算的核心挑战在于海量简单计算伴随频繁数据转移 传统芯片架构在内存带宽和通信效率上存在瓶颈[4][5] - 生成式推理对内存带宽提出极高要求 例如700亿参数模型生成单个词需移动140GB数据[5] - 晶圆级集成技术突破SRAM容量限制 单个晶圆即可承载4000亿参数模型 相比传统方案需4000枚芯片的复杂度实现数量级提升[6][7] 技术架构创新 - Cerebras采用晶圆级SRAM阵列 相比HBM方案在推理效率上具有显著优势 第三方测试显示其保持多个模型的最快推理记录[9][10][11] - 独创冗余tile设计解决晶圆良品率难题 实现70年来首个完整晶圆交付 良品率甚至超越传统小芯片厂商[12][13] - 架构设计针对不同场景优化:批处理任务优先成本控制 交互场景追求极致延迟 如将45秒响应缩短至毫秒级可显著改善用户体验[14][15] 行业发展趋势 - 推理市场呈现"三增长"特征:用户数×使用频率×单次算力需求同步爆发 未来五年规模或超当前100倍[16][19] - 2024年末AI应用完成从"新奇玩具"到"工作流必备"的转变 普通用户依赖度推动市场质变[18] - 算法效率存在巨大优化空间 当前GPU推理利用率仅5%-7% 未来通过芯片能效提升+算法改进可实现同等功耗下更高输出[23][24] 竞争格局分析 - 推理领域不存在CUDA生态锁定效应 用户可快速切换不同硬件平台 英伟达护城河主要来自市场主导地位而非技术不可替代性[36][37] - 硬件领域资本密集度构成天然壁垒 预计五年后英伟达训练领域保持优势但推理市占率降至50%-60%[38][39] - 模型公司短期高估值源于不确定性溢价 长期将回归盈利能力评估 硬件供应商企业价值可能持续领先[40] 技术突破方向 - Transformer架构存在二次计算缺陷 未来3-5年内将被基于状态的新架构取代 注意力机制仍有改进空间[32] - 合成数据填补高危场景训练空白 如自动驾驶中的暴雪天气无保护左转等极端情况模拟[26] - 传感器端毫瓦级推理芯片将成为机器人技术基石 虽单芯片价值低但出货量潜力巨大[63] 企业战略部署 - Cerebras通过G42合作积累三大能力:超大规模算力部署经验 软件集群验证 供应链产能跃升 该订单规模超10亿美元[42][46] - 选择IPO的核心考量包括行业首批上市企业溢价 以及满足大客户对合作方透明度的要求[45] - 技术不对称优势是应对竞争的关键 晶圆级集成方案目前全球独家 良品率控制技术构筑壁垒[12][37]