专用集成电路 (ASIC)
搜索文档
巨头入局玻璃基板
半导体行业观察· 2025-10-01 08:32
文章核心观点 - 特斯拉和苹果正在探索引入半导体玻璃基板技术 此举被视为应对人工智能需求增长、提升半导体及数据中心性能的关键举措 两家全球领先科技公司的潜在采用预计将对行业产生重大影响 [2] 玻璃基板技术概况与行业动态 - 玻璃基板相比传统塑料基板翘曲度更小 更易于实现微电路 被视为下一代半导体基板 有望提升数据处理速度和半导体性能 [2] - 除特斯拉和苹果外 英特尔、AMD、三星电子、亚马逊(AWS)和博通等公司也都在积极推进玻璃基板的引入 [2] 特斯拉的探索与潜在应用 - 特斯拉对玻璃基板的兴趣受人工智能驱动 其正推进电动汽车自动驾驶和人形机器人的商业化 高性能半导体对此至关重要 [3] - 特斯拉将玻璃基板视为实现下一代半导体的关键技术 正在密切关注其发展趋势 有猜测认为该技术可能被纳入特斯拉的自动驾驶(FSD)芯片中 [3] 苹果的探索与潜在应用 - 苹果探索玻璃基板旨在发展人工智能技术 目标被认为是实现以iPhone为中心的人工智能服务 [3] - 苹果预计将在其人工智能基础设施(包括服务器和数据中心)中使用玻璃基板 [3] - 苹果正与博通合作开发专用集成电路(ASIC) 博通已积极推动玻璃基板应用并测试了原型 苹果是否在其ASIC中使用玻璃基板尚待观察 [3] 合作进展与市场展望 - 特斯拉和苹果近期与一家准备玻璃基板的制造商会面 了解了技术并讨论了合作计划 双方表达了广泛的兴趣 但尚未达成具体合同或技术合作 [2] - 苹果公司高管还拜访了拥有相关工艺技术的设备供应商以深入了解玻璃基板技术 [2] - 行业人士指出 积极推动玻璃基板的博通正在为多家大型科技公司开发ASIC芯片 玻璃基板市场有望进一步扩大 [3]
2025 年,半导体需求强劲
半导体行业观察· 2025-03-13 09:34
全球半导体市场增长预测 - 2025年全球半导体市场预计增长9.5%,主要受数据中心服务及人工智能需求驱动 [1] - 预测值低于WSTS的11.2%、IDC的15%和Gartner的12.7%,但略高于ASML的9%长期增长预期 [1][2] - 逻辑微芯片预计增长16.8%,内存微芯片增长13.4%,成熟技术半导体呈低个位数增长 [2] 行业分化趋势 - 人工智能和数据中心领域增长强劲,而个人电脑、智能手机和汽车等传统领域增长停滞 [1] - 欧洲制造商因未聚焦尖端技术,可能无法充分受益于行业增长 [2] - 超大规模数据中心2024年半导体支出达1120亿美元,几乎是前一年的两倍 [5] 细分市场表现 **智能手机领域** - 不再是半导体收入增长主要驱动力,iPhone 16相比前代仅小幅升级且AI功能未达预期 [3] - 高端产品可能推动三星和苹果收入增长,但整体市场贡献有限 [3][4] **汽车半导体领域** - 长期增长趋势受电动汽车普及推动,但2025年全球汽车市场预计仅增长1.6% [4] - 电动汽车销量预计增长19%,中国市场份额将接近50% [4] - 供应链库存调整需约一年稳定,中国供应过剩导致价格压力 [4] **人工智能与数据中心** - AMD 2024年AI芯片收入超50亿美元,预计2025年实现"强劲两位数"增长 [5] - 台积电预计AI加速器收入五年CAGR接近40%,高于整体收入20%的CAGR预期 [5] - 数据中心运营商推动定制ASIC芯片开发,可能侵蚀AMD和英特尔市场份额 [6] 技术发展与风险 - 高带宽内存需求强劲,但Deepseek证明先进AI模型可用更少内存芯片运行 [2][6] - 内存领域产能扩张及中国价格压力可能抑制增长 [2] - 台积电和ASIC设计公司(如Broadcom、Marvel)将受益于定制芯片生产需求 [6]
AI芯片的双刃剑
半导体行业观察· 2025-02-28 11:08
软件编程与人工智能建模的范式转变 - 传统软件编程依赖明确的指令代码,适合确定性场景但缺乏动态适应能力[2] - AI软件建模通过数据训练学习模式,使用概率推理处理不确定性,模型复杂度体现在参数规模而非代码量[3] - 高级AI模型如LLM包含数千亿至数万亿参数,依赖多维矩阵数学运算,每个时钟周期并行处理所有参数[3] 处理硬件的影响 - CPU采用串行执行架构,多核多线程提升并行性但仍无法满足AI模型的并行需求[4] - 高端CPU计算能力达几GigaFLOPS,内存带宽峰值500GB/s,内存容量达TB级[5] - GPU提供PetaFLOPS级性能,比CPU高两个数量级,但运行GPT-4时效率可能降至理论峰值的5%[6] - GPU高功耗引发可持续性问题,专用AI加速器(如ASIC)在计算效率和能耗上更具优势[7] AI加速器的关键属性与挑战 - 关键指标包括批处理大小和token吞吐量,需平衡延迟与吞吐量需求[8] - 大批量提升吞吐量但增加内存带宽压力,实时应用(如自动驾驶)需批量大小为1以最小化延迟[12] - 连续批处理技术动态添加输入,减少延迟并提升整体效率[13] - Token吞吐量依赖计算效率和数据移动优化,需首次token输出时间最短[14][15] 内存与计算瓶颈 - 内存带宽是主要瓶颈,大批量导致缓存未命中及访问延迟增加[9][19] - 高带宽内存(HBM3)和智能片上缓存可缓解内存瓶颈[21] - LLM依赖并行矩阵运算和注意力机制,计算瓶颈需专用硬件(如矩阵乘法单元)和混合精度计算(FP8)解决[19][22] 优化方向 - 硬件创新包括类似寄存器的缓存结构、专用加速器设计及高效数据流架构[21][22] - 软件优化涵盖定制化内核、梯度检查点减少内存占用、管道并行提升吞吐量[23] - 混合精度计算在保持模型精度前提下降低内存带宽需求和计算开销[22] 行业技术趋势 - Transformer架构需每个token关注全部历史token,增量Transformer按序计算token提升流式推理效率但增加内存需求[16] - 不规则token模式和自回归模型依赖可能导致硬件管道停滞,需优化调度策略[17] - AI加速器仍处早期阶段,需结合内存架构创新与数据流优化以突破性能限制[18][20][24]