Workflow
AI芯片
icon
搜索文档
腾讯系AI芯片独角兽冲刺科创板
21世纪经济报道· 2026-01-27 07:18
IPO申报与募资计划 - 公司科创板IPO申请于1月22日获受理,保荐机构为中信证券,成为近期又一家拟上市的国产AI芯片头部企业 [1] - 公司计划公开发行新股不低于4303.52万股且不超过6835.00万股,占发行后总股本比例不低于10%且不超过15% [1] - 公司计划募集资金约60亿元,用于基于五代和六代AI芯片系列产品的研发及产业化项目,以及先进人工智能软硬件协同创新项目 [1] - 截至2025年8月,公司估值为182亿元 [1] 股权结构与实际控制 - 公司无单一控股股东,联合创始人兼CEO赵立东与联合创始人张亚林为共同实际控制人 [2] - 两位实际控制人通过直接持股及员工持股平台,合计控制公司28.1%的表决权 [2] - 腾讯科技及其一致行动人苏州湃益合计持有公司20.26%股份,为第一大股东 [4] 业务与客户关系 - 公司与腾讯在业务和资本层面深度绑定,被视为“腾讯系”AI芯片独角兽 [4] - 双方合作始于2020年,公司第一代训练芯片“邃思1.0”已在腾讯云上线使用,2021年腾讯发布的AI推理芯片“紫霄”为双方联合研发成果 [4] - 2025年前三季度,公司对前五大客户的销售收入合计占比达96.41%,其中直接对腾讯科技(深圳)的销售收入占比为57.28% [5] - 若合并计算指定最终客户为腾讯的收入,2025年前三季度公司对腾讯的关联销售金额占营业收入比例高达71.84% [5] - 公司预计未来一定时期内对腾讯销售占比较高的情形仍将持续 [5] - 公司近年来积极拓展由政府主导的智算中心项目,密集布局“东数西算”节点 [5] - 2024年,公司智算系统及集群业务收入占比一度达到56.24% [5] 财务表现与研发投入 - 2022年至2024年,公司研发费用分别为9.88亿元、12.29亿元和13.12亿元,三年合计35.29亿元 [6] - 2022年至2024年,公司研发费用占同期营收的比例超过316% [6] - 2022年至2024年,公司扣除非经常性损益后归母净亏损分别为11.50亿元、15.67亿元和15.03亿元 [6][7] - 2022年至2024年,公司经营活动产生的现金流量净额分别为-9.87亿元、-12.09亿元和-17.98亿元 [7] - 2025年前三季度,公司营收为5.40亿元,扣非后归母净亏损为9.12亿元,经营活动产生的现金流量净额为-7.70亿元 [7] - 公司预计,在国际贸易摩擦等外部环境不发生重大变化的前提下,其达到盈亏平衡点的预期时间最早为2026年 [7] 技术路线与产品策略 - 公司选择建设自有芯片生态供应链,强调面向训练与推理的专用AI加速器体系,而非兼容英伟达CUDA生态的GPGPU技术路线 [8] - 公司核心技术体系涵盖芯片及硬件、软件及编程平台和算力集群方案三大类 [8] - 在软件平台层面,公司自研了全栈AI计算及编程软件平台“驭算TopsRider”,未跟随英伟达主导的CUDA生态 [8] - 2024年,中国AI加速卡整体出货规模超270万张,其中英伟达出货量约190万张,市场份额约70% [9] - 2024年,公司AI加速卡及模组销售量为3.88万张,对应中国AI加速卡市场的占有率约1.4% [9] - 2025年7月,公司发布第四代训推一体芯片邃思400,原生支持FP8低精度算力 [10] - 基于邃思400构建的L600训推一体加速模组支持单层最多128卡全互联拓扑,可应用于超大规模大模型预训练与高并行推理 [10] 创始团队背景 - 公司创始团队带有鲜明的“AMD系”色彩 [1] - 联合创始人兼CEO赵立东曾任紫光集团副总裁,并在AMD任职7年,历任计算事业部高级总监等职务 [1] - 联合创始人张亚林同样出身AMD,曾任资深芯片经理及中国研发中心技术总监 [1]
GPU vs ASIC的推理成本对比
傅里叶的猫· 2026-01-26 22:42
文章核心观点 - AI芯片的竞争核心已从单纯性能比拼转向“性价比”的较量,特别是推理阶段的成本控制成为关键指标,直接影响AI应用的商业化落地和芯片厂商的市场份额[5][6] - 高盛通过构建“推理成本曲线”分析,量化了GPU与ASIC两类芯片的竞争态势,为理解技术路线优劣和行业竞争提供了清晰框架[5][6] - 短期内英伟达凭借其产品迭代速度、CUDA软件生态及全栈式创新维持领导地位,但中长期ASIC凭借定制化在成本控制上的潜力不容忽视,而网络、内存、封装三大相邻技术的创新将成为打破竞争格局的关键变量[10][12][15][17][18] 一、推理成本成AI芯片竞争关键 - AI芯片的竞争焦点是“性价比”,推理成本控制是重中之重,关系到AI应用商业化可行性和芯片厂商市场份额归属[6] - 高盛通过对比英伟达、AMD的商用GPU与谷歌TPU、亚马逊Trainium等定制化ASIC,构建了跨周期推理成本曲线,显示各类芯片成本均呈下降趋势,但不同厂商降幅和竞争态势差异显著[6] 二、头部玩家的竞争态势与差距 (一)谷歌/博通TPU:快速追赶的有力竞争者 - 从TPU v6到TPU v7,其每百万token的推理成本下降了约70%,目前成本与英伟达旗舰GB200 NVL72相当甚至略有优势[9] - 谷歌已将TPU广泛用于内部工作负载(包括Gemini大模型训练),且Anthropic与博通签订了价值210亿美元的TPU订单,预计2026年年中交付[9] - 对于具备定制化开发能力的企业,TPU正成为英伟达GPU之外的重要选择[9] (二)英伟达:优势稳固的行业领导者 - 英伟达维持领导地位依靠两大核心优势:一是“上市时间”优势,保持年度产品迭代(如GB300 NVL72已出货,VR200 NVL72计划2026年下半年交付);二是CUDA软件生态构建的深厚护城河,客户迁移成本高昂[10] - 公司在研发投入上远超竞争对手,并通过Mellanox业务在网络领域占据强势地位,近期推出的上下文内存存储控制器展现了内存技术创新能力,这些优势使其加速器市场领先地位短期内难以被撼动[12] (三)AMD与亚马逊Trainium:暂处落后的追赶者 - AMD和亚马逊Trainium目前在推理成本竞争中处于落后位置,报告估算其代际成本降幅仅约30%,绝对成本明显不及英伟达GPU和谷歌TPU[12] - 市场亮点在于:AMD计划在2026年下半年推出基于MI455X的Helios机架解决方案,据称其训练和推理性能将对标英伟达VR200,并有望实现约70%的推理成本下降;亚马逊Trainium 3&4据传将修复Trainium 2的性能短板,性能有望显著提升[12] - 后续关键在于能否兑现技术承诺,通过产品迭代缩小差距,并争取更多超大规模云客户和主流AI企业的认可[13] 三、技术趋势 - 随着计算芯片接近掩模限制,未来AI芯片性能提升和成本下降将主要依赖网络、内存和封装三大相邻技术的创新突破[15] - 网络技术方面,通过扩展以太网提升系统带宽,实现更多GPU协同工作成为行业共识[15] - 内存技术方面,HBM与NAND闪存集成持续深化,英伟达的上下文内存存储控制器是典型案例,有效提升了训练和推理效率[15] - 封装技术方面,台积电的CoWoS技术已实现两颗GPU芯片封装整合,英伟达计划2027年推出的Rubin-Ultra将集成四颗GPU芯片,同时CPO和机架级高密度集成技术也在快速发展[17] - 英伟达和博通在这些技术领域已占据先发优势:博通凭借领先的以太网网络和SERDES能力成为AI网络核心受益者;英伟达通过全栈式创新在硬件、软件、网络、内存等多环节形成协同优势[17] 四、四大场景下的行业演化路径 - 高盛勾勒了AI行业未来发展的四大潜在场景,不同场景下GPU与ASIC竞争格局将呈现不同特征,但ASIC在各类场景中均有望获得不同程度的发展[18] - **场景一:企业与消费级AI应用普及有限**。若AI仅在编码、后台流程自动化等少数场景落地,行业资本支出将趋于温和,应用场景的稳定性将加速ASIC的采用[18] - **场景二:消费级AI持续增长,企业级AI进展有限**。训练市场重要性凸显,英伟达有望维持训练领域主导地位;随着工作负载逐渐静态化并集中于超大规模云厂商,ASIC市场份额将逐步提升[18] - **场景三:消费级AI增长,企业级AI温和渗透**。英伟达能凭借训练市场优势巩固地位,企业级市场增量需求将带来更多收入机会,ASIC也将在特定场景中稳步拓展[18] - **场景四:消费级与企业级AI全面强劲增长**。这是最乐观场景,随着多媒体模型、物理AI等应用扩展,LLM提供商和初创企业有望盈利,训练强度保持高位。英伟达将充分受益于训练市场的垄断地位,其“上市时间”和CUDA生态护城河进一步强化;ASIC虽能受益于工作负载规模扩大,但市场份额增长速度相对平缓[18]
ASMPT宣布计划剥离SMT业务 聚焦半导体业务
证券日报· 2026-01-26 21:45
公司战略评估与业务调整 - 全球半导体封装设备龙头ASMPT正评估旗下表面贴装技术业务选项,可能涉及出售、合营、分拆或上市 [2] - 公司计划通过剥离海外非半导体业务,全面聚焦于半导体核心领域,以优化资产结构 [4] - 剥离SMT业务旨在释放现金流和管理精力,计划投入到半导体封装主业的研发竞赛中 [4] 业务历史与市场地位 - 2011年,ASMPT通过巨额收购将西门子的SMT业务收入囊中,成为全球SMT设备头部企业,并开辟了庞大的汽车电子与消费电子市场 [4] - SMT业务主要服务于传统PCB组装,而面向AI芯片的先进封装设备属于技术密集型产业 [4] 核心技术产品与市场机遇 - ASMPT的热压键合与混合键合技术,是制造HBM等AI核心存储器的关键工艺,也是提升芯片互连密度、突破算力瓶颈的重要路径 [4] - 战略调整背后是对中国市场的信心,中国是全球最大的半导体消费市场及AI应用落地前沿战场 [5] 预期影响与市场观点 - 剥离SMT后,公司资产结构将变得极其清晰,估值逻辑更易于锚定 [5] - 此次调整不仅是做减法,更是为了在未来算力争霸赛中做乘法 [4]
金价十年涨四倍,钻戒身价却暴跌,两者为何背道而驰
第一财经· 2026-01-26 20:37
黄金与钻石市场表现背离 - 过去十年间,黄金价格涨幅接近4倍,不断刷新历史高点[1] - 同期钻石价格指数自高位回落超过45%[1] - 2025年全年,0.5克拉钻石价格跌幅超过20%,3克拉以上钻石价格也录得0.4%的微跌[4] - 国内资本市场反馈直接,头部钻石品牌股价较历史峰值蒸发逾八成,而A股黄金龙头市值已突破万亿元大关[1] 黄金市场表现 - 伦敦金现价格自2015年约1000美元/盎司低点起步,近期已历史性地突破5100美元/盎司[4] - 紫金矿业于1月6日市值一度突破1万亿元大关,2025年全年股价涨幅高达135.77%[7] - 包括中国黄金、湖南黄金、山东黄金在内的多家主要黄金企业,2025年股价均实现了显著上涨[7] 钻石市场表现 - 国际钻石交易所钻石指数从2022年阶段性高点158下探至目前86.08附近[4] - 钻石巨头戴比尔斯在2025年首场拍卖会中大幅下调0.75克拉以上毛坯钻售价,近五年已多次调价,去年底将毛坯钻石价格下调10%至15%,创历史最大降幅[4] - DR钻戒母公司迪阿股份股价较历史峰值累计下跌超过80%[7] 钻石市场分化的具体表现 - 贬值最为严重的是过去婚庆市场中销量最大的0.5克拉及以下的入门级小钻戒,其二手价格与回收价值下跌显著[5] - 1克拉以上、品质较高的钻石价格表现相对坚挺[5] - 钻石回收价值低,有案例显示8年前近2万元的钻戒回收价不足400元,而同期购入的黄金首饰市值已超7万元[3] 钻石市场供需关系逆转 - 需求端:天然钻石最大的传统市场之一婚庆需求在全球范围内降温,日本2023年结婚对数低于50万对,韩国婚姻登记数连续11年减少[9] - 黄金牛市分流了对于钻石的消费[9] - 供给端:戴比尔斯过去垄断全球九成钻石供应,但随着全球多地发现大型钻石矿藏,其垄断性下降[9] - 人工培育钻石异军突起,价格仅为天然钻石的1/10到1/5,且关键物理性质一致,肉眼无法分辨[9] 培育钻石产业发展 - 培育钻石产能扩张速度极快,只需几周时间就能实现批量生产,对传统钻石供应体系形成直接冲击[10] - 2025年中国培育钻石市场规模约140亿元,预计到2030年将超过1025亿元[10] - 全球培育钻石毛坯产能约4000万克拉,中国产能约2520万克拉,占比约63%[10] 黄金市场未来驱动因素 - 全球货币与债务担忧使黄金受益,美国债务总额已突破38.5万亿美元[12] - 市场普遍认为2026年美联储将降息两次,利率中枢持续回落有望提升黄金的金融属性与估值弹性[12] - 有观点提示已积累涨幅较高,不排除短期内技术性回调[13] 钻石市场未来前景 - 培育钻石行业内部已出现激烈竞争与利润率收缩迹象,力量钻石2025年上半年培育钻石营业收入同比下降25.87%,毛利率同比下滑78.23%[13] - 消费领域培育钻石受印度CVD产能释放冲击,毛坯钻价格持续下探[13] - 新的增长空间正在出现,钻石散热市场应用于AI芯片,据测算市场空间区间为75亿元至1500亿元[14] - 天然钻石长期价值受稀缺性、需求增长及全球经济发展支撑,开采量持续减少将为未来价格稳定增长提供保障[14]
ASML:别忘了 DUV 光刻机,评级 “跑赢大盘”
2026-01-26 10:49
涉及的公司与行业 * **公司**:ASML Holding NV (ASML.NA / ASML) [1] * **行业**:欧洲半导体行业,具体为半导体设备,特别是光刻机领域 [1] 核心观点与论据 * **核心观点**:市场过度关注EUV,而低估了DUV的增长潜力,认为两者应协同增长 [3] * **论据**:在先进逻辑和DRAM产能扩张加速的背景下,EUV出货量的增加必然伴随着配对的DUV出货量增加 [3] * **论据**:预计未来两年光刻设备资本支出中DUV与EUV的比例将大致为50:50 [3] * **论据**:市场共识预期明年EUV收入增长23亿欧元而DUV收入下降10亿欧元,这在方向上是不一致的 [3] * **核心观点**:中国市场的DUV需求具有韧性,收入不会大幅下滑 [4] * **论据**:中国正在大力扩张先进逻辑产能以支持本土AI芯片生产,预计未来3年产能将增长6倍 [4] * **论据**:由于中国尚无法自产DUV或EUV设备,需要购买更多DUV设备 [4] * **论据**:修订后的预测显示,中国DUV收入明年将大致持平,而非下降 [4] * **核心观点**:上调ASML的营收和盈利预测,并提高目标价,维持“跑赢大盘”评级 [5][6] * **论据**:主要因更高的DUV销售(2027年上调22亿欧元)和部分EUV销售,预计2026年营收增长16%,2027年增长17% [5] * **论据**:将2027年每股收益(EPS)预测上调至39.7欧元,较市场共识高出16% [5] * **论据**:基于35倍市盈率(P/E),将目标价上调至1400欧元 [5] * **论据**:ASML相对于其他半导体设备(SPE)公司的估值仍处于低谷 [5] 其他重要内容 * **产能扩张驱动**:先进逻辑和DRAM的产能扩张正在加速,主要由异常强劲的AI需求驱动 [13] * **具体数据**:预计DRAM总产能将从2024年的150万片晶圆/月(Mwpm)增至2027年的220万片晶圆/月 [15] * **具体数据**:SK海力士(HBM市场领导者)预计在2024-2027E期间产能复合年增长率(CAGR)为17%,三星为10%,美光为6% [15] * **各细分市场DUV强度分析**: * **DRAM**:在最新的1c节点,EUV贡献降至50%,DUV仍占50% [15];在1a和1b节点,DUV分别占70%和59% [15] * **先进逻辑**:光刻强度从10nm的约20%大幅提升至5nm和3nm的35%以上 [16];DUV贡献相对较小,约20% [3];尽管DUV曝光次数减少,但估计每10万片晶圆/月(100Kwpm)的绝对DUV资本支出仅略有下降,仍接近15亿美元 [16] * **成熟逻辑与NAND**:完全依赖DUV [17] * **中国市场详细分析**: * **需求韧性**:尽管ASML管理层预计2026年中国收入将显著下降,但报告认为基于实际订单流入的能见度有限,需求可能持续 [34] * **预测调整**:预计中国DUV收入明年将大致持平,而非下降 [35];预计中国半导体设备支出(WFE)在2026年将进一步增加至约500亿美元 [35] * **产能扩张**:预计中国先进逻辑产能将在未来3年增长约6倍,从2025年的3万片晶圆/月增至2028年的18万片晶圆/月 [37] * **进口数据**:2025年第四季度中国从荷兰的光刻设备进口额达到创纪录的32.7亿欧元,环比增长42%,同比增长41% [54];这暗示中国收入占第四季度总系统销售额的42%,全年(2025年)约占35% [54] * **本土化进展**:即使中国在2030年左右拥有EUV原型机,距离大规模生产商用EUV设备仍需至少十年,因此短期内仍需依赖ASML的DUV设备 [49];中国DUV强度高于世界其他地区,原因是需要进行多次图案化(multi-patterning) [50] * **财务预测与估值**: * **营收预测**:将2026年营收预测从367亿欧元上调至378亿欧元,2027年从414亿欧元上调至444亿欧元 [63];2030年营收预测为546亿欧元,高于ASML 2030年指引中点520亿欧元 [55] * **每股收益预测**:2025年每股收益为25.11欧元,2026年为30.45欧元,2027年为39.65欧元 [11] * **目标价与上行空间**:目标价1400欧元,基于2025年1月20日收盘价1140.00欧元,隐含23%的上行空间 [8] * **估值倍数**:采用35倍市盈率,较半导体设备(SPE)公司平均有30%的溢价 [56];ASML目前估值相对于其他SPE公司处于低谷 [5] * **风险提示**: * **下行风险**:包括EUV商业化及新一代技术开发成本高于预期导致利润率不及预期、中国囤货规模超预期、半导体设备支出市场弱于预期、技术迁移放缓、长期面临其他技术威胁、以及对中国客户的出口管制进一步收紧 [83]
大芯片,再度崛起?
智通财经网· 2026-01-25 14:24
文章核心观点 - 2025年初AI芯片领域的两则重磅消息,使“大芯片”技术路线重回聚光灯下[1] - 特斯拉重启Dojo 3项目并转向太空人工智能计算,Cerebras与OpenAI敲定超百亿美元订单,两者代表了“大芯片”下两种不同的技术路径与商业策略[1] - 在摩尔定律放缓、先进封装发展及AI场景碎片化的背景下,晶圆级集成技术路线正在重新定义“大”的边界,并非直接复制英伟达的成功,而是在通用方案之外寻找价值洼地[21] 技术路线分野 - “大芯片”概括了两种截然不同的设计:以Cerebras为代表的晶圆级单片集成,以及以特斯拉Dojo为代表的通过先进封装集成多个芯片的“晶圆级系统”[3] - 分野根源在于对“内存墙”和“互连瓶颈”两大痛点的不同解法[3] - 传统GPU架构存在计算能力与内存带宽增长失衡的问题,例如英伟达H100相比A100计算能力增约6倍,但内存带宽仅增1.7倍[3] - 多GPU系统中,芯片间通信延迟是片上互联的数百倍,即便NVLink 6.0单GPU带宽已达3.6TB/s[3] Cerebras的晶圆级单片集成 - Cerebras WSE-3采用晶圆级单片集成,拥有4万亿晶体管、90万个AI核心和44GB片上SRAM,旨在将计算和存储置于同一硅片以解决内存墙问题[4] - 其片上互联带宽达214Pbps,是英伟达H100系统的3715倍,内存带宽达21PB/s,是H100的880倍[4] - 在Llama 3.1 8B模型上,WSE-3生成速度达1800 token/s,而H100仅为242 token/s[4] - 面临巨大工程挑战,通过将AI核心缩小至0.05平方毫米(约为H100 SM核心的1%)、冗余设计和智能路由来应对晶圆级良率问题[4] - WSE-3功耗达23千瓦,需要定制液冷循环和混合冷却剂[4] - Cerebras CS-3系统定位为推理专用机,通过存算一体架构极致降低延迟并简化软件栈[16] 特斯拉的晶圆级系统路线 - 特斯拉Dojo走晶圆级系统路线,D1芯片(645平方毫米)通过5×5阵列排列,利用台积电InFO封装技术实现高密度互连,使25颗芯片协同工作[5] - 该设计避免了单片晶圆的良率风险(D1芯片可预测试),并缓解互连瓶颈,芯片间延迟仅100纳秒,远低于传统GPU集群的毫秒级[5] - Dojo项目经历转向:2025年8月团队解散,2025年初重启Dojo 3项目,战略重心从对标10万张H100的通用训练平台,转向专注于“太空人工智能计算”[7][8] - 特斯拉调整策略为训练外采(采购6.7万张H100等效算力组建Cortex集群)和推理自研[8] - AI5芯片采用3nm制程,由台积电代工,预计2026年底量产,单颗性能接近英伟达Hopper级别,双芯片配置可接近Blackwell架构[8] - Dojo 3芯片制造合同授予三星,封装业务交由英特尔,反映了供应链调整及在争抢代工产能上的弱势[9] 商业合作与市场定位 - Cerebras与OpenAI敲定一份价值超100亿美元、承诺交付750兆瓦算力的多年采购协议,产能将在2028年前分批投入使用[1][11] - 该合作的关键在于OpenAI愿意为“超低延迟推理”支付溢价[11] - 巴克莱研报预测,未来AI推理计算需求将占通用AI总算力的70%以上,推理计算需求可达训练需求的4.5倍[11] - Cerebras架构在特定场景展现巨大性能优势:在碳捕获模拟中比H100快210倍,在AI推理上实现20倍加速[12] - 截至2024年上半年,Cerebras 87%的收入来自阿联酋的G42[12] - 2024年10月,Cerebras撤回IPO申请,据报道正洽谈新一轮10亿美元融资,估值约220亿美元[12] - OpenAI的订单金额超过了Cerebras当前的公司估值,使OpenAI成为其最大且唯一的主要客户[12] 行业竞争与生态格局 - AI芯片市场竞争激烈,AMD和英伟达产品迭代迅速,例如AMD MI350X/MI355X训练及推理速度与英伟达B200相当或更优,英伟达在2025年1月CES上推出Rubin平台[16] - 客户可用AMD等通用GPU厂商对冲英伟达,使第三条技术路线的窗口期收窄[16] - 英伟达的护城河在于CUDA生态积累、CoWoS先进封装产能锁定及HBM供应链深度绑定[8] - OpenAI为实现供应链多元化,与英伟达、AMD和博通签署协议,英伟达承诺投入1000亿美元支持OpenAI建设至少10吉瓦(相当于400万至500万个GPU)的英伟达系统[13] - 分析师指出,超大规模提供商正实现计算系统多样化:通用AI工作负载用英伟达GPU,高度优化任务用内部AI加速器,专业低延迟工作负载用Cerebras等系统[14] - 推理场景的碎片化意味着没有一种芯片架构能通吃所有场景,专用加速器存在价值于此[14] 技术发展趋势与前景 - 台积电预计2027年推出晶圆级CoWoS技术,将实现40倍于现有系统的计算能力、超过40个光罩的硅片面积、容纳60+个HBM芯片[17] - 先进封装技术使“大芯片”与“小芯片互联”界限模糊,特斯拉D2芯片曾采用CoWoS封装实现晶圆级性能并规避良率风险,未来Dojo3可能继续探索此路径[17] - “大”的边界在三个层面被重新定义:物理尺寸(如Cerebras晶圆级单芯片)、系统集成度(如晶圆级封装或整柜方案)、商业模式(如大规模独家合作)[19] - 2025年全球晶圆厂设备支出预计达1100亿美元,2026年增长18%至1300亿美元,逻辑微组件领域在2纳米制程和背面供电技术等推动下成为关键驱动力[19] - 特斯拉Dojo的停摆与重启是一次商业试错,验证了全栈自研训练芯片对非云巨头难以复制,但为推理侧保留了技术储备[21] - Cerebras与OpenAI的合作是在推理爆发前夜的精准卡位,用晶圆级架构的极致性能换取垂直场景定价权[21]
大芯片,再度崛起?
半导体行业观察· 2026-01-25 11:52
文章核心观点 - 2025年初,AI芯片领域的两则重磅消息——特斯拉重启Dojo 3项目以及Cerebras与OpenAI达成超百亿美元协议——使“大芯片”技术路线重回聚光灯下[1] - “大芯片”并非单一技术,主要分为Cerebras代表的晶圆级单片集成和特斯拉Dojo代表的晶圆级系统两种路线,旨在解决传统GPU架构的“内存墙”和“互连瓶颈”问题[2] - 行业竞争格局正在演变,Cerebras和特斯拉并未试图直接复制英伟达的成功,而是在AI算力版图的特定裂隙中寻找被通用方案忽视的价值洼地,进行错位竞争[19][20] 两种大芯片的技术分野与特点 - **技术路线分野**:“大芯片”概括了两种不同设计,Cerebras采用晶圆级单片集成,用一整片300毫米晶圆构建单一处理器;特斯拉Dojo采用晶圆级系统,通过先进封装将多个预测试芯片集成为类单芯片系统[2] - **传统GPU的瓶颈**:传统GPU架构存在处理器与内存分离的问题,从英伟达A100到H100,计算能力增加约6倍,但内存带宽仅增长1.7倍,训练时间主导因素从计算能力转向内存带宽[2] - **Cerebras的晶圆级单片方案**:2024年发布的Cerebras WSE-3拥有4万亿晶体管、90万个AI核心和44GB片上SRAM,通过将计算和存储集成在同一硅片来提升性能[3] - **Cerebras的性能数据**:WSE-3片上互联带宽达214Pbps,是英伟达H100系统的3715倍;内存带宽高达21PB/s,是H100的880倍;在Llama 3.1 8B模型上生成速度达1800 token/s,而H100仅为242 token/s[3] - **Cerebras的工程挑战与解决方案**:晶圆级单片面临良率挑战,Cerebras将每个AI核心缩小到0.05平方毫米(仅为H100 SM核心的1%),并通过冗余设计和智能路由绕过缺陷区域,但需要专门固件映射和复杂散热系统,WSE-3功耗达23千瓦[3] - **特斯拉的晶圆级系统方案**:Dojo的D1芯片面积为645平方毫米,通过5×5阵列排列并利用台积电InFO封装技术实现高密度互连,使25颗芯片协同工作,芯片间延迟仅100纳秒,远低于传统GPU集群的毫秒级[4] 特斯拉Dojo的战略转向与挑战 - **项目重启与战略转向**:特斯拉在2025年8月解散Dojo团队后,于短短半年后重启Dojo 3项目,其战略重心发生根本转变,目标从训练地球上的自动驾驶模型转向专注于“太空人工智能计算”[5][6] - **初始定位与调整原因**:Dojo最初被定位为对标10万张H100的通用训练平台,摩根士丹利一度估值其能带来5000亿美元增量,但核心团队离职,项目在2024年底被叫停,特斯拉转而采购6.7万张H100等效算力组建Cortex集群[7] - **转向原因分析**:英伟达的护城河在于CUDA生态积累、CoWoS先进封装产能锁定及HBM供应链深度绑定,特斯拉自研方案需在软件适配、集群调度等方面补课数年,而英伟达可能已迭代两至三代产品[7] - **新的战略选择**:特斯拉选择训练外采和推理自研,马斯克表示在两种完全不同的AI芯片设计上分散资源不合理,后续AI5、AI6等芯片在推理方面将非常出色[7] - **AI5芯片细节**:AI5芯片采用3nm制程,由台积电代工,预计2026年底量产,单颗性能接近英伟达Hopper级别,双芯片配置则可接近Blackwell架构[7] - **太空算力新赛道**:Dojo 3面向太空算力部署,马斯克计划通过SpaceX未来的IPO融资,利用星舰部署可在持续日照下运行的算力卫星,该赛道没有英伟达的生态壁垒,是全新应用场景[8] - **供应链调整**:特斯拉已将Dojo 3芯片制造合同授予三星,芯片封装业务交由英特尔承接,这反映了台积电产能饱和无法提供积极支持,以及特斯拉在争抢代工产能上的弱势[8] Cerebras的商业突破与市场定位 - **与OpenAI的巨额协议**:Cerebras与OpenAI敲定了一份价值超百亿美元、承诺交付750兆瓦算力的多年采购协议,该产能将在2028年前分批投入使用[1][10] - **协议的战略意义**:该订单是OpenAI在推理爆发前夜的一次精准卡位,OpenAI愿意为“超低延迟推理”支付溢价[10] - **推理市场需求背景**:巴克莱研报预测,未来AI推理计算需求将占通用AI总算力的70%以上,推理计算需求可达训练计算需求的4.5倍[10] - **OpenAI的考量**:OpenAI基础设施负责人表示,当AI实时响应时,用户会做更多事情、停留更长时间、运行更高价值的工作负载[10] - **Cerebras的架构优势**:其独特速度来自于将大量计算、内存和带宽集成在单个巨型芯片上,消除了传统硬件中减慢推理速度的瓶颈[11] - **性能表现**:Cerebras WSE-3在碳捕获模拟中比H100快210倍,在AI推理上实现20倍加速[11] - **公司的财务状况与客户依赖**:2024年上半年,Cerebras 87%的收入来自阿联酋的G42;2024年10月公司撤回IPO申请,最新报道称正在洽谈新一轮10亿美元融资,估值约220亿美元;OpenAI的订单金额超过了Cerebras目前的公司估值,使其成为最大也是唯一的主要客户[11] - **历史纠葛与收购可能**:OpenAI CEO Sam Altman早在2017年就个人投资了Cerebras,2018年埃隆·马斯克曾试图收购Cerebras,知情人士认为若OpenAI财务状况更强劲,或许会直接收购该公司[12][13] - **促成供应链多元化**:OpenAI在2025年也与英伟达、AMD和博通签署了协议,英伟达承诺投入1000亿美元支持OpenAI,建设至少10吉瓦的英伟达系统(相当于400万至500万个GPU)[13] - **市场定位分析**:分析师指出,这促使超大规模提供商实现计算系统多样化,针对通用AI工作负载使用英伟达GPU,针对高度优化任务使用内部AI加速器,针对专业低延迟工作负载使用Cerebras等系统[13] 大芯片路线的生存空间与竞争策略 - **激烈的市场竞争**:AI芯片市场竞争激烈,AMD推出了MI350X和MI355X GPU,训练及推理速度与英伟达B200相当或更优;英伟达在CES上推出了Rubin平台,更新速度令人咋舌[14] - **Cerebras的错位竞争策略**:CS-3系统不以训练平台自居,而是主打推理专用机,通过存算一体架构将推理延迟压到极致,同时简化软件栈,瞄准生态锁定效应较弱的推理市场[15] - **OpenAI订单的验证作用**:OpenAI的百亿订单是用真金白银验证专用架构的商业逻辑,当推理成本占运营支出大头时,15倍的性能提升足以重塑供应商格局[15] - **特斯拉押注先进封装**:台积电预计2027年推出晶圆级CoWoS技术,将实现40倍于现有系统的计算能力、超过40个光罩的硅片面积、容纳60+个HBM芯片,这为晶圆级集成量身定制[16] - **技术界限模糊化**:当封装技术允许在单一衬底上集成数十颗预测试芯片和HBM时,“大芯片”与“小芯片互联”之间的界限将变得模糊,特斯拉D2芯片和未来的Dojo3可能探索此路线[16] “大”的边界重新定义 - **物理尺寸的“大”**:Cerebras的晶圆级单芯片是技术奇迹,但商业价值限定在特定场景,其WSE系统价格约200万至300万美元,部署在阿贡国家实验室、梅奥诊所及与G42合作的Condor Galaxy设施,不会取代GPU成为通用训练平台,但可在推理、科学计算等对延迟敏感领域开辟新战场[18] - **系统集成度的“大”**:特斯拉的晶圆级封装、英伟达GB200 NVL72的整柜方案正在成为主流,SEMI报告显示2025年全球晶圆厂设备支出将达1100亿美元,2026年增长18%至1300亿美元[18] - **技术推动力**:台积电CoWoS路线图演进、HBM4标准化推进、UCIe互联协议普及,都在推动小芯片异构集成走向系统级单芯片化[19] - **商业模式的“大”**:OpenAI与Cerebras的合作被视为领先科技公司吸收AI芯片初创公司的例证,无论是通过直接收购还是大规模商业合作,将其纳入主导生态系统[19] - **初创公司挑战**:SambaNova、Groq和Cerebras等被视为利基挑战者,但随着竞争加剧和客户接受度有限,许多此类初创公司难以突破与主要客户的试点部署阶段[19] - **战略试错与卡位总结**:特斯拉Dojo的停摆与重启是一次昂贵的商业试错,验证了全栈自研训练芯片对非云巨头不具可复制性,但为推理侧保留了技术储备;Cerebras与OpenAI的联姻是在推理爆发前夜的精准卡位,用极致性能换取垂直场景定价权[19] - **行业背景**:在摩尔定律放缓、先进封装接力、AI场景碎片化的三重背景下,晶圆级集成技术路线正在以意想不到的方式重新定义“大”的边界[19]
AI芯片格局
傅里叶的猫· 2026-01-24 23:52
一、TPU的崛起与挑战 - Google TPU凭借对LLM的原生优化优势,正成为OpenAI、苹果等科技巨头的重要选择,逐渐打破英伟达GPU的垄断格局[3] - 从GPU生态迁移至TPU面临显著的技术适配挑战,包括数值表示和精度体系差异,模型转换过程复杂,根据参数量差异,复杂模型的转换周期可能长达一周[4] - 全球AI算力需求爆发式增长,TPU出现约50%的供给缺口,导致算力排队和项目延期,并将生产压力传导至核心代工方台积电[5] - TPU基于Google自研的JAX开源框架,与主流的CUDA生态不兼容,熟悉JAX的开发者占比极低,抬高了使用门槛[5][6] 二、TPU与AWS Trainium的对比 - Google TPU将矩阵和张量运算嵌入芯片硬件层面,在LLM规模化运行中具备显著效率优势,是OpenAI选择其作为推理核心的关键原因[7] - AWS Trainium未将矩阵运算模块集成于芯片本身,需依赖外部库和内存调用,导致单芯片效率受限,在大规模集群中累计效率损耗显著[7] - 在网络架构上,谷歌通过GKE在垂直扩展能力上突出;AWS凭借Elastic Fabric Adapter在水平扩展上有优势;英伟达在InfiniBand等技术上实现了横竖扩展的较好平衡[8] - AI芯片竞争已延伸至软件生态、网络架构等全栈协同,Google TPU的“芯片+框架+网络”闭环生态构成了核心壁垒[8] 三、Oracle的逆袭策略与风险 - Oracle凭借绑定美国政府政策和联合产业链伙伴囤积高端芯片,实现了“弯道超车”[9] - 根据美国临时规定,截至10月底,部分硬件厂商需优先供应政府机构,Oracle借此成为政府芯片采购核心伙伴,并联合CoreWeave、Nebius等近乎垄断了H200、B200等高端芯片的市场供给[10] - Oracle与OpenAI签订了未来4-5年价值3000亿美元的计算资源合作协议,通过算力转售赚取20%-25%的抽成[10] - Oracle缺乏自研LLM和成熟的数据中心运营经验,其AI业务与核心数据库业务脱节,商业逻辑高度依赖与Palantir的“数据+算力”互补合作[11] - 未来面临谷歌、微软等巨头的算力竞争加剧,以及若芯片产能缓解、政策红利消退,其资源垄断优势将快速弱化的挑战[12] 四、OpenAI的资金与商业困境 - OpenAI陷入“高投入、低产出”的资金困境,年营收约120亿美元,乐观估算年现金流仅60亿美元,但其总投入规模达3000亿美元级别,现金流无法覆盖需求[14] - 全球多地(欧洲、日本、澳大利亚、印度等)存在算力供给缺口,制约其全球化扩张[14] - LLM推理业务是其核心收入,但该业务毛利率乐观估计仅30%左右,净利率约25%,当前20美元/月的个人订阅价难以可持续盈利,需提价至40-50美元/月[15] - 相比谷歌拥有30亿日活用户的产品生态,OpenAI在企业级应用和云服务上布局薄弱,缺乏稳定落地场景,议价能力较弱[15] - OpenAI计划与博通合作研发专属TPU/NPU芯片,目标在12个月内启动部署,达成10GW级AI加速器容量,涉及百亿级美元订单,但该计划被行业认为不切实际,缺乏经验、资金和供应链资源[16] 五、大模型的未来发展方向 - 当前自回归式大模型出现性能增益边际递减问题,参数量扩大带来的性能提升收窄,而算力成本指数级增长[17] - “用AI生成的数据训练AI”的闭环模式可能导致数据质量劣化[17] - 电力供应不足已成为制约算力集群扩张的现实物理瓶颈,对英伟达的过度依赖导致全供应链承压[17] - 未来发展方向包括:1) 混合专家模型(MoE),通过任务分工降低算力成本并提升效率;2) 扩散模型,一次性生成整体语境以提升推理效率;3) 多模态与实体数据融合,拓展应用场景[18][19] - AGI短期内难以实现,大模型将回归工具属性,行业竞争焦点从“做出更强的模型”转向“更好地落地模型价值”[19]
资金动向 | 北水抛售阿里近15亿港元,连续6日加仓小米
格隆汇· 2026-01-23 20:50
南下资金整体流向 - 1月23日南下资金净卖出港股16.01亿港元 [1] - 本周南向资金累计净流入约235.23亿港元,环比上周多流入135亿港元 [5] 个股资金流向详情 - 1月23日净买入泡泡玛特7.47亿港元、小米集团-W 6.08亿港元、腾讯控股2.4亿港元 [2] - 1月23日净卖出阿里巴巴-W 14.9亿港元、中国移动6.21亿港元、长飞光纤光缆1.38亿港元、金风科技1.23亿港元 [2] - 南下资金已连续6日净买入小米集团,共计30.7384亿港元 [4] - 南下资金已连续15日净卖出中国移动,共计117.1603亿港元 [4] 相关公司动态与行业信息 - 泡泡玛特推出2026年情人节限定款盲盒“星星人怦然星动”系列,其毛绒挂件迅速售罄并在社交媒体引发热议 [6] - 小米集团拟回购不超过25亿港元的B类普通股,回购计划于1月23日正式启动 [6] - 腾讯控股旗下“微信珊瑚安全”宣布将强化对虚假摆拍类视频的规范治理 [6] - 阿里巴巴集团据称正推进旗下AI芯片子公司平头哥的独立上市,目前处于内部重组和准备阶段 [6] - 中国移动设立“算力专项办公室”,统筹全集团的算力战略与布局 [7] - 工信部表示内地6G第一阶段技术试验形成超过300项关键技术储备,5G和千兆光网已融入97个国民经济大类中的91个 [7]
半导体设备板块午后拉升,半导体设备ETF易方达(159558)本周连续5个交易日“吸金”
搜狐财经· 2026-01-23 20:38
市场表现与资金流向 - 1月23日半导体设备板块早盘承压,午后持续反弹拉升,相关ETF中,半导体设备ETF易方达(159558)全天净申购超6000万份 [1] - 从周维度看,中证芯片产业指数上涨2.3%,中证云计算与大数据主题指数下跌1.7%,中证半导体材料设备主题指数下跌1% [1] - 半导体设备ETF易方达(159558)在本周前四个交易日连续获资金净流入,合计6.7亿元 [1] 行业指数近期与历史表现 - 截至1月23日收盘,中证云计算与大数据主题指数近1月累计上涨16.3%,近3月上涨15.8%,今年以来上涨13.9%,近1年上涨71.3%,近3年上涨106.2%,近5年上涨55.9%,基日以来累计上涨638.2%,年化涨幅16.4% [6] - 中证芯片产业指数近1月累计上涨17.9%,近3月上涨12.1%,今年以来上涨18.7%,近1年上涨69.6%,近3年上涨91.4%,近5年上涨53.3%,基日以来累计上涨275.8%,年化涨幅14.5% [6] - 中证半导体材料设备主题指数近1月累计上涨23.0%,近3月上涨31.4%,今年以来上涨26.5%,近1年上涨95.0%,近3年上涨85.1%,近5年上涨68.0%,基日以来累计上涨551.1%,年化涨幅31.4% [6] 行业指数估值水平 - 截至1月22日,中证云计算与大数据主题指数滚动市销率为5.3倍,估值分位数为99.8% [2][5] - 中证芯片产业指数市净率为8.2倍,估值分位数为95.6% [2][5] - 中证半导体材料设备主题指数市净率为8.3倍,估值分位数为82.7% [2][5] 行业增长前景与驱动因素 - 受先进制程投资以及中国半导体自主化浪潮驱动,2024年全球半导体设备销售额达1171亿美元,同比增长10% [1] - 根据SEMI预测,2025年全球半导体设备销售额预计同比增长13.7%至1330亿美元 [1] - 展望2026年,半导体设备板块将延续AI驱动的高景气度,销售额预计将同比增长10% [1] 相关指数与ETF产品概况 - 中证云计算与大数据主题指数聚焦AI算力服务,由50只业务涉及提供云计算服务、大数据服务及相关硬件设备的股票组成,主要包括计算机、通信行业 [3] - 中证芯片产业指数聚焦AI芯片,由50只业务涉及芯片设计、制造、封装与测试等领域,以及为芯片提供半导体材料、晶圆生产设备、封装测试设备等物料或设备的股票组成 [3] - 中证半导体材料设备主题指数聚焦AI芯片设备与材料,由40只半导体材料和半导体设备的代表性公司组成 [3] - 跟踪上述指数的ETF产品包括:云计算ETF易方达(516510)、芯片ETF易方达(516350)、半导体设备ETF易方达(159558)[2] - 全市场跟踪中证云计算与大数据主题指数的ETF共5只,跟踪中证芯片产业指数的ETF共6只,跟踪中证半导体材料设备主题指数的ETF共5只 [4] - 部分ETF产品提供低费率,管理费率为0.15%/年,托管费率为0.05%/年 [3][4]