AI芯片
搜索文档
金价十年涨四倍,钻戒身价却暴跌,两者为何背道而驰
第一财经· 2026-01-26 20:37
黄金与钻石市场表现背离 - 过去十年间,黄金价格涨幅接近4倍,不断刷新历史高点[1] - 同期钻石价格指数自高位回落超过45%[1] - 2025年全年,0.5克拉钻石价格跌幅超过20%,3克拉以上钻石价格也录得0.4%的微跌[4] - 国内资本市场反馈直接,头部钻石品牌股价较历史峰值蒸发逾八成,而A股黄金龙头市值已突破万亿元大关[1] 黄金市场表现 - 伦敦金现价格自2015年约1000美元/盎司低点起步,近期已历史性地突破5100美元/盎司[4] - 紫金矿业于1月6日市值一度突破1万亿元大关,2025年全年股价涨幅高达135.77%[7] - 包括中国黄金、湖南黄金、山东黄金在内的多家主要黄金企业,2025年股价均实现了显著上涨[7] 钻石市场表现 - 国际钻石交易所钻石指数从2022年阶段性高点158下探至目前86.08附近[4] - 钻石巨头戴比尔斯在2025年首场拍卖会中大幅下调0.75克拉以上毛坯钻售价,近五年已多次调价,去年底将毛坯钻石价格下调10%至15%,创历史最大降幅[4] - DR钻戒母公司迪阿股份股价较历史峰值累计下跌超过80%[7] 钻石市场分化的具体表现 - 贬值最为严重的是过去婚庆市场中销量最大的0.5克拉及以下的入门级小钻戒,其二手价格与回收价值下跌显著[5] - 1克拉以上、品质较高的钻石价格表现相对坚挺[5] - 钻石回收价值低,有案例显示8年前近2万元的钻戒回收价不足400元,而同期购入的黄金首饰市值已超7万元[3] 钻石市场供需关系逆转 - 需求端:天然钻石最大的传统市场之一婚庆需求在全球范围内降温,日本2023年结婚对数低于50万对,韩国婚姻登记数连续11年减少[9] - 黄金牛市分流了对于钻石的消费[9] - 供给端:戴比尔斯过去垄断全球九成钻石供应,但随着全球多地发现大型钻石矿藏,其垄断性下降[9] - 人工培育钻石异军突起,价格仅为天然钻石的1/10到1/5,且关键物理性质一致,肉眼无法分辨[9] 培育钻石产业发展 - 培育钻石产能扩张速度极快,只需几周时间就能实现批量生产,对传统钻石供应体系形成直接冲击[10] - 2025年中国培育钻石市场规模约140亿元,预计到2030年将超过1025亿元[10] - 全球培育钻石毛坯产能约4000万克拉,中国产能约2520万克拉,占比约63%[10] 黄金市场未来驱动因素 - 全球货币与债务担忧使黄金受益,美国债务总额已突破38.5万亿美元[12] - 市场普遍认为2026年美联储将降息两次,利率中枢持续回落有望提升黄金的金融属性与估值弹性[12] - 有观点提示已积累涨幅较高,不排除短期内技术性回调[13] 钻石市场未来前景 - 培育钻石行业内部已出现激烈竞争与利润率收缩迹象,力量钻石2025年上半年培育钻石营业收入同比下降25.87%,毛利率同比下滑78.23%[13] - 消费领域培育钻石受印度CVD产能释放冲击,毛坯钻价格持续下探[13] - 新的增长空间正在出现,钻石散热市场应用于AI芯片,据测算市场空间区间为75亿元至1500亿元[14] - 天然钻石长期价值受稀缺性、需求增长及全球经济发展支撑,开采量持续减少将为未来价格稳定增长提供保障[14]
ASML:别忘了 DUV 光刻机,评级 “跑赢大盘”
2026-01-26 10:49
涉及的公司与行业 * **公司**:ASML Holding NV (ASML.NA / ASML) [1] * **行业**:欧洲半导体行业,具体为半导体设备,特别是光刻机领域 [1] 核心观点与论据 * **核心观点**:市场过度关注EUV,而低估了DUV的增长潜力,认为两者应协同增长 [3] * **论据**:在先进逻辑和DRAM产能扩张加速的背景下,EUV出货量的增加必然伴随着配对的DUV出货量增加 [3] * **论据**:预计未来两年光刻设备资本支出中DUV与EUV的比例将大致为50:50 [3] * **论据**:市场共识预期明年EUV收入增长23亿欧元而DUV收入下降10亿欧元,这在方向上是不一致的 [3] * **核心观点**:中国市场的DUV需求具有韧性,收入不会大幅下滑 [4] * **论据**:中国正在大力扩张先进逻辑产能以支持本土AI芯片生产,预计未来3年产能将增长6倍 [4] * **论据**:由于中国尚无法自产DUV或EUV设备,需要购买更多DUV设备 [4] * **论据**:修订后的预测显示,中国DUV收入明年将大致持平,而非下降 [4] * **核心观点**:上调ASML的营收和盈利预测,并提高目标价,维持“跑赢大盘”评级 [5][6] * **论据**:主要因更高的DUV销售(2027年上调22亿欧元)和部分EUV销售,预计2026年营收增长16%,2027年增长17% [5] * **论据**:将2027年每股收益(EPS)预测上调至39.7欧元,较市场共识高出16% [5] * **论据**:基于35倍市盈率(P/E),将目标价上调至1400欧元 [5] * **论据**:ASML相对于其他半导体设备(SPE)公司的估值仍处于低谷 [5] 其他重要内容 * **产能扩张驱动**:先进逻辑和DRAM的产能扩张正在加速,主要由异常强劲的AI需求驱动 [13] * **具体数据**:预计DRAM总产能将从2024年的150万片晶圆/月(Mwpm)增至2027年的220万片晶圆/月 [15] * **具体数据**:SK海力士(HBM市场领导者)预计在2024-2027E期间产能复合年增长率(CAGR)为17%,三星为10%,美光为6% [15] * **各细分市场DUV强度分析**: * **DRAM**:在最新的1c节点,EUV贡献降至50%,DUV仍占50% [15];在1a和1b节点,DUV分别占70%和59% [15] * **先进逻辑**:光刻强度从10nm的约20%大幅提升至5nm和3nm的35%以上 [16];DUV贡献相对较小,约20% [3];尽管DUV曝光次数减少,但估计每10万片晶圆/月(100Kwpm)的绝对DUV资本支出仅略有下降,仍接近15亿美元 [16] * **成熟逻辑与NAND**:完全依赖DUV [17] * **中国市场详细分析**: * **需求韧性**:尽管ASML管理层预计2026年中国收入将显著下降,但报告认为基于实际订单流入的能见度有限,需求可能持续 [34] * **预测调整**:预计中国DUV收入明年将大致持平,而非下降 [35];预计中国半导体设备支出(WFE)在2026年将进一步增加至约500亿美元 [35] * **产能扩张**:预计中国先进逻辑产能将在未来3年增长约6倍,从2025年的3万片晶圆/月增至2028年的18万片晶圆/月 [37] * **进口数据**:2025年第四季度中国从荷兰的光刻设备进口额达到创纪录的32.7亿欧元,环比增长42%,同比增长41% [54];这暗示中国收入占第四季度总系统销售额的42%,全年(2025年)约占35% [54] * **本土化进展**:即使中国在2030年左右拥有EUV原型机,距离大规模生产商用EUV设备仍需至少十年,因此短期内仍需依赖ASML的DUV设备 [49];中国DUV强度高于世界其他地区,原因是需要进行多次图案化(multi-patterning) [50] * **财务预测与估值**: * **营收预测**:将2026年营收预测从367亿欧元上调至378亿欧元,2027年从414亿欧元上调至444亿欧元 [63];2030年营收预测为546亿欧元,高于ASML 2030年指引中点520亿欧元 [55] * **每股收益预测**:2025年每股收益为25.11欧元,2026年为30.45欧元,2027年为39.65欧元 [11] * **目标价与上行空间**:目标价1400欧元,基于2025年1月20日收盘价1140.00欧元,隐含23%的上行空间 [8] * **估值倍数**:采用35倍市盈率,较半导体设备(SPE)公司平均有30%的溢价 [56];ASML目前估值相对于其他SPE公司处于低谷 [5] * **风险提示**: * **下行风险**:包括EUV商业化及新一代技术开发成本高于预期导致利润率不及预期、中国囤货规模超预期、半导体设备支出市场弱于预期、技术迁移放缓、长期面临其他技术威胁、以及对中国客户的出口管制进一步收紧 [83]
大芯片,再度崛起?
智通财经网· 2026-01-25 14:24
文章核心观点 - 2025年初AI芯片领域的两则重磅消息,使“大芯片”技术路线重回聚光灯下[1] - 特斯拉重启Dojo 3项目并转向太空人工智能计算,Cerebras与OpenAI敲定超百亿美元订单,两者代表了“大芯片”下两种不同的技术路径与商业策略[1] - 在摩尔定律放缓、先进封装发展及AI场景碎片化的背景下,晶圆级集成技术路线正在重新定义“大”的边界,并非直接复制英伟达的成功,而是在通用方案之外寻找价值洼地[21] 技术路线分野 - “大芯片”概括了两种截然不同的设计:以Cerebras为代表的晶圆级单片集成,以及以特斯拉Dojo为代表的通过先进封装集成多个芯片的“晶圆级系统”[3] - 分野根源在于对“内存墙”和“互连瓶颈”两大痛点的不同解法[3] - 传统GPU架构存在计算能力与内存带宽增长失衡的问题,例如英伟达H100相比A100计算能力增约6倍,但内存带宽仅增1.7倍[3] - 多GPU系统中,芯片间通信延迟是片上互联的数百倍,即便NVLink 6.0单GPU带宽已达3.6TB/s[3] Cerebras的晶圆级单片集成 - Cerebras WSE-3采用晶圆级单片集成,拥有4万亿晶体管、90万个AI核心和44GB片上SRAM,旨在将计算和存储置于同一硅片以解决内存墙问题[4] - 其片上互联带宽达214Pbps,是英伟达H100系统的3715倍,内存带宽达21PB/s,是H100的880倍[4] - 在Llama 3.1 8B模型上,WSE-3生成速度达1800 token/s,而H100仅为242 token/s[4] - 面临巨大工程挑战,通过将AI核心缩小至0.05平方毫米(约为H100 SM核心的1%)、冗余设计和智能路由来应对晶圆级良率问题[4] - WSE-3功耗达23千瓦,需要定制液冷循环和混合冷却剂[4] - Cerebras CS-3系统定位为推理专用机,通过存算一体架构极致降低延迟并简化软件栈[16] 特斯拉的晶圆级系统路线 - 特斯拉Dojo走晶圆级系统路线,D1芯片(645平方毫米)通过5×5阵列排列,利用台积电InFO封装技术实现高密度互连,使25颗芯片协同工作[5] - 该设计避免了单片晶圆的良率风险(D1芯片可预测试),并缓解互连瓶颈,芯片间延迟仅100纳秒,远低于传统GPU集群的毫秒级[5] - Dojo项目经历转向:2025年8月团队解散,2025年初重启Dojo 3项目,战略重心从对标10万张H100的通用训练平台,转向专注于“太空人工智能计算”[7][8] - 特斯拉调整策略为训练外采(采购6.7万张H100等效算力组建Cortex集群)和推理自研[8] - AI5芯片采用3nm制程,由台积电代工,预计2026年底量产,单颗性能接近英伟达Hopper级别,双芯片配置可接近Blackwell架构[8] - Dojo 3芯片制造合同授予三星,封装业务交由英特尔,反映了供应链调整及在争抢代工产能上的弱势[9] 商业合作与市场定位 - Cerebras与OpenAI敲定一份价值超100亿美元、承诺交付750兆瓦算力的多年采购协议,产能将在2028年前分批投入使用[1][11] - 该合作的关键在于OpenAI愿意为“超低延迟推理”支付溢价[11] - 巴克莱研报预测,未来AI推理计算需求将占通用AI总算力的70%以上,推理计算需求可达训练需求的4.5倍[11] - Cerebras架构在特定场景展现巨大性能优势:在碳捕获模拟中比H100快210倍,在AI推理上实现20倍加速[12] - 截至2024年上半年,Cerebras 87%的收入来自阿联酋的G42[12] - 2024年10月,Cerebras撤回IPO申请,据报道正洽谈新一轮10亿美元融资,估值约220亿美元[12] - OpenAI的订单金额超过了Cerebras当前的公司估值,使OpenAI成为其最大且唯一的主要客户[12] 行业竞争与生态格局 - AI芯片市场竞争激烈,AMD和英伟达产品迭代迅速,例如AMD MI350X/MI355X训练及推理速度与英伟达B200相当或更优,英伟达在2025年1月CES上推出Rubin平台[16] - 客户可用AMD等通用GPU厂商对冲英伟达,使第三条技术路线的窗口期收窄[16] - 英伟达的护城河在于CUDA生态积累、CoWoS先进封装产能锁定及HBM供应链深度绑定[8] - OpenAI为实现供应链多元化,与英伟达、AMD和博通签署协议,英伟达承诺投入1000亿美元支持OpenAI建设至少10吉瓦(相当于400万至500万个GPU)的英伟达系统[13] - 分析师指出,超大规模提供商正实现计算系统多样化:通用AI工作负载用英伟达GPU,高度优化任务用内部AI加速器,专业低延迟工作负载用Cerebras等系统[14] - 推理场景的碎片化意味着没有一种芯片架构能通吃所有场景,专用加速器存在价值于此[14] 技术发展趋势与前景 - 台积电预计2027年推出晶圆级CoWoS技术,将实现40倍于现有系统的计算能力、超过40个光罩的硅片面积、容纳60+个HBM芯片[17] - 先进封装技术使“大芯片”与“小芯片互联”界限模糊,特斯拉D2芯片曾采用CoWoS封装实现晶圆级性能并规避良率风险,未来Dojo3可能继续探索此路径[17] - “大”的边界在三个层面被重新定义:物理尺寸(如Cerebras晶圆级单芯片)、系统集成度(如晶圆级封装或整柜方案)、商业模式(如大规模独家合作)[19] - 2025年全球晶圆厂设备支出预计达1100亿美元,2026年增长18%至1300亿美元,逻辑微组件领域在2纳米制程和背面供电技术等推动下成为关键驱动力[19] - 特斯拉Dojo的停摆与重启是一次商业试错,验证了全栈自研训练芯片对非云巨头难以复制,但为推理侧保留了技术储备[21] - Cerebras与OpenAI的合作是在推理爆发前夜的精准卡位,用晶圆级架构的极致性能换取垂直场景定价权[21]
大芯片,再度崛起?
半导体行业观察· 2026-01-25 11:52
文章核心观点 - 2025年初,AI芯片领域的两则重磅消息——特斯拉重启Dojo 3项目以及Cerebras与OpenAI达成超百亿美元协议——使“大芯片”技术路线重回聚光灯下[1] - “大芯片”并非单一技术,主要分为Cerebras代表的晶圆级单片集成和特斯拉Dojo代表的晶圆级系统两种路线,旨在解决传统GPU架构的“内存墙”和“互连瓶颈”问题[2] - 行业竞争格局正在演变,Cerebras和特斯拉并未试图直接复制英伟达的成功,而是在AI算力版图的特定裂隙中寻找被通用方案忽视的价值洼地,进行错位竞争[19][20] 两种大芯片的技术分野与特点 - **技术路线分野**:“大芯片”概括了两种不同设计,Cerebras采用晶圆级单片集成,用一整片300毫米晶圆构建单一处理器;特斯拉Dojo采用晶圆级系统,通过先进封装将多个预测试芯片集成为类单芯片系统[2] - **传统GPU的瓶颈**:传统GPU架构存在处理器与内存分离的问题,从英伟达A100到H100,计算能力增加约6倍,但内存带宽仅增长1.7倍,训练时间主导因素从计算能力转向内存带宽[2] - **Cerebras的晶圆级单片方案**:2024年发布的Cerebras WSE-3拥有4万亿晶体管、90万个AI核心和44GB片上SRAM,通过将计算和存储集成在同一硅片来提升性能[3] - **Cerebras的性能数据**:WSE-3片上互联带宽达214Pbps,是英伟达H100系统的3715倍;内存带宽高达21PB/s,是H100的880倍;在Llama 3.1 8B模型上生成速度达1800 token/s,而H100仅为242 token/s[3] - **Cerebras的工程挑战与解决方案**:晶圆级单片面临良率挑战,Cerebras将每个AI核心缩小到0.05平方毫米(仅为H100 SM核心的1%),并通过冗余设计和智能路由绕过缺陷区域,但需要专门固件映射和复杂散热系统,WSE-3功耗达23千瓦[3] - **特斯拉的晶圆级系统方案**:Dojo的D1芯片面积为645平方毫米,通过5×5阵列排列并利用台积电InFO封装技术实现高密度互连,使25颗芯片协同工作,芯片间延迟仅100纳秒,远低于传统GPU集群的毫秒级[4] 特斯拉Dojo的战略转向与挑战 - **项目重启与战略转向**:特斯拉在2025年8月解散Dojo团队后,于短短半年后重启Dojo 3项目,其战略重心发生根本转变,目标从训练地球上的自动驾驶模型转向专注于“太空人工智能计算”[5][6] - **初始定位与调整原因**:Dojo最初被定位为对标10万张H100的通用训练平台,摩根士丹利一度估值其能带来5000亿美元增量,但核心团队离职,项目在2024年底被叫停,特斯拉转而采购6.7万张H100等效算力组建Cortex集群[7] - **转向原因分析**:英伟达的护城河在于CUDA生态积累、CoWoS先进封装产能锁定及HBM供应链深度绑定,特斯拉自研方案需在软件适配、集群调度等方面补课数年,而英伟达可能已迭代两至三代产品[7] - **新的战略选择**:特斯拉选择训练外采和推理自研,马斯克表示在两种完全不同的AI芯片设计上分散资源不合理,后续AI5、AI6等芯片在推理方面将非常出色[7] - **AI5芯片细节**:AI5芯片采用3nm制程,由台积电代工,预计2026年底量产,单颗性能接近英伟达Hopper级别,双芯片配置则可接近Blackwell架构[7] - **太空算力新赛道**:Dojo 3面向太空算力部署,马斯克计划通过SpaceX未来的IPO融资,利用星舰部署可在持续日照下运行的算力卫星,该赛道没有英伟达的生态壁垒,是全新应用场景[8] - **供应链调整**:特斯拉已将Dojo 3芯片制造合同授予三星,芯片封装业务交由英特尔承接,这反映了台积电产能饱和无法提供积极支持,以及特斯拉在争抢代工产能上的弱势[8] Cerebras的商业突破与市场定位 - **与OpenAI的巨额协议**:Cerebras与OpenAI敲定了一份价值超百亿美元、承诺交付750兆瓦算力的多年采购协议,该产能将在2028年前分批投入使用[1][10] - **协议的战略意义**:该订单是OpenAI在推理爆发前夜的一次精准卡位,OpenAI愿意为“超低延迟推理”支付溢价[10] - **推理市场需求背景**:巴克莱研报预测,未来AI推理计算需求将占通用AI总算力的70%以上,推理计算需求可达训练计算需求的4.5倍[10] - **OpenAI的考量**:OpenAI基础设施负责人表示,当AI实时响应时,用户会做更多事情、停留更长时间、运行更高价值的工作负载[10] - **Cerebras的架构优势**:其独特速度来自于将大量计算、内存和带宽集成在单个巨型芯片上,消除了传统硬件中减慢推理速度的瓶颈[11] - **性能表现**:Cerebras WSE-3在碳捕获模拟中比H100快210倍,在AI推理上实现20倍加速[11] - **公司的财务状况与客户依赖**:2024年上半年,Cerebras 87%的收入来自阿联酋的G42;2024年10月公司撤回IPO申请,最新报道称正在洽谈新一轮10亿美元融资,估值约220亿美元;OpenAI的订单金额超过了Cerebras目前的公司估值,使其成为最大也是唯一的主要客户[11] - **历史纠葛与收购可能**:OpenAI CEO Sam Altman早在2017年就个人投资了Cerebras,2018年埃隆·马斯克曾试图收购Cerebras,知情人士认为若OpenAI财务状况更强劲,或许会直接收购该公司[12][13] - **促成供应链多元化**:OpenAI在2025年也与英伟达、AMD和博通签署了协议,英伟达承诺投入1000亿美元支持OpenAI,建设至少10吉瓦的英伟达系统(相当于400万至500万个GPU)[13] - **市场定位分析**:分析师指出,这促使超大规模提供商实现计算系统多样化,针对通用AI工作负载使用英伟达GPU,针对高度优化任务使用内部AI加速器,针对专业低延迟工作负载使用Cerebras等系统[13] 大芯片路线的生存空间与竞争策略 - **激烈的市场竞争**:AI芯片市场竞争激烈,AMD推出了MI350X和MI355X GPU,训练及推理速度与英伟达B200相当或更优;英伟达在CES上推出了Rubin平台,更新速度令人咋舌[14] - **Cerebras的错位竞争策略**:CS-3系统不以训练平台自居,而是主打推理专用机,通过存算一体架构将推理延迟压到极致,同时简化软件栈,瞄准生态锁定效应较弱的推理市场[15] - **OpenAI订单的验证作用**:OpenAI的百亿订单是用真金白银验证专用架构的商业逻辑,当推理成本占运营支出大头时,15倍的性能提升足以重塑供应商格局[15] - **特斯拉押注先进封装**:台积电预计2027年推出晶圆级CoWoS技术,将实现40倍于现有系统的计算能力、超过40个光罩的硅片面积、容纳60+个HBM芯片,这为晶圆级集成量身定制[16] - **技术界限模糊化**:当封装技术允许在单一衬底上集成数十颗预测试芯片和HBM时,“大芯片”与“小芯片互联”之间的界限将变得模糊,特斯拉D2芯片和未来的Dojo3可能探索此路线[16] “大”的边界重新定义 - **物理尺寸的“大”**:Cerebras的晶圆级单芯片是技术奇迹,但商业价值限定在特定场景,其WSE系统价格约200万至300万美元,部署在阿贡国家实验室、梅奥诊所及与G42合作的Condor Galaxy设施,不会取代GPU成为通用训练平台,但可在推理、科学计算等对延迟敏感领域开辟新战场[18] - **系统集成度的“大”**:特斯拉的晶圆级封装、英伟达GB200 NVL72的整柜方案正在成为主流,SEMI报告显示2025年全球晶圆厂设备支出将达1100亿美元,2026年增长18%至1300亿美元[18] - **技术推动力**:台积电CoWoS路线图演进、HBM4标准化推进、UCIe互联协议普及,都在推动小芯片异构集成走向系统级单芯片化[19] - **商业模式的“大”**:OpenAI与Cerebras的合作被视为领先科技公司吸收AI芯片初创公司的例证,无论是通过直接收购还是大规模商业合作,将其纳入主导生态系统[19] - **初创公司挑战**:SambaNova、Groq和Cerebras等被视为利基挑战者,但随着竞争加剧和客户接受度有限,许多此类初创公司难以突破与主要客户的试点部署阶段[19] - **战略试错与卡位总结**:特斯拉Dojo的停摆与重启是一次昂贵的商业试错,验证了全栈自研训练芯片对非云巨头不具可复制性,但为推理侧保留了技术储备;Cerebras与OpenAI的联姻是在推理爆发前夜的精准卡位,用极致性能换取垂直场景定价权[19] - **行业背景**:在摩尔定律放缓、先进封装接力、AI场景碎片化的三重背景下,晶圆级集成技术路线正在以意想不到的方式重新定义“大”的边界[19]
AI芯片格局
傅里叶的猫· 2026-01-24 23:52
一、TPU的崛起与挑战 - Google TPU凭借对LLM的原生优化优势,正成为OpenAI、苹果等科技巨头的重要选择,逐渐打破英伟达GPU的垄断格局[3] - 从GPU生态迁移至TPU面临显著的技术适配挑战,包括数值表示和精度体系差异,模型转换过程复杂,根据参数量差异,复杂模型的转换周期可能长达一周[4] - 全球AI算力需求爆发式增长,TPU出现约50%的供给缺口,导致算力排队和项目延期,并将生产压力传导至核心代工方台积电[5] - TPU基于Google自研的JAX开源框架,与主流的CUDA生态不兼容,熟悉JAX的开发者占比极低,抬高了使用门槛[5][6] 二、TPU与AWS Trainium的对比 - Google TPU将矩阵和张量运算嵌入芯片硬件层面,在LLM规模化运行中具备显著效率优势,是OpenAI选择其作为推理核心的关键原因[7] - AWS Trainium未将矩阵运算模块集成于芯片本身,需依赖外部库和内存调用,导致单芯片效率受限,在大规模集群中累计效率损耗显著[7] - 在网络架构上,谷歌通过GKE在垂直扩展能力上突出;AWS凭借Elastic Fabric Adapter在水平扩展上有优势;英伟达在InfiniBand等技术上实现了横竖扩展的较好平衡[8] - AI芯片竞争已延伸至软件生态、网络架构等全栈协同,Google TPU的“芯片+框架+网络”闭环生态构成了核心壁垒[8] 三、Oracle的逆袭策略与风险 - Oracle凭借绑定美国政府政策和联合产业链伙伴囤积高端芯片,实现了“弯道超车”[9] - 根据美国临时规定,截至10月底,部分硬件厂商需优先供应政府机构,Oracle借此成为政府芯片采购核心伙伴,并联合CoreWeave、Nebius等近乎垄断了H200、B200等高端芯片的市场供给[10] - Oracle与OpenAI签订了未来4-5年价值3000亿美元的计算资源合作协议,通过算力转售赚取20%-25%的抽成[10] - Oracle缺乏自研LLM和成熟的数据中心运营经验,其AI业务与核心数据库业务脱节,商业逻辑高度依赖与Palantir的“数据+算力”互补合作[11] - 未来面临谷歌、微软等巨头的算力竞争加剧,以及若芯片产能缓解、政策红利消退,其资源垄断优势将快速弱化的挑战[12] 四、OpenAI的资金与商业困境 - OpenAI陷入“高投入、低产出”的资金困境,年营收约120亿美元,乐观估算年现金流仅60亿美元,但其总投入规模达3000亿美元级别,现金流无法覆盖需求[14] - 全球多地(欧洲、日本、澳大利亚、印度等)存在算力供给缺口,制约其全球化扩张[14] - LLM推理业务是其核心收入,但该业务毛利率乐观估计仅30%左右,净利率约25%,当前20美元/月的个人订阅价难以可持续盈利,需提价至40-50美元/月[15] - 相比谷歌拥有30亿日活用户的产品生态,OpenAI在企业级应用和云服务上布局薄弱,缺乏稳定落地场景,议价能力较弱[15] - OpenAI计划与博通合作研发专属TPU/NPU芯片,目标在12个月内启动部署,达成10GW级AI加速器容量,涉及百亿级美元订单,但该计划被行业认为不切实际,缺乏经验、资金和供应链资源[16] 五、大模型的未来发展方向 - 当前自回归式大模型出现性能增益边际递减问题,参数量扩大带来的性能提升收窄,而算力成本指数级增长[17] - “用AI生成的数据训练AI”的闭环模式可能导致数据质量劣化[17] - 电力供应不足已成为制约算力集群扩张的现实物理瓶颈,对英伟达的过度依赖导致全供应链承压[17] - 未来发展方向包括:1) 混合专家模型(MoE),通过任务分工降低算力成本并提升效率;2) 扩散模型,一次性生成整体语境以提升推理效率;3) 多模态与实体数据融合,拓展应用场景[18][19] - AGI短期内难以实现,大模型将回归工具属性,行业竞争焦点从“做出更强的模型”转向“更好地落地模型价值”[19]
资金动向 | 北水抛售阿里近15亿港元,连续6日加仓小米
格隆汇· 2026-01-23 20:50
南下资金整体流向 - 1月23日南下资金净卖出港股16.01亿港元 [1] - 本周南向资金累计净流入约235.23亿港元,环比上周多流入135亿港元 [5] 个股资金流向详情 - 1月23日净买入泡泡玛特7.47亿港元、小米集团-W 6.08亿港元、腾讯控股2.4亿港元 [2] - 1月23日净卖出阿里巴巴-W 14.9亿港元、中国移动6.21亿港元、长飞光纤光缆1.38亿港元、金风科技1.23亿港元 [2] - 南下资金已连续6日净买入小米集团,共计30.7384亿港元 [4] - 南下资金已连续15日净卖出中国移动,共计117.1603亿港元 [4] 相关公司动态与行业信息 - 泡泡玛特推出2026年情人节限定款盲盒“星星人怦然星动”系列,其毛绒挂件迅速售罄并在社交媒体引发热议 [6] - 小米集团拟回购不超过25亿港元的B类普通股,回购计划于1月23日正式启动 [6] - 腾讯控股旗下“微信珊瑚安全”宣布将强化对虚假摆拍类视频的规范治理 [6] - 阿里巴巴集团据称正推进旗下AI芯片子公司平头哥的独立上市,目前处于内部重组和准备阶段 [6] - 中国移动设立“算力专项办公室”,统筹全集团的算力战略与布局 [7] - 工信部表示内地6G第一阶段技术试验形成超过300项关键技术储备,5G和千兆光网已融入97个国民经济大类中的91个 [7]
半导体设备板块午后拉升,半导体设备ETF易方达(159558)本周连续5个交易日“吸金”
搜狐财经· 2026-01-23 20:38
市场表现与资金流向 - 1月23日半导体设备板块早盘承压,午后持续反弹拉升,相关ETF中,半导体设备ETF易方达(159558)全天净申购超6000万份 [1] - 从周维度看,中证芯片产业指数上涨2.3%,中证云计算与大数据主题指数下跌1.7%,中证半导体材料设备主题指数下跌1% [1] - 半导体设备ETF易方达(159558)在本周前四个交易日连续获资金净流入,合计6.7亿元 [1] 行业指数近期与历史表现 - 截至1月23日收盘,中证云计算与大数据主题指数近1月累计上涨16.3%,近3月上涨15.8%,今年以来上涨13.9%,近1年上涨71.3%,近3年上涨106.2%,近5年上涨55.9%,基日以来累计上涨638.2%,年化涨幅16.4% [6] - 中证芯片产业指数近1月累计上涨17.9%,近3月上涨12.1%,今年以来上涨18.7%,近1年上涨69.6%,近3年上涨91.4%,近5年上涨53.3%,基日以来累计上涨275.8%,年化涨幅14.5% [6] - 中证半导体材料设备主题指数近1月累计上涨23.0%,近3月上涨31.4%,今年以来上涨26.5%,近1年上涨95.0%,近3年上涨85.1%,近5年上涨68.0%,基日以来累计上涨551.1%,年化涨幅31.4% [6] 行业指数估值水平 - 截至1月22日,中证云计算与大数据主题指数滚动市销率为5.3倍,估值分位数为99.8% [2][5] - 中证芯片产业指数市净率为8.2倍,估值分位数为95.6% [2][5] - 中证半导体材料设备主题指数市净率为8.3倍,估值分位数为82.7% [2][5] 行业增长前景与驱动因素 - 受先进制程投资以及中国半导体自主化浪潮驱动,2024年全球半导体设备销售额达1171亿美元,同比增长10% [1] - 根据SEMI预测,2025年全球半导体设备销售额预计同比增长13.7%至1330亿美元 [1] - 展望2026年,半导体设备板块将延续AI驱动的高景气度,销售额预计将同比增长10% [1] 相关指数与ETF产品概况 - 中证云计算与大数据主题指数聚焦AI算力服务,由50只业务涉及提供云计算服务、大数据服务及相关硬件设备的股票组成,主要包括计算机、通信行业 [3] - 中证芯片产业指数聚焦AI芯片,由50只业务涉及芯片设计、制造、封装与测试等领域,以及为芯片提供半导体材料、晶圆生产设备、封装测试设备等物料或设备的股票组成 [3] - 中证半导体材料设备主题指数聚焦AI芯片设备与材料,由40只半导体材料和半导体设备的代表性公司组成 [3] - 跟踪上述指数的ETF产品包括:云计算ETF易方达(516510)、芯片ETF易方达(516350)、半导体设备ETF易方达(159558)[2] - 全市场跟踪中证云计算与大数据主题指数的ETF共5只,跟踪中证芯片产业指数的ETF共6只,跟踪中证半导体材料设备主题指数的ETF共5只 [4] - 部分ETF产品提供低费率,管理费率为0.15%/年,托管费率为0.05%/年 [3][4]
BAT造芯“暗战”升级,腾讯“嫡系”燧原科技抢滩科创板
环球老虎财经· 2026-01-23 19:18
公司IPO进程与融资计划 - 燧原科技IPO于1月23日正式获得上交所受理,保荐机构为中信证券,公司距离登陆A股更近一步[1][2] - 公司拟融资60亿元,资金计划投向基于五代AI芯片系列产品研发及产业化项目、基于六代AI芯片系列产品研发及产业化项目、先进人工智能软硬件协同创新项目三大部分[1][2] - 公司筹备上市已有一年多,于2024年8月首次提交IPO辅导备案,2025年11月将辅导机构变更为中信证券,并于2026年1月1日完成IPO辅导[2] 公司业务与市场地位 - 公司主要产品定位于非GPGPU架构的AI芯片,与寒武纪相同,不同于摩尔线程、沐曦股份、壁仞科技,具体涉及云端AI芯片及产品的研发、设计和销售[1][2] - 公司已自研迭代了四代架构5款云端AI芯片,并构建了从AI芯片、加速卡到智算系统及软件平台的完整产品体系,已成为我国云端AI芯片领军企业之一[3] - 公司明星产品“燧原S60推理加速卡”已累计实现7万卡落地规模,性能处于国内推理卡领先水平[3] - 2024年,中国AI加速卡整体出货规模超270万张,英伟达以约190万张出货量占据约70%市场份额;当年燧原科技销售AI加速卡及模组总数达3.88万张,对应市场份额约1.4%[3] 财务与经营业绩 - 公司预计达到盈亏平衡点的时间最早为2026年[3] - 2022年至2025年前三季度,公司分别实现营业收入9010.38万元、3.01亿元、7.22亿元、5.4亿元[3] - 同期,公司归母净利润分别为-11.16亿元、-16.65亿元、-15.1亿元、-8.88亿元[3] - 同期,公司研发投入占营业收入比例分别高达1096.12%、408.01%、181.66%、164.77%[3] 股权结构与重要股东 - 公司实际控制人为赵立东、张亚林,合计控制公司28.1357%的股权[4] - 腾讯科技及其关联方共持有燧原科技20.26%股份,是公司持股比例最大的外部股东[1][7] - 2025年前三季度,公司对腾讯科技(深圳)的销售金额占比超过七成(71.84%)[1][8] 客户集中度与腾讯合作关系 - 2022年至2025年前三季度,公司对前五大客户的销售金额占营业收入比例分别为94.97%、96.50%、92.60%和96.41%,客户集中度高[8] - 同期,公司对腾讯科技(深圳)的销售金额占比分别为8.53%、33.34%、37.77%和71.84%,对腾讯的销售依赖度显著提升[8] - 公司与腾讯自2019年起开展业务合作,已形成稳定关系,预计未来一定时期内对腾讯销售占比较高的情形仍将持续[8] - 腾讯作为股东,不仅提供资金支持,其云服务和数据中心也为燧原科技的AI训练芯片提供了应用场景[6][7] 行业背景与竞争格局 - 燧原科技冲刺IPO之际,阿里旗下平头哥被传出可能上市,百度已确认推动昆仑芯上市,显示百度、阿里、腾讯在AI芯片领域的“暗战”正趋向白热化[1][11] - 近期AI芯片企业上市潮涌现:2025年12月,摩尔线程、沐曦股份登陆科创板,市值最高时分别达4423亿元、3580亿元;2026年1月2日,壁仞科技亮相港交所,成为“港股国产GPU第一股”,目前市值超850亿港元[9][10] - 高盛研报分析,若市场给予百度旗下昆仑芯类似于寒武纪的估值倍数(40倍市销率),百度持有的59%股权价值将高达220亿美元,相当于百度当前总市值的45%[12] 公司创始团队与融资历史 - 两位实控人赵立东、张亚林均有浓厚科技大厂经验,曾分别在AMD等公司担任重要研发管理职务[5] - 公司成立于2018年,截至2025年8月估值为182亿元[2] - 公司最初于2018年4月获得种子轮融资,同年获得Pre-A轮融资3.4亿元人民币,腾讯成为领投者[6] - 腾讯从2019年至今,连续参与了公司A轮、B轮、C轮及后续多轮融资[7]
燧原科技科创板IPO获受理,腾讯系AI芯片独角兽冲刺科创板
21世纪经济报道· 2026-01-23 19:10
IPO与募资计划 - 燧原科技科创板IPO申请已获受理,保荐机构为中信证券,成为近期继摩尔线程、沐曦集成电路、壁仞科技之后又一家冲击二级市场的国产AI芯片头部企业 [1] - 公司计划公开发行新股不低于4303.52万股且不超过6835.00万股,占发行后总股本比例不低于10%且不超过15%,计划募集资金约60亿元 [1] - 募集资金将用于基于五代及六代AI芯片系列产品的研发及产业化项目,以及先进人工智能软硬件协同创新项目 [1] - 截至2025年8月,公司估值为182亿元 [1] 股权结构与实际控制 - 公司无单一控股股东,联合创始人兼CEO赵立东与联合创始人张亚林为共同实际控制人 [2] - 两人通过直接持股及员工持股平台,合计控制公司28.1%的表决权 [2] 腾讯的深度绑定与客户集中度 - 腾讯科技及其一致行动人苏州湃益合计持有燧原科技20.26%股份,为第一大股东,腾讯投资董事总经理姚磊文为公司董事会成员 [4] - 腾讯不仅是核心资本支持方,也是重要大客户,双方合作最早可追溯至2020年,第一代训练芯片“邃思1.0”已在腾讯云上线使用,2021年腾讯发布的AI推理芯片“紫霄”为双方联合研发成果 [4] - 2025年前三季度,公司前五大客户贡献收入占比为96.41%,其中直接对腾讯科技(深圳)的销售收入占比为57.28% [5] - 若将指定最终客户为腾讯的收入合并计算,公司对腾讯的关联销售金额占营业收入比例高达71.84% [5] - 截至2025年9月末,腾讯科技(深圳)的应收账款余额占比为29.92% [5] - 公司预计未来一定时期内对腾讯销售占比较高的情形仍将持续 [5] 业务拓展与收入结构 - 公司近年来积极向由政府主导的智算中心项目拓展,密集布局“东数西算”节点 [6] - 公司与甘肃省庆阳市人民政府、中国电信甘肃公司等合作共建万卡集群,庆阳万卡集群于2024年落地 [6] - 2025年1月,基于燧原S60算力集群的太湖亿芯(无锡)智算中心投入运营 [6] - 2024年,公司智算系统及集群业务收入占比一度达到56.24% [6] 财务表现与研发投入 - 2022年至2024年,公司研发费用分别为9.88亿元、12.29亿元和13.12亿元,三年合计35.29亿元,占同期营收的比例超过316% [6] - 同期,公司扣除非经常性损益后归母净亏损分别为11.50亿元、15.67亿元和15.03亿元 [6] - 同期,公司经营活动产生的现金流量净额分别为-9.87亿元、-12.09亿元和-17.98亿元 [6] - 2025年前三季度,公司营收为5.40亿元,扣非后归母净亏损为9.12亿元,经营活动产生的现金流量净额为-7.70亿元 [7] - 公司预计,在国际贸易摩擦等外部环境不发生重大变化的前提下,其达到盈亏平衡点的预期时间最早为2026年 [7] 技术路线与产品战略 - 公司选择建设自有芯片生态供应链,强调面向训练与推理的专用AI加速器体系,而非兼容英伟达CUDA生态的GPGPU技术路线 [8] - 公司基于自主指令集,原创了GCU-CARE加速计算单元和GCU-LARE片间高速互连技术,对标英伟达的Tensor Core和NVlink技术 [8] - 软件平台层面,公司自研了全栈AI计算及编程软件平台“驭算TopsRider”,包括驱动程序、编译器、算子库等,未跟随英伟达主导的CUDA生态 [8] - 公司认为,依赖或兼容CUDA生态可能在知识产权方面存在问题,因此选择自建开发工具链,推进软硬件一体化 [9] - 2025年7月,公司发布了第四代训推一体芯片邃思400,原生支持FP8低精度算力 [10] - 基于邃思400构建的L600训推一体加速模组支持单层最多128卡全互联拓扑,其构建的云燧ESL超节点系统可应用于千亿参数以上规模大模型的训练与推理 [10] 市场竞争与行业地位 - 根据IDC数据,2024年中国AI加速卡整体出货规模超270万张,英伟达以约190万张出货量占据约70%的市场份额 [10] - 2024年,燧原科技AI加速卡及模组销售量为3.88万张,对应中国AI加速卡市场的占有率约1.4% [10] - 未来,英伟达在国内市场销售存在不确定性,国产AI芯片厂商在中国市场出货量占比不断提升是大概率趋势 [10] 创始团队背景 - 创始团队带有鲜明的“AMD系”色彩,联合创始人兼CEO赵立东早年曾在AMD任职7年,另一位联合创始人张亚林同样出身AMD [1]
华东大厂大规模「叫停」B200租赁订单;H200陷入价格迷雾;上市AI芯片公司曾「险」被收购;国资智算平台组建高管天团或求技术自主
雷峰网· 2026-01-23 18:01
算力租赁市场设备迭代 - 华东某头部大厂大规模叫停B200租赁订单,计划全面转向B300机型,此前配套资金已批复到位,但仅1-2个B200项目完成落地,其余已紧急叫停或转投B300 [1] - B300现货稀缺,即便谈妥订单供货量也十分有限,而市场上原有B200流通量极为紧张,目前仅华南某地区有数十台库存 [1] 英伟达H200出口与市场现状 - 特朗普政府宣布允许英伟达向“经批准的中国客户”出口H200芯片,但市场陷入观望僵局,多数企业暂停下单 [2] - H200模组价格据称从150多万元降至125万元,但降价真实性存疑,因内存价格上涨且美方要求征收25%出口分成 [3] - 自开放消息公布以来,尚未有一批H200完整走完双端审批流程流入国内,真实流通成本无法核算 [4] - 数周前产业报价显示,H200整机价格约205万元,行货价格预计高出20%,而头部贸易商参考价为220万元,但许多海外服务器大厂尚未拿到合规出货法律文件 [5] - 目前仅某服务器厂商有少量出货,侧面印证英伟达备货所剩无几,即便台积电立即重启产能,到货周期也至少需要3个月 [5] 国产AI芯片公司发展动态 - 过去三年间,多家国产AI芯片公司为解决经营与融资压力,曾主动寻求被国内某头部信创整机企业收编,但谈判均以失败告终 [6] - 在产业收购路径被阻断后,上述公司转而选择并完成了公开上市,目前均已登陆科创板或港交所 [6] 国资智算平台动向 - 北京某国资背景算力平台组建了豪华高管阵营,成员来自IBM、花旗投行中国业务、全球知名半导体企业等机构 [7] - 该平台能获取医疗、金融等高门槛国央企的数据,这是民营智算企业难以触达的 [7] - 行业观点认为,该平台正试图剥离早期的外部技术服务方,转而构建完全自主的核心技术底座,并在全国范围内外包智算中心,覆盖从规划到交付的全链条 [8] 英伟达L系列芯片需求 - 华北某互联网大厂上月敲定3万余片英伟达L20、L40芯片订单,用于特效、动画制作等渲染类业务场景,反驳了“L系列产品已过时”的论调 [9] - 对大厂而言,5090存在合规风险,而L20、L40技术成熟、生态兼容度高,能稳定匹配渲染场景需求,即便有国产替代产品,该大厂仍坚定选择英伟达过代产品 [9] 英伟达5090显卡价格波动 - 英伟达RTX 5090显卡迎来涨价潮,单卡涨幅普遍达5000-6000元,当前市场价格区间为28400-31000元 [10] - 海外市场消息称5090官方参考价将从2000美元大幅上调至5000美元,进一步助推国内涨价预期 [10] - 行业分析指出,此次涨价可能并非单纯市场调节,而是英伟达的主动布局,通过抬高消费级显卡售价,引导算力需求转向刚获准出口的H200 [10] 中昊芯英市场策略与传闻 - 中昊芯英在推进AI芯片产品商业化中,疑似在部分销售合同中引入带有“最低使用率承诺”条款的协议,以稳定订单预期 [11] - 该模式可能掩盖产品在开放竞争环境下的真实性能表现 [11] - 业内对其核心团队在国际顶尖AI芯片项目中的履历存在争议,对其宣传深度与真实背景持审慎态度 [12] - 市场传闻该公司可能通过非传统IPO渠道(如寻求重组或借壳)进入资本市场 [12] 润泽科技财务表现 - 润泽科技2025年前三季度毛利率达48.11%,显著高于行业19%-25%的平均水平 [13] - 高毛利核心依托两大因素:算力需求爆发前提前布局设备优化采购价并保障供应;与核心客户签订“3+2”合作协议,将核心利润集中在前期3年兑现 [13] - 后续2年或将面临价格敞口,意味着其依托订单带来的红利效应或将逐步收窄 [13] 国产算力项目竞争与挑战 - 国产算力赛道热度攀升,国内头部服务器厂商接连接手多个国产算力项目,为各家国产芯片厂商搭建算力集群 [14] - 算力租赁厂商坦言,国产算力项目存在消纳难题,规模在64台服务器以上的集群可获得芯片厂商专属工程师支持,但中小规模集群后续运维依赖项目集成方,带来不便 [14] - 国产芯片厂商竞争进入饱和式博弈阶段,以广西某银行算力项目招标为例,仅需数十台设备却吸引多家头部厂商竞标,项目方经全流程实测验证后,最终选择阿里巴巴旗下平头哥半导体的产品方案 [14] 智算中心建设与运营模式演变 - 智算中心建设出现出资方与统筹建设方角色分离的新方式,要求运营商垫资,再由建设方自行解决包销问题 [15] - 为对冲风险,新建智算项目合同中“100%包销”已成为入场标配,原本5年的包销周期现已普遍拉长至7年,核心要求是5年内必须回本 [15]