英伟达H100
搜索文档
中国未来最大的对手,不是特朗普,而是手握近万亿美元的马斯克?
搜狐财经· 2026-02-15 17:47
马斯克的商业版图与综合实力 - 马斯克旗下AI公司xAI与SpaceX合并,新公司估值达1.25万亿美元,其个人财富因此超过8000亿美元,成为历史首位[3] - 马斯克持有12%的特斯拉股份及数十亿股票期权,综合财富已接近“万亿富翁”门槛[3] - 其商业帝国涵盖特斯拉、星链、xAI、脑机接口和Optimus机器人,每一项都是关乎国家命脉的重资产领域[5] 特斯拉与中国市场的深度绑定 - 特斯拉上海超级工厂2024年交付量达91.6万辆,占其全球总交付量的一半[7] - 该工厂除了是生产交付中枢,还是关键的数据收集中心,特斯拉在中国收集的自动驾驶数据已超过30亿公里,且每日新增约120万公里[7] - 上海工厂的工人产能效率已是美国本土工厂的数倍,而工资仅为美国的七分之一,形成了“效率反向绑定”[16] 星链(Starlink)的战略影响与潜在风险 - 星链已部署上万颗卫星,计划总数达4.2万颗,大量占用全球各国竞相争夺的低轨道资源[9] - 其卫星具备变轨能力,存在军事化应用潜力,可用于干扰、封锁甚至攻击其他航天器,中国空间站曾因此两次紧急避让[9] - 星链提供不受国家管控的全球联网通信能力,已在缅甸反诈行动中查获30多套终端设备,对国家安全构成潜在挑战[9] 人工智能(xAI)的生态整合野心 - xAI虽处亏损,但资本持续投入,因其与特斯拉共享数据池与算法底座,目标是将AI整合进汽车与机器人[11] - 其终极目标是构建一个融合星链网络、汽车、机器人的闭环智能生态系统,实现“上游垄断+终端全面控制”[11] - 这种模式可能定义关键生态的标准与底座,使其他企业只能在有限空间内寻找发展缝隙[11] 对中国产业链与科技发展的“鲶鱼效应” - 特斯拉进入中国,以“上海速度”(从签约到投产不足一年)拉动了中国纯电动汽车整个产业链的发展,带动了从电池(如宁德时代)到整车(如比亚迪)及零部件供应商的快速成长[13] - 中国供应链展现的韧性,成为特斯拉难以轻易脱钩的关键[15] - 在航天领域,中国通过“国网星座”、“千帆星座”等计划以及放开商业航天牌照,对标星链模式发展本国低轨卫星网络[16] 中国在相关领域的现状与挑战 - 在AI算力方面,有报告指出华为昇腾芯片的算力约为英伟达H100的七分之一,在核心算力上存在差距[18] - 中国在AI应用侧拥有生态和真实场景优势,可支撑算法优化,且工程师密集型产业在AI训练成本高企时可能形成反超优势[18] - 面临的挑战在于马斯克实现了跨汽车、太空、AI、通信等领域的全链条整合,这种跨界能力是单个龙头企业难以匹敌的,中国需要构建整体生态而非依赖单个“赛道冠军”[18] 竞争本质的演变与未来方向 - 未来的全球竞争关键将在于谁定义了技术标准、垄断了通信通道、掌握了算法闭环并拥有“全脑操控权”,而不仅是GDP或传统制造业的比拼[20] - 中国需要在算力自主、数据主权、全球低轨星座覆盖、技术标准制定等多个领域同时取得突破[22] - 面对马斯克所代表的、能打破传统秩序并重组全球标准的“科技统治力量”,中国需要系统性创新与生态构建[22]
供应链失序时代 联想集团何以成为业绩"异类"?
格隆汇· 2026-02-13 13:13
行业宏观背景 - 全球科技巨头微软、谷歌、亚马逊披露巨额AI资本支出计划,但市场对投资回报率存在“时差”焦虑,导致其市值集体下挫,三巨头市值蒸发近9000亿美元[1] - 上游供给紧张,AI加速器对高带宽内存的虹吸效应引发存储“超级周期”,自2025年第二季度起,全球存储芯片价格出现罕见的非线性暴涨,DRAM与NAND价格在极端时刻以“小时”为单位跳变[1] - 资本市场态度转变,从仅凭资本支出就能引发狂热,进入要求支出在合理时间内转化为营收增长的新阶段[1] 联想集团业绩表现 - 2025/26财年第三财季营收创纪录,达到222亿美元,同比增长18%[1] - 第三财季经调整后的净利润增速达到36%,是营收增速的两倍[1] - 公司业绩在供应链失序、科技巨头下挫的背景下,呈现出稳态和超预期的“异类”表现[1][2] 穿越周期的交付韧性 - 在历次行业供给冲击中,包括CPU长期紧缺、疫情期间物流中断与零部件短缺、2025年存储涨价潮,公司均展现出极强的交付韧性,未出现经营断档[2] - 2018年第二季度,在英特尔14nm产能危机导致行业“有单无货”时,公司PC出货量达1360.1万台,同比增长10.5%,并重夺全球PC第一[2] - 疫情期间,依托全球30多家制造基地和“全球资源、本地交付”模式,实现营收跨越式增长,2020-2022年连续三年跨越500亿、600亿、700亿美元大关[3] - 面对AI浪潮导致全行业15%至20%的成本上涨压力,公司通过卓越运营将外部失序转化为内部稳态[3] 市场份额与业务表现 - 第三财季PC出货量同比增长15%,连续第10个季度跑赢市场[3] - 第三财季全球PC市场份额提升至25.3%,刷新IDC统计以来的历史纪录,与第二名惠普的差距扩大至5.2个百分点,且领先优势已连续维持8个季度[3] - 商用PC出货量同比增速超15%[8] - 智能设备业务集团运营利润率维持在7.3%的高位,同比增长超15%,测算领先竞争对手约3个百分点[6] 全球供应链与运营策略 - 公司在180个市场运营全球业务长达20年,业务均衡发展,形成端到端“全球资源、本地交付”的运营策略[4] - 通过多区域、多中心的体系化配置整合资源,以“ODM+”模式对冲局部断供,维持经营和交付的连续性[4] - 被Gartner连续多年列入“全球供应链领导者”,亚太区排名第一,全球排名第八[4] - 凭借全球第一的PC市占率获得供应链“确定性溢价”,在紧缺期供应商更倾向于将配额向头号客户倾斜[5][6] - 通过覆盖终端、基础设施与服务的混合式AI布局,在PC、手机、服务器等多条业务线形成合并采购规模,整体需求不逊于任何单一云客户[6] 成本与风险管理 - 通过前瞻性的资产负债表管理,提前与核心供应商签署年度框架协议,锁定供应量与成本区间,将价格波动摊入更长合约周期[7][8] - 摩根士丹利指出,公司已提前将核心内存库存储备于资产负债表之上,这种“已在表内”的确定性比口头承诺更有防御力[7] - 客户结构中企业与政府客户占绝对大头,有能力将成本压力通过高价值的企业级市场进行消化和转嫁,而非在价格敏感的消费市场进行“存量博弈”[8] - 在投行评估中,公司被认为是“抵御存储成本上涨风险的最佳公司”[8] 财务纪律与稳健性 - 在组件成本上升、需求前拉的情况下,公司端到端库存周转周与去年同期持平,现金转换周期也长期稳定,避免“追涨备货—拐点减值”的路径[10] - 第三财季经营活动现金流为9.52亿美元,自由现金流升至4.51亿美元,期末现金余额53亿美元,经调整净财务成本同比减少,未将短期波动演化为资金链压力[10] 业务结构与AI战略 - 基础设施方案业务通过“全栈式AI”布局,拥有跨品类的“资源再平衡”权力,可锁定整个AI生态链的优先级,绕过“配额陷阱”[11] - 方案服务业务连续维持20%以上的高运营利润率,且拥有极高的递延收益,成为公司的“利润压舱石”,可依靠服务收入对冲以维持健康毛利水位[11] - 公司处在“入口+基础设施+服务”的交汇点,能用AI PC、AI手机等终端承接本地推理需求,用AI服务器与边缘基础设施承接企业侧算力部署,并通过服务体系将交付延伸为持续运维与订阅[12]
一家水下AI芯片公司完成10亿元融资,瞄准大模型推理
暗涌Waves· 2026-02-13 08:57
公司近期发展与融资情况 - 算苗科技在四个月内连续完成两轮累计规模近10亿元人民币的融资 [2][3] - Pre-A轮融资由源码资本、石溪资本联合领投,联想创投等多家半导体核心产业方跟投 [3] - Pre-A1轮融资由襄禾资本领投,并获国开金融、北京顺禧等国资背景资本加持 [3] - 募集资金将用于100%国产化3D算力芯片的研发和量产 [3] 公司技术与产品核心 - 公司长期专注于3D算力芯片研发,核心产品是AI大模型推理3D定制化芯片 [4] - 公司旨在通过计算机体系结构创新和3D IC供应链解决AI大模型计算的“内存墙”制约 [4] - 现有AI芯片在推理时,高达70%的计算单元因等待数据搬运而空转,过去20年计算能力增长60000倍,内存带宽仅增长100倍 [4] - 公司研发的3D DRAM带宽可达到32 TB/s,相当于英伟达B200的4倍 [4] - 公司芯片A4的仿真数据显示,在Llama和Mixtral等主流开源大模型上,其推理吞吐量(tokens/s)能达到英伟达H200的1.26倍到2.19倍 [5] - 公司采用12nm工艺的3D架构芯片,通过将内存芯片堆叠在计算核心上并修建垂直通道,实现16-32 TB/s的带宽,以专用芯片设计换取极致推理性能 [12][13] 市场定位与战略选择 - 公司战略聚焦于AI大模型推理芯片,而非训练芯片 [15] - 从市场角度看,未来90%的AI算力需求将发生在推理侧,大模型推理算力需求将远大于训练算力 [15] - 大模型训练终将收敛,推理的成本(TCO)将成为唯一考量,这是ASIC芯片擅长的战场 [15] - 公司认为大模型推理在全球是个千亿美金的算力市场,在中国则是数千亿人民币的市场,且快速增长 [19] - 公司不做GPU,专注于3D芯片的研发、量产和全球销售,并已在该领域投资十多亿人民币 [20] - 公司相信3D芯片代表计算的未来,ASIC是解决大模型推理计算的正确路径,GPU只是过渡 [20] 创始人背景与团队构成 - 创始人汪福全曾是中科院声学所国家重点实验室博士、研究员,师从张仁和院士,后进入中科院计算所从事博士后工作,合作导师为“龙芯”首席科学家胡伟武 [5] - 公司核心科学家大多毕业于中科院计算所、声学所、自动化所以及清华等高校,团队包括半导体行业创业老兵和微软亚洲研究院的前沿AI研究员 [5] - 创始人于2009年创办中科声龙,围绕龙芯进行产业化探索,后于2018年关停相关业务,带领团队进入加密算力芯片领域 [6] - 在加密算力领域,团队选择挑战以太坊算力芯片,并于2021年第四季度推出JASMINER X4芯片,用40nm工艺实现了比英伟达7nm旗舰显卡高出20倍的加密算力功耗比,在以太坊转向POS前一年带来8亿元收入 [8] 技术发展路径与竞争优势 - 公司技术起源于攻克以太坊“抗ASIC”共识算法(ethash)带来的内存带宽瓶颈,最终在2019年底锁定3D堆叠架构 [7][8] - AI大模型计算与以太坊挖矿有相似的内存瓶颈,团队已验证3D堆叠是解决此类问题的最佳现实方案 [8] - 公司认为其生存发展的关键是“AI大模型时代,计算范式跃迁带来的新机遇” [8] - 英伟达因需维护CUDA生态和通用GPU架构的兼容性,其硬件创新受制约,而创业公司可基于第一性原理进行ASIC定制化设计,这是公司的机会 [14] - 创始人认为,在需要极致效率、具象思维的ASIC专用芯片领域,中国工程师擅长“在螺蛳壳里做道场”的精耕细作,加密算力芯片的历史已证明中国公司能称雄,AI推理战场历史会重演 [17] - 公司携手供应链伙伴,开创了中国3D堆叠芯片领域,并已在全球范围内初步形成显著优势 [20] 公司理念与行业展望 - 公司很少提“国产替代”,因其目标是成为具有国际竞争力的芯片公司,为全球AI大模型计算贡献中国优势的全新解决方案 [9] - 创始人的底气来自团队在3D IC领域多年的研发经验,以及在加密算力市场大规模商业化的成功实践 [9] - 创始人认为中国芯片产业的前途在于市场化力量,中国技术的市场化力量被严重低估 [22] - 公司在加密算力全球市场的极限生存训练,历练了团队并与国内3D IC核心供应链伙伴共同发展 [24] - AI算力在未来将像水电气一样成为新时代的基础设施,AI时代核心竞争力在于算力,算力的未来在于架构创新 [28] - 公司坚信3D堆叠架构和ASIC极致优化的设计理念,在未来5-10年内是AI大模型算力的最优解 [28]
中国团队引领太空算力:首次太空在轨部署通用大模型,发2800颗卫星服务数亿硅基智能体
量子位· 2026-01-28 10:48
文章核心观点 - 全球AI竞争的最新焦点已转向太空算力,中美两国在该领域正展开你追我赶的竞赛[1][3][4] - 中国公司国星宇航在太空算力领域展现出先发优势,其技术方案(如通用大模型在轨部署与更新)比美国公司Starcloud的当前验证更为前沿[3][8][9] - 太空算力因其在降低土地与能源成本、提供低延迟实时服务、推动AI普惠等方面的巨大潜力,成为中美押注的战略方向[13][14][17] - 太空算力面临硬件迭代、软件适配、太空环境(散热、辐射)等系统性技术挑战,中国玩家已率先突破并占据优势[19][21][22] 太空算力竞赛的中美格局 - **美国动态**:英伟达投资的Starcloud公司近期利用已发射至太空的英伟达H100芯片,成功运行开源模型,完成了太空算力技术验证[1][4] - **中国动态**:国星宇航发布了全球首个服务硅基智能体的太空算力网,计划发射2800颗卫星服务数亿硅基智能体[2] - **技术对比**:Starcloud是将地面部署好的模型随算力送上太空运行,而国星宇航已实现“隔空”在轨部署通用大模型,并能根据需求在线更新,技术更为先进[8][9][10] 国星宇航的太空算力计划 - **卫星部署规模**:计划发射2800颗卫星,其中2400颗提供推理算力(总算力达十万P级),400颗用于训练(算力达百万P级)[4] - **时间规划**:全部卫星部署完毕预计需近10年,已于2024年5月成功发射01组太空计算中心,02组和03组已投产,计划今年实现轨道部署,2030年前实现千星规模组网和商用,2035年前完成全部组网[4] - **技术里程碑**:在2024年9月25日至10月5日完成了全球首次卫星在轨运行AI模型技术验证[11],并于2025年11月协助完成千问大模型Qwen3的实时在轨部署与多项在轨推理任务[4][5][6] 发展太空算力的核心动因 - **降低成本与能耗**:节省宝贵的土地资源,并利用太空太阳能持续供能,更为节能;对比数据显示,到2026年全球数据中心总用电量预计达1万亿度,相当于1.2亿人全年用电量[13] - **提供实时低延迟服务**:服务于Robotaxi、无人机等硅基智能体,满足时效性要求极高的任务;例如可为渔业提供实时鱼群动向信息[14][16] - **推动AI普惠**:覆盖全球的太空算力网络可为偏远地区提供AI基础设施,与开源大模型共同推动AI技术普及[17] 太空算力面临的技术挑战 - **硬件迭代矛盾**:AI芯片性能迭代快(摩尔定律),与太空基建建设周期长存在矛盾,需建立硬件在轨更替机制或通过软件延长硬件生命周期[19][20] - **软件与操作系统适配**:需开发适配太空环境、同时又能兼容地面主流开发架构的操作系统[21] - **太空环境特殊性**:面临散热挑战(太空无空气,热量只能通过辐射传递)和高能粒子轰击导致硬件损坏与计算精度干扰等问题,需创新热管理与安全冗余技术[21][22]
推理需求超越训练,这种芯片为何成为汽车智能化决胜关键?
中国汽车报网· 2026-01-26 16:52
核心观点 - AI推理芯片正成为汽车智能化,特别是自动驾驶领域的关键决胜因素,市场需求已超越训练芯片并持续增长 [2][3][4] 市场趋势与需求转变 - AI芯片市场增长点正从模型训练转向推理,IDC数据显示推理芯片需求已反超训练芯片,成为数据中心算力和智能驾驶应用的新主力 [4] - 行业预言,随着自动驾驶等汽车智能化需求的快速增长,2026年推理芯片占比还将进一步大幅增加 [3] - OpenAI与Cerebras签署协议,计划在2026至2028年间将750MW规模的Cerebras芯片集成到其AI推理计算资源库中,这一部署专门为AI推理服务 [2] 推理芯片的技术与成本优势 - 相比训练芯片,推理芯片可直接应用于自动驾驶等终端设备,没有高功耗、高成本、依赖云端数据中心的短板 [5] - 训练芯片满载运行时功耗高,产生高昂电费成本,且研发生产成本极高,价格动辄数万甚至数十万元 [5] - 新一代推理芯片采用7nm甚至更先进的制程工艺,在保证高性能运算的同时大幅降低能耗 [8] - 推理芯片针对自动驾驶核心任务进行定制化神经网络加速器设计,实现算力与场景的精准匹配,提高处理效率和准确性 [9] 在自动驾驶中的关键作用 - 自动驾驶汽车已成为高度集成的智能移动终端,需要推理芯片提供强大的实时算力支持,以对环境做出迅速准确的判断 [6] - 一辆L4级别自动驾驶汽车正常行驶时,每秒产生的数据量可达数GB,这些海量数据需在极短时间内被处理分析 [6] - 推理芯片具备强大的边缘计算能力,能在车内直接完成数据处理,无需依赖云端传输,确保毫秒级的实时响应 [7] - 推理芯片通过内置神经网络算法,能准确识别行人位置、动作和行进方向,结合雷达数据计算距离和速度,迅速向控制系统发出指令 [7] 车规级应用面临的挑战 - 车规级认证是推理芯片进入汽车市场的第一道门槛,其可靠性和稳定性要求比消费级芯片高出数倍 [10] - 芯片需要通过一系列严苛环境测试,例如在150℃高温环境下持续存储数千小时,以确保全生命周期内稳定运行 [10] - 算法适配是关键挑战,推理芯片需与不同车企各具特色的自动驾驶算法深度融合,要求芯片厂商与车企、Tier1供应商紧密合作构建闭环生态 [11] - 成本控制是推动推理芯片从高端车型向量产车型普及的关键,需在保证性能和质量的前提下优化设计和生产工艺以控制成本 [11] 未来前景与行业影响 - 推理芯片的崛起标志着AI及自动驾驶产业进入新阶段,解决了AI落地应用中的成本、延迟和隐私等核心痛点 [11] - 随着自动驾驶技术从L2向L5演进,对推理芯片的算力、能效和稳定性提出了更高要求 [12] - 未来,高性能、低成本的推理芯片将成为定义下一代智能汽车形态的关键因素 [12] - 车企将围绕推理芯片展开更激烈竞争,通过与芯片厂商深度合作打造更具竞争力的自动驾驶解决方案,推动产业向更高水平发展 [12]
大芯片,再度崛起?
智通财经网· 2026-01-25 14:24
文章核心观点 - 2025年初AI芯片领域的两则重磅消息,使“大芯片”技术路线重回聚光灯下[1] - 特斯拉重启Dojo 3项目并转向太空人工智能计算,Cerebras与OpenAI敲定超百亿美元订单,两者代表了“大芯片”下两种不同的技术路径与商业策略[1] - 在摩尔定律放缓、先进封装发展及AI场景碎片化的背景下,晶圆级集成技术路线正在重新定义“大”的边界,并非直接复制英伟达的成功,而是在通用方案之外寻找价值洼地[21] 技术路线分野 - “大芯片”概括了两种截然不同的设计:以Cerebras为代表的晶圆级单片集成,以及以特斯拉Dojo为代表的通过先进封装集成多个芯片的“晶圆级系统”[3] - 分野根源在于对“内存墙”和“互连瓶颈”两大痛点的不同解法[3] - 传统GPU架构存在计算能力与内存带宽增长失衡的问题,例如英伟达H100相比A100计算能力增约6倍,但内存带宽仅增1.7倍[3] - 多GPU系统中,芯片间通信延迟是片上互联的数百倍,即便NVLink 6.0单GPU带宽已达3.6TB/s[3] Cerebras的晶圆级单片集成 - Cerebras WSE-3采用晶圆级单片集成,拥有4万亿晶体管、90万个AI核心和44GB片上SRAM,旨在将计算和存储置于同一硅片以解决内存墙问题[4] - 其片上互联带宽达214Pbps,是英伟达H100系统的3715倍,内存带宽达21PB/s,是H100的880倍[4] - 在Llama 3.1 8B模型上,WSE-3生成速度达1800 token/s,而H100仅为242 token/s[4] - 面临巨大工程挑战,通过将AI核心缩小至0.05平方毫米(约为H100 SM核心的1%)、冗余设计和智能路由来应对晶圆级良率问题[4] - WSE-3功耗达23千瓦,需要定制液冷循环和混合冷却剂[4] - Cerebras CS-3系统定位为推理专用机,通过存算一体架构极致降低延迟并简化软件栈[16] 特斯拉的晶圆级系统路线 - 特斯拉Dojo走晶圆级系统路线,D1芯片(645平方毫米)通过5×5阵列排列,利用台积电InFO封装技术实现高密度互连,使25颗芯片协同工作[5] - 该设计避免了单片晶圆的良率风险(D1芯片可预测试),并缓解互连瓶颈,芯片间延迟仅100纳秒,远低于传统GPU集群的毫秒级[5] - Dojo项目经历转向:2025年8月团队解散,2025年初重启Dojo 3项目,战略重心从对标10万张H100的通用训练平台,转向专注于“太空人工智能计算”[7][8] - 特斯拉调整策略为训练外采(采购6.7万张H100等效算力组建Cortex集群)和推理自研[8] - AI5芯片采用3nm制程,由台积电代工,预计2026年底量产,单颗性能接近英伟达Hopper级别,双芯片配置可接近Blackwell架构[8] - Dojo 3芯片制造合同授予三星,封装业务交由英特尔,反映了供应链调整及在争抢代工产能上的弱势[9] 商业合作与市场定位 - Cerebras与OpenAI敲定一份价值超100亿美元、承诺交付750兆瓦算力的多年采购协议,产能将在2028年前分批投入使用[1][11] - 该合作的关键在于OpenAI愿意为“超低延迟推理”支付溢价[11] - 巴克莱研报预测,未来AI推理计算需求将占通用AI总算力的70%以上,推理计算需求可达训练需求的4.5倍[11] - Cerebras架构在特定场景展现巨大性能优势:在碳捕获模拟中比H100快210倍,在AI推理上实现20倍加速[12] - 截至2024年上半年,Cerebras 87%的收入来自阿联酋的G42[12] - 2024年10月,Cerebras撤回IPO申请,据报道正洽谈新一轮10亿美元融资,估值约220亿美元[12] - OpenAI的订单金额超过了Cerebras当前的公司估值,使OpenAI成为其最大且唯一的主要客户[12] 行业竞争与生态格局 - AI芯片市场竞争激烈,AMD和英伟达产品迭代迅速,例如AMD MI350X/MI355X训练及推理速度与英伟达B200相当或更优,英伟达在2025年1月CES上推出Rubin平台[16] - 客户可用AMD等通用GPU厂商对冲英伟达,使第三条技术路线的窗口期收窄[16] - 英伟达的护城河在于CUDA生态积累、CoWoS先进封装产能锁定及HBM供应链深度绑定[8] - OpenAI为实现供应链多元化,与英伟达、AMD和博通签署协议,英伟达承诺投入1000亿美元支持OpenAI建设至少10吉瓦(相当于400万至500万个GPU)的英伟达系统[13] - 分析师指出,超大规模提供商正实现计算系统多样化:通用AI工作负载用英伟达GPU,高度优化任务用内部AI加速器,专业低延迟工作负载用Cerebras等系统[14] - 推理场景的碎片化意味着没有一种芯片架构能通吃所有场景,专用加速器存在价值于此[14] 技术发展趋势与前景 - 台积电预计2027年推出晶圆级CoWoS技术,将实现40倍于现有系统的计算能力、超过40个光罩的硅片面积、容纳60+个HBM芯片[17] - 先进封装技术使“大芯片”与“小芯片互联”界限模糊,特斯拉D2芯片曾采用CoWoS封装实现晶圆级性能并规避良率风险,未来Dojo3可能继续探索此路径[17] - “大”的边界在三个层面被重新定义:物理尺寸(如Cerebras晶圆级单芯片)、系统集成度(如晶圆级封装或整柜方案)、商业模式(如大规模独家合作)[19] - 2025年全球晶圆厂设备支出预计达1100亿美元,2026年增长18%至1300亿美元,逻辑微组件领域在2纳米制程和背面供电技术等推动下成为关键驱动力[19] - 特斯拉Dojo的停摆与重启是一次商业试错,验证了全栈自研训练芯片对非云巨头难以复制,但为推理侧保留了技术储备[21] - Cerebras与OpenAI的合作是在推理爆发前夜的精准卡位,用晶圆级架构的极致性能换取垂直场景定价权[21]
大芯片,再度崛起?
半导体行业观察· 2026-01-25 11:52
文章核心观点 - 2025年初,AI芯片领域的两则重磅消息——特斯拉重启Dojo 3项目以及Cerebras与OpenAI达成超百亿美元协议——使“大芯片”技术路线重回聚光灯下[1] - “大芯片”并非单一技术,主要分为Cerebras代表的晶圆级单片集成和特斯拉Dojo代表的晶圆级系统两种路线,旨在解决传统GPU架构的“内存墙”和“互连瓶颈”问题[2] - 行业竞争格局正在演变,Cerebras和特斯拉并未试图直接复制英伟达的成功,而是在AI算力版图的特定裂隙中寻找被通用方案忽视的价值洼地,进行错位竞争[19][20] 两种大芯片的技术分野与特点 - **技术路线分野**:“大芯片”概括了两种不同设计,Cerebras采用晶圆级单片集成,用一整片300毫米晶圆构建单一处理器;特斯拉Dojo采用晶圆级系统,通过先进封装将多个预测试芯片集成为类单芯片系统[2] - **传统GPU的瓶颈**:传统GPU架构存在处理器与内存分离的问题,从英伟达A100到H100,计算能力增加约6倍,但内存带宽仅增长1.7倍,训练时间主导因素从计算能力转向内存带宽[2] - **Cerebras的晶圆级单片方案**:2024年发布的Cerebras WSE-3拥有4万亿晶体管、90万个AI核心和44GB片上SRAM,通过将计算和存储集成在同一硅片来提升性能[3] - **Cerebras的性能数据**:WSE-3片上互联带宽达214Pbps,是英伟达H100系统的3715倍;内存带宽高达21PB/s,是H100的880倍;在Llama 3.1 8B模型上生成速度达1800 token/s,而H100仅为242 token/s[3] - **Cerebras的工程挑战与解决方案**:晶圆级单片面临良率挑战,Cerebras将每个AI核心缩小到0.05平方毫米(仅为H100 SM核心的1%),并通过冗余设计和智能路由绕过缺陷区域,但需要专门固件映射和复杂散热系统,WSE-3功耗达23千瓦[3] - **特斯拉的晶圆级系统方案**:Dojo的D1芯片面积为645平方毫米,通过5×5阵列排列并利用台积电InFO封装技术实现高密度互连,使25颗芯片协同工作,芯片间延迟仅100纳秒,远低于传统GPU集群的毫秒级[4] 特斯拉Dojo的战略转向与挑战 - **项目重启与战略转向**:特斯拉在2025年8月解散Dojo团队后,于短短半年后重启Dojo 3项目,其战略重心发生根本转变,目标从训练地球上的自动驾驶模型转向专注于“太空人工智能计算”[5][6] - **初始定位与调整原因**:Dojo最初被定位为对标10万张H100的通用训练平台,摩根士丹利一度估值其能带来5000亿美元增量,但核心团队离职,项目在2024年底被叫停,特斯拉转而采购6.7万张H100等效算力组建Cortex集群[7] - **转向原因分析**:英伟达的护城河在于CUDA生态积累、CoWoS先进封装产能锁定及HBM供应链深度绑定,特斯拉自研方案需在软件适配、集群调度等方面补课数年,而英伟达可能已迭代两至三代产品[7] - **新的战略选择**:特斯拉选择训练外采和推理自研,马斯克表示在两种完全不同的AI芯片设计上分散资源不合理,后续AI5、AI6等芯片在推理方面将非常出色[7] - **AI5芯片细节**:AI5芯片采用3nm制程,由台积电代工,预计2026年底量产,单颗性能接近英伟达Hopper级别,双芯片配置则可接近Blackwell架构[7] - **太空算力新赛道**:Dojo 3面向太空算力部署,马斯克计划通过SpaceX未来的IPO融资,利用星舰部署可在持续日照下运行的算力卫星,该赛道没有英伟达的生态壁垒,是全新应用场景[8] - **供应链调整**:特斯拉已将Dojo 3芯片制造合同授予三星,芯片封装业务交由英特尔承接,这反映了台积电产能饱和无法提供积极支持,以及特斯拉在争抢代工产能上的弱势[8] Cerebras的商业突破与市场定位 - **与OpenAI的巨额协议**:Cerebras与OpenAI敲定了一份价值超百亿美元、承诺交付750兆瓦算力的多年采购协议,该产能将在2028年前分批投入使用[1][10] - **协议的战略意义**:该订单是OpenAI在推理爆发前夜的一次精准卡位,OpenAI愿意为“超低延迟推理”支付溢价[10] - **推理市场需求背景**:巴克莱研报预测,未来AI推理计算需求将占通用AI总算力的70%以上,推理计算需求可达训练计算需求的4.5倍[10] - **OpenAI的考量**:OpenAI基础设施负责人表示,当AI实时响应时,用户会做更多事情、停留更长时间、运行更高价值的工作负载[10] - **Cerebras的架构优势**:其独特速度来自于将大量计算、内存和带宽集成在单个巨型芯片上,消除了传统硬件中减慢推理速度的瓶颈[11] - **性能表现**:Cerebras WSE-3在碳捕获模拟中比H100快210倍,在AI推理上实现20倍加速[11] - **公司的财务状况与客户依赖**:2024年上半年,Cerebras 87%的收入来自阿联酋的G42;2024年10月公司撤回IPO申请,最新报道称正在洽谈新一轮10亿美元融资,估值约220亿美元;OpenAI的订单金额超过了Cerebras目前的公司估值,使其成为最大也是唯一的主要客户[11] - **历史纠葛与收购可能**:OpenAI CEO Sam Altman早在2017年就个人投资了Cerebras,2018年埃隆·马斯克曾试图收购Cerebras,知情人士认为若OpenAI财务状况更强劲,或许会直接收购该公司[12][13] - **促成供应链多元化**:OpenAI在2025年也与英伟达、AMD和博通签署了协议,英伟达承诺投入1000亿美元支持OpenAI,建设至少10吉瓦的英伟达系统(相当于400万至500万个GPU)[13] - **市场定位分析**:分析师指出,这促使超大规模提供商实现计算系统多样化,针对通用AI工作负载使用英伟达GPU,针对高度优化任务使用内部AI加速器,针对专业低延迟工作负载使用Cerebras等系统[13] 大芯片路线的生存空间与竞争策略 - **激烈的市场竞争**:AI芯片市场竞争激烈,AMD推出了MI350X和MI355X GPU,训练及推理速度与英伟达B200相当或更优;英伟达在CES上推出了Rubin平台,更新速度令人咋舌[14] - **Cerebras的错位竞争策略**:CS-3系统不以训练平台自居,而是主打推理专用机,通过存算一体架构将推理延迟压到极致,同时简化软件栈,瞄准生态锁定效应较弱的推理市场[15] - **OpenAI订单的验证作用**:OpenAI的百亿订单是用真金白银验证专用架构的商业逻辑,当推理成本占运营支出大头时,15倍的性能提升足以重塑供应商格局[15] - **特斯拉押注先进封装**:台积电预计2027年推出晶圆级CoWoS技术,将实现40倍于现有系统的计算能力、超过40个光罩的硅片面积、容纳60+个HBM芯片,这为晶圆级集成量身定制[16] - **技术界限模糊化**:当封装技术允许在单一衬底上集成数十颗预测试芯片和HBM时,“大芯片”与“小芯片互联”之间的界限将变得模糊,特斯拉D2芯片和未来的Dojo3可能探索此路线[16] “大”的边界重新定义 - **物理尺寸的“大”**:Cerebras的晶圆级单芯片是技术奇迹,但商业价值限定在特定场景,其WSE系统价格约200万至300万美元,部署在阿贡国家实验室、梅奥诊所及与G42合作的Condor Galaxy设施,不会取代GPU成为通用训练平台,但可在推理、科学计算等对延迟敏感领域开辟新战场[18] - **系统集成度的“大”**:特斯拉的晶圆级封装、英伟达GB200 NVL72的整柜方案正在成为主流,SEMI报告显示2025年全球晶圆厂设备支出将达1100亿美元,2026年增长18%至1300亿美元[18] - **技术推动力**:台积电CoWoS路线图演进、HBM4标准化推进、UCIe互联协议普及,都在推动小芯片异构集成走向系统级单芯片化[19] - **商业模式的“大”**:OpenAI与Cerebras的合作被视为领先科技公司吸收AI芯片初创公司的例证,无论是通过直接收购还是大规模商业合作,将其纳入主导生态系统[19] - **初创公司挑战**:SambaNova、Groq和Cerebras等被视为利基挑战者,但随着竞争加剧和客户接受度有限,许多此类初创公司难以突破与主要客户的试点部署阶段[19] - **战略试错与卡位总结**:特斯拉Dojo的停摆与重启是一次昂贵的商业试错,验证了全栈自研训练芯片对非云巨头不具可复制性,但为推理侧保留了技术储备;Cerebras与OpenAI的联姻是在推理爆发前夜的精准卡位,用极致性能换取垂直场景定价权[19] - **行业背景**:在摩尔定律放缓、先进封装接力、AI场景碎片化的三重背景下,晶圆级集成技术路线正在以意想不到的方式重新定义“大”的边界[19]
台积电不相信AI有泡沫
创业邦· 2026-01-22 08:09
台积电2025年四季度财报核心观点 - 台积电2025年四季度财报多项指标大超预期,营收连续八季度同比增长,毛利率超过60%,为人工智能行业提供了强有力的背书 [6] - 公司给出2026年资本开支520亿到560亿美元的指引,相比2025年全年的409亿美元大幅上涨,预示未来芯片需求强劲,给产业注入强心剂 [9] - 财报发布后,台积电股价刷新历史新高,并带动泛林、应用材料、ASML(市值突破5000亿美元)等供应链公司股价上涨,市场对AI产业确定性信心增强 [12] 财务与资本开支表现 - 2025年四季度3nm制程营收占比达到史上最高的28%,连续6个季度超过20%,推动晶圆平均售价连续两年增长20%,是毛利率达到62.3%的主要驱动力 [14] - 2026年资本开支指引为520亿至560亿美元,较2025年的409亿美元大幅增长,且公司给出“未来三年资本开支显著增加”的信号 [9] - 资本开支的70%-80%将投入先进制程,10%用于先进封装,公司预计2024年至2029年的营收复合年增长率将达到25% [28] 3nm制程的统治地位与高毛利窗口 - 台积电3nm制程自2023年第三季度量产,至2025年第四季度已十个季度,毛利率不降反增,打破了以往制程高毛利窗口期一般不超过2年的行业规律 [17][18] - 3nm高毛利得以维持主要源于两方面:一是AI算力芯片(如英伟达、AMD)需求暴涨,加速采用先进制程;二是竞争对手(三星、英特尔)在7nm后未能有效追赶 [18] - 3nm产能极度紧张,有消息称台积电已停止接受新订单,未来两年产能均已售罄,这赋予了公司前所未有的议价能力 [18] 先进封装(CoWoS)的关键作用 - 先进封装(如CoWoS)是台积电另一大技术壁垒,该方案早在2011年完成开发,在AI算力芯片时代因“拼大”芯片的需求而大放异彩 [19] - 在先进封装领域,同行(如英特尔的EMIB、三星的I-Cube)量产时间较晚,英伟达CEO黄仁勋曾直言CoWoS目前没有替代方案 [20] - 台积电当前CoWoS年产能为115万片,已被瓜分殆尽,其中英伟达独占约57.4%(约66万片),AMD占约7.8%(约9万片) [20][22] - 先进封装在台积电资本支出中的占比,已从过去的8%左右提升到了10%-20% [20] 客户结构演变:从苹果到英伟达 - 过去,苹果是台积电先进制程开发的关键“技术赞助人”,双方合作始于2013年A8芯片的20nm制程 [25] - 3nm推出初期,苹果作为唯一客户曾因良率过低(初期不到60%)和成本过高,迫使台积电降价并承担废片损失 [26] - AI算力需求爆发后,英伟达为首的AI芯片客户涌入,产能已排队到2026年,英伟达与台积电的合作已从设计制程升级到系统级整合 [26] - 有传闻称英伟达已成为台积电A16(相当于1.6nm)制程的首位且唯一客户,双方已开展联合测试,这将是苹果20nm后首次缺席台积电新制程开发 [26] - 分析指出,英伟达已在单季度跻身台积电最大客户,预计在2026年将正式超过苹果,成为台积电新的“Big A” [26] 行业需求与产能展望 - 台积电2026年的大额资本开支指引,基于其对2-3年后需求的预测,其依据是客户反馈显示“只有台积电的芯片是瓶颈,别的不用担心” [28] - 台积电2nm制程已于2024年底启动量产,据爆料其2026年产能已被各大厂商预定一空,且2nm初期营收规模预计将超过3nm [28] - 公司对2026年及未来需求的乐观指引,以及近乎垄断的技术地位,使得竞争对手难以仅靠资金投入与之抗衡 [28]
英伟达Rubin及国内外情况
2026-01-07 11:05
涉及的行业与公司 * **行业**:人工智能计算、数据中心、服务器制造、半导体供应链[1] * **公司**:英伟达 (NVIDIA)、超微 (Supermicro)、戴尔 (Dell)、华硕 (ASUS)、技嘉 (Gigabyte)、联想 (Lenovo)、富士康 (Foxconn)、广达 (Quanta)、英业达 (Inventec)、台达 (Delta)、MPS (Monolithic Power Systems)[1][8][9][12][13][20] 核心观点与论据 1. 英伟达新一代产品(VR200/Rubin)的技术革新 * **架构升级**:采用全新Ruby架构,从L6级交付升级为L10级交付,关键零部件(中板/主板)承担更多功能并实现高效集成[2] * **算力融合**:一个Grace CPU可搭配四个Robin GPU,实现CPU与GPU的深度融合,部分计算任务可相互处理以提升整体算力[2] * **散热方案**:为应对单颗GPU功耗可能达1,000瓦甚至1,500瓦的挑战,新一代产品普遍采用液冷技术散热[2][5] * **电源设计**:VR200机柜电源采用碳化硅(SiC)技术,功耗转换率提升至80%-90%,减少损耗并提高系统稳定性[3][13] * **PCB设计**:PCB板层数从18层增加到24层甚至28层,以支持更复杂的电路设计和更高的良品率[4][5] * **互联设计**:通过收购Mellanox引入光纤互联方案,解决以太网带宽不足问题,为未来性能提升5倍做系统性架构准备[16] 2. 英伟达交付模式改变对产业链的影响 * **品牌商自主性降低**:英伟达通过固定设计方案,减少了品牌商(如戴尔、华硕)在产品设计上的自主空间,导致服务器配置同质化,调整主板、内存和硬盘等组件的灵活性降低[1][6][7] * **供应链格局重塑**:标准化设计可能促使追求更高利润率的品牌商转向AMD或谷歌等供应商[7],并形成少数供应商主导的寡头垄断局面(如PDP、水冷设备领域)[5] * **代工厂商受益情况**:富士康作为主要代工厂,与英伟达保持深度捆绑,负责H100、H200显卡及B100、B200模组的生产组装[1][9],广达和英业达的份额变化尚不明显,但未来几个月能见度将提升[9][10] * **供应链管理深化**:英伟达与富士康合作紧密,指定生产线并部署价值数千万的全自动化设备和机器人,确保与工业互联网高度匹配,实现高效生产和组装[12] 3. 市场竞争格局与厂商地位 * **服务器厂商排名**:超微因与英伟达深度合作及产品高稳定性,在国内GPU服务器市场占据领先地位[1][8],戴尔是全球服务器总量第一的公司,但在GPU服务器领域不及超微[8],华硕和技嘉正逐步进入市场[1][8] * **合作关系**:联想与英伟达关系较为紧张,在合作上处于劣势地位[8] * **供应链份额变化**:MPS(新元系统)在英伟达供应链中的份额有所增加,市场关注度较高[20] 4. 市场展望与订单预测 * **2026年产品投放**:英伟达预计2026年将加大H200投放力度,H200合规后,原购买B系列的需求将转向H系列,带动订单回流[3][18] * **国内订单规模**:预计英伟达在国内数据中心GPU订单规模为200万片,相当于25万台服务器[3][18] * **交付节奏**:从接单到交付(经台积电下单、封测、组装)约需一个月,预计从2026年4月开始交付,年底或次年第一季度完成全年订单,每季度约交付50万片[19] * **效果显现时间**:相关变化带来的实际效果预计将在今年(2026年)年中开始显现[11] 其他重要细节 * **原材料需求**:PCB板层数增加导致对铜、白银等原材料需求量增加[1][4][5] * **液冷技术细节**:液冷主要有冷板式(英伟达当前多采用,需解决密封和氧化漏液问题)和浸没式(维护成本高)两种[15] * **产品功耗与散热差异**:Robin(一CPU配四GPU)相比GB300(一CPU配两GPU),液冷数量和整机功耗都会增加,例如水冷板可能从三个增至六个[21] * **电源供应链**:台达仍是主要电源供应商,并可能采购国内成本较低且性能优越的碳化硅材料[3][13] * **技术应用澄清**:800伏特HVDC技术主要用于供电侧大电容快充,未在讨论的服务器系统内部观察到新进展[14]
AI竞赛转向推理,如何影响国际科技竞争格局?
21世纪经济报道· 2026-01-07 06:41
全球AI竞赛转向推理驱动 - 英伟达CEO黄仁勋在2026年1月CES展会提前发布下一代AI芯片平台"Rubin",打破其传统在3月GTC大会发布新品的惯例,此举释放出全球AI竞赛正从"训练主导"全面转向"推理驱动"的关键信号 [2] - 这一转变不仅是技术路线的演进,更是整个AI产业生态、基础设施布局乃至国家间科技竞争格局的重大转折点 [2] 推理场景的特点与需求 - 推理场景具有高频、低延迟、高并发、成本敏感等特点,例如智能客服系统每天可能处理数百万次查询,每次需毫秒级响应,自动驾驶需在复杂环境中持续进行多模态推理 [3] - 这些需求对硬件效率、能耗比、系统协同性提出了远高于训练阶段的要求 [3] 英伟达Rubin平台的技术亮点 - Rubin平台专为推理时代打造,在推理token成本上最高可降低10倍 [3] - 平台通过集成CPU、GPU、DPU、SuperNIC、交换芯片等六颗芯片,构建了"极端协同"的全栈系统 [3] - Rubin同步推出了专为推理设计的"上下文存储平台",用于高效管理KV Cache,避免重复计算,显著提升推理效率 [3] - 这表明AI基础设施的竞争已从单一芯片性能,升级为系统级工程能力的比拼 [3] 全球AI发展的马太效应 - 拥有强大算力和先进推理系统的国家与企业,将更快实现AI商业化落地,形成数据—模型—应用—收入的正向循环 [3] - 缺乏底层基础设施能力的参与者,将越来越依赖外部平台,陷入"应用繁荣但根基脆弱"的困境 [3] 中国AI产业的现状与挑战 - 中国在大模型研发上取得显著进展,涌现出通义、文心、混元等优秀模型,但在底层硬件和系统级优化方面仍存在短板 [4] - 国产GPU如昇腾、寒武纪等取得一定突破,但在软件生态、系统协同、能效比等方面仍需进一步提升 [4] - 国内AI基础设施在对推理场景的深度优化方面还有很大发展潜力,例如KV Cache管理、动态批处理、模型量化压缩等关键技术尚未在主流国产平台上实现高效集成 [4] 对中国AI产业发展的建议 - 强化全栈式AI基础设施研发,秉持"协同设计"理念,推动国产CPU、DPU、高速互连、AI原生存储等组件的联合创新,鼓励芯片企业与阿里云、腾讯云、百度智能云等云厂商深度合作,构建自主可控的推理系统栈 [4] - 大力发展推理优化技术与开源生态,支持攻关低比特量化、稀疏化推理、动态批处理、缓存复用等核心技术,推动建立中文AI推理基准测试体系,鼓励开源社区围绕国产硬件适配推理框架 [5] - 抢占物理AI与边缘推理新赛道,加快部署面向边缘端的轻量化推理芯片与开发平台,支持机器人、自动驾驶、工业智能、具身智能、车路协同等创新应用,通过"场景驱动+技术反哺"模式倒逼底层硬件与系统软件的协同进化 [5] AI产业范式转移 - Rubin平台等AI新产品的发布,不仅是技术迭代的里程碑,更是AI产业范式转移的宣言书 [5] - 当AI从"能回答问题"迈向"能理解世界、规划行动、完成任务"的智能体阶段,推理能力将成为衡量国家AI竞争力的关键指标 [5] - 产业界需摒弃"唯训练论"的惯性思维,以系统工程视角重构AI基础设施,才能在推理时代赢得主动权 [5]