Workflow
H100
icon
搜索文档
华创证券:大模型发展催化GPU需求 多家国产AI智算芯片加速追赶
智通财经网· 2025-12-24 14:16
GPU并行计算能力适用于AI训推需求,大模型发展催化GPU需求 智通财经APP获悉,华创证券发布研报称,目前AI投入产出已实现闭环,有望进一步致使海外大厂加码 AI相关投资。近年美国多次修订出口规则扩大管制范围,GPU是国内人工智能发展的基础,国产算力 芯片自主可控迫在眉睫。当前,国内多家GPU厂商陆续推出AI智算芯片产品,并逐步追赶国际领先标 准。 华创证券主要观点如下: 2023-2025年,美国多次修订出口规则扩大管制范围。由于GPU是国内人工智能发展的基础,相关政策 持续加码支持国产算力行业发展。当前,寒武纪、海光信息、摩尔线程、沐曦股份等国内厂商推出多款 AI智算芯片产品,并逐步追赶国际领先标准。从各公司创始团队及核心成员来源来看,寒武纪核心创 始成员均来自中科院计算所,海光信息核心高管大部分来自中科曙光,摩尔线程创始成员来自英伟达, 沐曦股份创始成员多数来自超威半导体,决定了其技术底蕴及技术基础。从产品路线及收入规模来看, 海光信息CPU产品贡献主要营收,信创CPU产品带动整体收入实现较快起量;寒武纪深耕AI智能芯片, 收入放量强依赖于互联网客户验证及部署进程,因此收入在25年实现爆发式成长。摩尔 ...
云加速器研究-Blackwell 业务扩张,价格保持稳定-Cloud Accelerator Study_ Blackwell Broadens Out, Pricing Holds Up
2025-12-20 17:54
涉及的行业与公司 * **行业**:全球半导体行业,特别是AI加速器(GPU/ASIC)与云计算服务领域 [2] * **主要涉及公司**: * **NVIDIA (NVDA)**:报告核心分析对象,涵盖其多代GPU产品(P100, A100, H100, H200, B200, B300)[4][5][6] * **AMD**:提及其实例(MI300X, MI355X)在主要云服务商中缺乏可见度 [2][4] * **云服务提供商 (CSPs)**:包括**AWS (Amazon)**、**Azure (Microsoft)**、**Google Cloud**、**Oracle**、**Coreweave**、**Lambda**、**Nebius**,分析了其AI加速器的供应与定价策略 [4][5][6] * **ASIC供应商**:**Google**的TPU系列(v2至v6,提及即将推出的v7 'Ironwood')和**Amazon**的Trainium/Inferentia系列 [4][6] * **其他提及公司**:Intel (INTC)、Mobileye (MBLY) [56][57] 核心观点与论据 * **AI需求环境与加速器迭代**: * **Blackwell平台加速普及**:NVIDIA B200在AWS和GCP的现货市场首次出现,B300在AWS现货市场的出现速度远快于B200从发布到上市的时间差,表明部署加速 [2][4] * **旧款GPU需求依然强劲**:Ampere、Hopper及更早世代的GPU(如2019年的P100)供应仍然广泛,位置数量月度持平,年度仅小幅下降,与NVIDIA CEO关于旧款安装基础被充分利用的评论一致 [4][18] * **ASIC供应稳定但新品未全面上市**:Google TPU v2-v6和Amazon Trainium/Inferentia定价相对稳定,但Trainium2价格波动且可能接近售罄或内部调配 [4][25][26];Google的TPU v7 'Ironwood'尚未在市场上出现,预计大规模量产正在进行中 [4] * **AMD在主要云平台缺乏可见度**:在覆盖的数据集中,AMD实例未在任何主要云服务商中提供(上次在Azure看到MI300X是在7月),仅在Oracle的手动渠道检查中可见,表明市场渗透有限 [2][4] * **定价趋势与云服务商策略**: * **整体定价保持坚挺**:尽管投资者担忧AI需求持续性,但加速器定价保持良好,旧款加速器仍有广泛供应,云厂商认为这些旧芯片仍有经济价值 [2] * **AWS价格重新平衡**:AWS对NVIDIA旧世代GPU进行了混合定价调整,月度下降1.8%,具体表现为降低A100及更老芯片价格,同时提高H100(+3.3% M/M)和H200(+1.2% M/M)价格 [4][9][14];此举被视为AWS持续努力调整其与同行的费率以及平衡现货与按需销售,而非需求变化 [4] * **按需与现货溢价**:不同加速器的按需与现货价格溢价各异,例如H100的溢价在2.1倍至2.7倍之间,而一些旧款GPU(如V620)溢价可达5.4倍 [6][12] * **性能与性价比分析**: * **Blackwell性价比具有竞争力**:B200的性价比(价格/性能)至少与Hopper(H100/H200)具有竞争力,且远优于旧款加速器 [4] * **具体性价比数据**:以按需价格每PFLOPs成本计,H100为$1.73,H200为$2.47,B200为$2.06;以现货价格每PFLOPs成本计,H100为$0.93,H200为$1.41,B200为$0.80 [37][45] * **世代间性能飞跃**:从A100到H100,理论性能(FP8 PFLOPs)提升993%,同时现货每PFLOPs成本下降73%,按需每PFLOPs成本下降50% [37] 其他重要内容 * **数据来源与方法**:报告基于**UBS Evidence Lab**的专有数据集,对云服务商的定价页面进行数据抓取和分析,提供了详细的加速器可用位置、现货与按需价格数据 [2][6][53] * **风险提示**: * **NVIDIA风险**:包括AMD在GPU领域的竞争、基于ARM的应用处理器领域的激烈竞争,以及半导体行业收入趋势与企业盈利能力挂钩的周期性风险 [54] * **AMD风险**:上行风险包括在云/数据中心服务器渗透率超预期及AI领域取得更好进展;下行风险包括来自Intel的激进价格竞争带来的利润率压力,以及无法及时将生产有效转移至台积电 [55] * **Intel风险**:NVIDIA在数据中心的新计算密集型工作负载领域建立了强大护城河,并可能最终利用其GPU架构更广泛地取代Intel;AMD的新客户端和服务器CPU也构成威胁 [56] * **估值与目标价方法**: * **NVIDIA**:基于市盈率(P/E)倍数设定目标价 [54] * **AMD**:基于未来十二个月市盈率(NTM P/E)方法进行估值 [55] * **Intel**:基于分类加总估值法(SOTP)设定目标价 [56] * **报告性质与免责声明**:该文件为UBS全球研究产品,包含分析师认证、利益冲突披露、评级定义(如买入:预测股票回报率FSR高于市场回报假设MRA 6%以上)及针对不同地区的监管分发说明 [3][61][62][63][95];报告使用了人工智能工具进行辅助准备,但经过了人工审查 [90][99]
What is vibe coding, and why are Nvidia, Google backing Lovable at $6.6B valuation?
Invezz· 2025-12-19 04:50
融资与估值 - 瑞典初创公司Lovable在B轮融资中筹集了3.3亿美元 公司估值达到66亿美元 此轮融资由英伟达和谷歌的风险投资部门领投 其他参与者包括Accel、Khosla Ventures、Menlo Ventures、Salesforce Ventures等十多家知名机构[1][2] - 此次融资使公司估值在短短五个月内增长了两倍 同时公司年度经常性收入达到2亿美元里程碑[1] - 这是AI编码初创公司领域规模最大的融资之一 标志着传统软件开发正面临来自自主AI代理的真正颠覆[2] 业务模式与增长 - Lovable是一个“氛围编程”平台 该模式是一种彻底简化的软件开发方法 用户无需逐行编写代码 只需用通俗英语描述需求 其AI代理即可在几分钟内生成功能齐全的全栈应用程序[3] - 平台能生成使用React和Tailwind CSS的前端UI、后端逻辑、数据库模式和部署配置 用户可通过GitHub集成进行可视化迭代或直接编辑代码[4] - 公司增长迅猛 年度经常性收入从2025年7月的大约1亿美元翻倍至11月的2亿美元 这一成就在短短四个月内实现[4] - 平台目前拥有近800万用户 开发者每天在Lovable上构建大约10万个新应用程序[5] - 收入来自分级SaaS模式 起价为每月25美元 高级功能每月100美元 企业客户可获得定制集成和专属支持[5] 战略投资者动机 - 英伟达的投资具有明显的硬件考量 氛围编程生成的应用程序通常需要大量推理计算 而持续优化代码、调试错误和提出改进的AI代理系统消耗大量GPU资源 每位开发者使用Lovable构建日益复杂的应用程序都意味着对GPU的增量需求[6] - 对英伟达而言 支持Lovable创建了一个消费引擎 可推动其H100、L40S及下一代AI加速器的采用[7] - 谷歌CapitalG和Alphabet的参与反映了互补但不同的战略利益 首先 公司可将Lovable的能力整合到Google Cloud的开发者生态系统中 并可能利用其庞大的语言模型能力来提高代码生成质量[7] - 其次 氛围编程代表了企业客户构建软件方式的类别转变[8] 如果Lovable的技术成熟并普及 可能会将开发工作负载引向云基础设施 Google Cloud、Azure和AWS都有动机将AI编码工具嵌入其平台[9] - 第三 Alphabet获得了关于GitHub Copilot(微软的AI编码助手)的灵活性 Lovable的全栈生成方法与Copilot的代码补全模型有根本不同 创造了竞争杠杆或收购吸引力的潜力[9]
宏景科技20251215
2025-12-16 11:26
纪要涉及的行业或公司 * 公司为**宏景科技**(亦称红景科技),主营业务为**算力租赁**与相关基础设施服务,同时涉及传统智慧城市业务 [1] * 行业为**人工智能算力基础设施**与**数据中心**服务行业,涉及GPU算力卡(如英伟达H800、H200、B卡系列)的租赁、集成与运维 [3][5] 核心观点与论据 **1 公司算力业务发展迅猛,合同与收入持续高增长** * 公司自2013年涉足HPC,2016年已有GPU计算集群项目,具备先发优势 [3] * 算力业务收入:2023年1.15亿元,2024年增至4.89亿元,2025年前三季度总营收达15.51亿元 [2][4] * 合同签订额:2024年签订13亿元H800合同 [2];2025年上半年已披露合同额达27.5亿元,包括万卡H200五年期合同及宁夏移动合同 [2];2025年目标签订100亿元合同已基本完成 [3][12] * 在手及潜在订单:已交付H800、宁夏移动H100和H200订单 [3];预计2026年交付一万张B卡,另有一万张B卡及境外需求正在谈判中 [3][10];一个B卡万张订单五年锁定价接近60亿元人民币 [3][23] **2 公司通过特定合作模式解决资金问题,并维持目标利润率** * 资金管理:与国企(如山东铁路投资下属山铁数科)合作,由合作方提供资金购买设备再租赁给公司,以降低融资成本并确保供应链稳定 [2][6] * 利润率水平:已交付的H800和H200卡项目,净利润率维持在15%左右;预计B卡利润率更高 [2][6];公司目标将净利润率控制在15%左右 [3][12] * 利润率短期波动原因:2025年前三季度因主要租赁项目(如万卡H200)尚未完全交付计费,导致利润率未达预期 [2];第三季度因算力集成类项目占比上升,影响了租赁项目的利润表现 [7] **3 公司业务布局涵盖国内与海外,并向上游技术平台延伸** * 海外市场:在东南亚(马来西亚、新加坡)布局较快,已签订新加坡项目合同(金额几千万),并与泰国、香港公司对接 [3][9];在沙特建设数据中心,预计2026年落地 [4];海外模式需先绑定数据中心再寻客户,预计2026年一二季度更多机房建设落地,整体规模预计不小于国内 [3][9] * 产业链布局:当前主要绑定大客户提供训练基础设施 [5];2025年尝试开发云平台资源调度(算力池调度),以应对未来各行业应用场景落地后的需求增长 [5] * 传统业务战略:催收应收账款;承接增量业务以预付款达40%以上为标准;将智慧城市与算力结合应用到各行业(如医疗)[11] **4 市场动态与竞争格局:需求强劲,竞争门槛高** * 市场需求:客户对高性能设备(如B200、B300)的需求强劲 [8][26];算力租赁需求主要集中在大模型训练领域 [19][20];2025年大厂三年预算规模约3900亿元,实际投入可能更高 [21] * 需求驱动原因:大厂坚定投入训练侧;部分行业场景(如法律大模型“法瑞”)已跑出实质性效益,带来明确业务反馈 [22] * 竞争格局:主要竞争对手是曾签过大规模订单、有交付经验的公司 [14];由于卡片设计和组网难度增加,供应商布局有所收缩,客户更倾向选择有交付经验的供应商 [14] **5 技术趋势与政策影响** * 冷却技术:目前风冷占主导(H800、H200、B200),未来新型产品(如B300、GB)将以液冷为主 [15];液冷应用目前不广泛,但未来体量会逐渐增加 [15];技术差异主要影响后续运维维修,公司正进行相关人才储备 [16] * 国产卡需求:目前仅北京地区大客户有需求,市场仍以高性能NV系列卡为主导 [18] * 政策影响(H200放开):若H200完全放开,对已交付的算力租赁公司暂时没有影响,客户对高性能设备(B200/B300)的租赁需求不会改变 [2][8][24];可能影响客户自持卡片的结构调整,但不会冲击租赁市场 [2][26] * 监管预期:中美博弈下,高端设备进入中国市场可能附带条件(如配额制或申请制),而非无条件开放 [26] 其他重要内容 * **合同特点**:算力租赁合同一般为5年期锁定,未采用3+2或4+1形式 [13] * **交付与验收节奏**:预计2026年一季度至二季度完成B卡交付验收;GB型号预计2026年三季度末至四季度初落地 [3][23];主要租赁项目预计在2026年一季度末完成上架测试,二季度完成客户验收 [7][28] * **团队规模**:公司算力团队(技术+业务)规模约为100人以下 [17] * **短期业绩预期**:预计第四季度随着三个主要租赁项目全部计费,整体情况将改善 [7];2026年合同额目标在2025年基础上实现双位数增长 [12]
美股 AI 投资到底有没有泡沫
钛媒体APP· 2025-12-16 10:46
文章核心观点 - 全球AI产业正经历价值重估,美国市场存在结构性泡沫风险,主要体现在算力投资过热、龙头公司估值虚高及部分软件公司商业化不足,而中国市场则呈现“理性有余、热度不足”的特征,整体泡沫风险较低但面临投资规模不足等挑战 [1][7][8][10] - AI产业的健康发展需摒弃“泡沫焦虑”与“规模崇拜”,以长期主义布局核心技术,并以务实态度推进商业化落地 [1][12] 结构性泡沫(美国AI市场) - **硬件层面存在“算力军备竞赛”与资本支出失控风险**:英伟达凭借高端GPU构建垄断壁垒,2025年Q3 AI芯片业务营收同比激增210%,毛利率78%,全球超90%的AI训练算力依赖其产品,订单排期至2027年,但其市盈率超75倍,远超半导体行业30倍的平均估值,市值一度突破3万亿美元,高估值高度依赖AI算力需求的持续爆发 [2] - **英伟达与AI生态的“绑定式繁荣”暗藏风险闭环**:其业绩与AI行业融资热度深度绑定,2025年全球AI初创企业融资额同比下降32%,部分中小客户取消或延迟订单,导致英伟达Q4 AI芯片出货量增速环比回落15% [3] - **科技巨头资本支出过热放大行业风险**:微软、亚马逊、谷歌等五大科技巨头2026年资本支出预计突破4700亿美元,较2024年翻倍,其中80%用于算力设施建设,近60%流向英伟达,下游应用落地不及预期可能传导至上游产能闲置 [3] - **企业为算力投资导致财务风险累积**:甲骨文为承接OpenAI订单,将2026财年资本支出上调至500亿美元(同比激增136%),占营收比重高达75%,自由现金流转为-100亿美元;科技行业有息负债总额升至1.35万亿美元,达十年前4倍 [4] - **软件层面存在循环融资与商业化短板**:OpenAI计划未来数年投入1.4万亿美元,但预计2029年仍将亏损1150亿美元,其与甲骨文、英伟达的千亿级合作被质疑为“深度绑定的循环融资”,缺乏独立盈利能力 [4] - **头部AI软件公司估值与业绩严重脱节**:Palantir市盈率超180倍,Snowflake接近140倍,微软、谷歌的AI相关业务估值拆分后也远超传统业务,这些估值高度依赖英伟达算力的持续供给 [5] - **应用层面“叫好不叫座”削弱硬件高估值逻辑**:科技巨头的AI相关收入增长远不足以覆盖巨额资本支出,Meta、微软甚至预计2026年考虑股东回报后自由现金流为负;2025年Q4,微软、亚马逊的AI服务器采购量环比分别下降8%、12%,引发市场对2026年算力需求增速放缓的担忧 [6] 真实价值(美国AI市场) - **当前估值水平相对温和**:与2000年互联网泡沫时期纳指80倍市盈率相比,当前纳指26倍的预期市盈率处于相对温和水平 [7] - **领军企业具备技术合理性与生态优势**:英伟达通过GPU+CUDA生态构建高护城河,尚无有效替代者,并开始布局AI推理与边缘计算芯片;谷歌的TPU芯片形成“自研芯片+自有大模型”的闭环优势 [7] - **AI技术的长期产业价值真实存在**:AI对科学研究、产业升级具备革命性潜力,如美国“创世纪计划”整合超级计算机与数据资源推动AI赋能科研 [7] - **泡沫具有结构性特征**:美国AI的“泡沫”更多体现在算力基础设施投资过热、龙头估值虚高及部分软件公司依赖概念炒作,但核心技术创新与长期产业价值仍值得肯定 [7] 理性与过热(中国AI市场) - **投资规模审慎,整体泡沫风险较低**:2025年中国互联网龙头合计资本支出约4000亿元,仅为美国同业的十分之一,资本支出占收入、经营现金流的比例分别为10%、50%,远低于美国厂商的27%和71% [8] - **审慎源于内部供血与政策管控**:国内AI企业多依赖母公司内部现金流供血,循环融资现象罕见;发改委通过电力配额管控IDC建设节奏,防止过度投资,主要IDC市场上架率稳定 [8] - **硬件领域避开“堆算力”路径,推进国产化替代**:国内芯片企业在专用芯片、边缘计算芯片等领域实现突破,超节点在推理甚至训练工作负载中的占比持续提升 [9] - **软件与应用层面注重场景落地与良性循环**:以DeepSeek为代表的本土大模型性能逐步追平美国同业,更注重适配国内场景;AI在云服务、广告、智能办公等领域落地加快,新场景不断涌现 [9] - **局部领域存在泡沫苗头与长期投入不足挑战**:部分初创企业盲目跟风依赖概念炒作;一些地方政府主导的AI产业园存在同质化竞争与资源浪费;在基础研究、高端芯片、核心算法等领域的长期投入仍显不足 [9] - **企业面临投资储备不足压力**:阿里巴巴原本计划三年投入3800亿元用于AI基础设施,最终发现这一数字“可能偏小” [9] 中美发展模式差异与未来路径 - **发展模式本质不同**:美国采取“高举高打”的激进策略,凭借资本优势大规模投资抢占技术制高点,但导致泡沫风险;中国以“稳扎稳打”为原则,控制风险并注重商业化落地与国产化替代,但面临投资规模不足、基础研究薄弱的挑战 [10] - **美国化解泡沫风险需回归商业本质**:遏制盲目扩张的资本支出,将投资重心从算力堆砌转向技术创新与效率提升;加快商业化落地节奏,挖掘高价值应用场景;理性看待龙头企业估值,警惕英伟达估值与算力需求增速的错配风险 [11] - **中国需平衡发展与风险**:避免“泡沫恐惧”而错失机遇,加大基础研究与核心技术投入以缩小高端硬件差距;同时警惕局部泡沫,建立理性投资评估体系,引导资本流向具备技术实力和商业化潜力的企业 [11] - **全球产业终局将转向价值驱动**:AI发展必然伴随泡沫与调整,非理性繁荣退潮后优质企业将凸显,推动产业从“资本驱动”转向“技术驱动”与“价值驱动” [11]
全球首个太空AI诞生,H100在轨炼出,马斯克爆赞
36氪· 2025-12-11 11:46
行业里程碑事件 - 首个在太空训练和运行的大型语言模型诞生,由搭载英伟达H100 GPU的Starcloud-1卫星基于Karpathy的nanoGPT项目,使用莎士比亚语料训练完成 [1][3][9] - 谷歌开源模型Gemma首次在太空成功运行,并向地球发出了问候信息 [1][11] - 该成就获得了包括马斯克、前谷歌CEO在内的科技界AI领袖们的广泛赞誉 [7] 技术实现与性能 - Starcloud-1卫星搭载的H100 GPU,其算力比以往任何进入太空的GPU强100倍 [9] - 该卫星在短短一个月内即在太空中成功训练出LLM [9] - 模型具备实时情报分析能力,例如可瞬间识别野火热点并通知应急人员,并能结合自身传感器数据(如高度、姿态、位置)进行实时交互 [16] - 太空运行的Gemma模型反馈复杂度与在地球上运行时无异 [12] 商业模式与成本优势 - 太空数据中心利用太阳能无限供电,其成本可降至地面数据中心的1/10 [20] - 公司最终目标是打造一个功率达5吉瓦(5GW)的轨道数据中心,配备宽高约4公里的太阳能板和冷却面板 [20] - 太空算力集群的功率将超过美国最大的发电厂,但占地面积和成本远低于地面同等规模的太阳能农场 [22] - Starcloud卫星的设计寿命约为五年,与英伟达芯片的使用周期一致 [22] 公司发展规划 - Starcloud计划于2026年10月进行下一次发射,将一次性搭载多枚H100 GPU,并整合Blackwell平台以提升AI性能 [22] - 下一次发射还将集成云基础设施公司Crusoe的模块,使客户能够直接从太空部署和运行AI工作负载 [22] 行业竞争格局 - 太空算力赛道竞争激烈,参与者包括Starcloud、谷歌、SpaceX和蓝色起源等 [25] - 谷歌启动了“Project Suncatcher”,计划将自研的GPU太阳卫星送入太空,目标利用近日点不间断的太阳能,计划在2027年进行早期测试 [26] - 马斯克表示Starlink V3卫星有望扩展成为轨道算力基础设施的骨干网络 [28] - SpaceX的“星舰”有望每年向轨道运送相当于300吉瓦至500吉瓦功率的太阳能AI卫星 [30] - 蓝色起源的“新格伦”(New Glenn)火箭取得重大进展,预计未来将向轨道运送大量卫星 [31][32] - OpenAI的Sam Altman也曾试图收购或合作火箭公司,希望将AI算力部署到太空 [33] 行业驱动因素 - 地面数据中心面临巨大压力:给电网带来负担、每年消耗数十亿加仑水资源并排放大量温室气体 [19] - 国际能源署预测,到2030年,全球数据中心的用电量将超过如今的两倍 [19] - 将数据中心迁至太空被视为应对地球资源约束的解决方案 [17] 核心团队背景 - 联合创始人兼CEO Philip Johnston:连续创业者,前麦肯锡顾问,负责国家航天机构卫星项目,拥有哈佛大学MPA、沃顿商学院MBA、哥伦比亚大学应用数学与理论物理硕士学位,是CFA持证人 [35][37] - 联合创始人兼CTO Ezra Feilden:拥有十年卫星设计经验,专攻可展开太阳能阵列,曾参与NASA“月球勘探者”等任务,拥有伦敦帝国理工学院材料工程博士学位 [39] - 联合创始人兼总工程师 Adi Oltean:前SpaceX首席软件工程师,负责“追踪波束”项目(用于Starlink),前微软首席软件工程师,拥有超过25项专利 [41]
震惊!英伟达推芯片定位技术,狙击走私乱象
是说芯语· 2025-12-10 17:03
文章核心观点 - 英伟达已完成一项自主研发的AI芯片定位验证技术的内部演示,该技术旨在通过分析通信时延来追踪芯片地理位置,以应对高端AI芯片走私问题,并将作为可选软件搭载于Blackwell架构芯片[1] 技术背景与市场动因 - 该技术是全球AI芯片领域监管与走私博弈升级的直接产物,美国对H100、A100等高端AI芯片的严格出口管制催生了成熟的走私产业链[3] - 据业内估算,仅2025年第二季度,就有价值约10亿美元的被禁英伟达芯片通过多种方式流入中国市场,深圳华强北甚至形成了专门的走私芯片维修地下产业[3] - 美国司法部已对涉嫌走私价值逾1.6亿美元英伟达芯片的团伙提起刑事诉讼,美国国会两党也提出“芯片追踪法案”,推动企业建立产品流向监控系统[5] 技术原理与实现 - 技术原理跳出传统GPS框架,依托英伟达GPU的机密计算能力,通过捕捉芯片与官方服务器通信的时延差异来反推芯片所在地理区域,精度比肩主流互联网定位服务[1][4] - 该软件最初设计用于满足大型数据中心对芯片计算性能的追踪需求,定位功能属于技术延伸应用,采用被动式识别方案,不会主动植入监控模块,理论上不影响芯片核心性能或增加安全漏洞[4] - 技术将率先以可选软件形式搭载于最新Blackwell架构芯片,该架构在安全认证机制上全面升级,具备更强的加密通信和数据隔离能力[1][4] - 公司正评估将该技术向旧款芯片适配的可行性,未来计划通过软件更新供客户自主选择安装[4] 战略意义与行业影响 - 对英伟达而言,这是响应美国政府监管诉求的关键举措,有助于完善合规体系,降低出口管制违规风险[5] - 对全球芯片贸易而言,这一创新为解决高科技产品走私难题提供了技术范本,通过软硬件结合构建“后销售追踪”机制,有望填补传统监管在跨区域流转监控中的空白[5] 面临的挑战 - 技术落地面临现实挑战,中国网络安全监管部门已就该技术是否存在“后门”、是否侵犯用户数据安全等问题约谈英伟达[6]
震惊,英伟达GPU竟带定位器
半导体芯闻· 2025-12-10 16:14
文章核心观点 - 英伟达正在开发一项基于“机密计算”技术的位置验证软件服务,旨在帮助客户监控其AI GPU集群的健康状态和库存,并可能用于阻止其高端AI芯片被走私至受出口限制的国家 [1] 英伟达的位置验证技术 - 该技术是一项可由客户自行安装的软件选项,利用英伟达GPU的“机密计算”能力来实现 [1] - 软件通过测量与英伟达服务器通信的时间延迟来推断芯片的大致位置,精度与其他基于互联网的定位服务相当 [1] - 该功能最初是为了让客户能够追踪芯片的整体计算性能,这是大型数据中心运营商的常见需求 [1] - 该功能将首先在最新的“Blackwell”系列芯片上提供,因其在“证明”流程方面比Hopper和Ampere两代产品具备更强的安全功能 [1] - 公司也在研究让早期产品支持相关功能的可能性 [1] 机密计算技术详解 - 机密计算是一种保护使用中数据的技术,可防止任何人查看或篡改数据及运算过程 [3] - 其通过与处理器绑定的加密密钥,构建可信执行环境,生成经加密签名的“证明”以验证硬件和固件的安全配置 [3] - 该技术补齐了数据生命周期防护的最后一块短板,实现了数据在传输、静态存储和使用状态下的全流程无明文暴露 [4][5] - 在云与边缘计算场景下,机密计算将防护重心转向防范设备所有者获取用户数据,操作系统等软件无法读取或修改用户程序的内存数据 [5] - 机密计算的底层基础是每个处理器独有的安全密钥,通过“安全度量启动”和构建“安全飞地”来运行用户应用 [8] - 通过“远程证明”机制,用户可验证机密防护体系是否完好 [8] 英伟达GPU的机密计算实现 - 英伟达在2023年首次推出机密计算,旨在保护数据与代码在使用中的安全 [8] - H100是全球首款支持机密计算的GPU,可在传统虚拟机或基于Kata的Kubernetes机密容器中运行 [8] - H100在芯片上集成硬件可信根,并通过安全启动、SPDM会话及加密签名的“证明报告”构建可信执行环境 [9] - 自Volta、Turing、Ampere到Hopper架构,公司持续增强固件加密、回滚防护等,实现从硬件、固件到驱动的一体化安全栈 [9] - H100的机密计算模式分为CC-Off、CC-On和CC-DevTools三种,启用后CPU与GPU之间的数据、指令、内核均以加密形式传输 [9] - 实现GPU机密计算需配合CPU厂商的CVM能力,如AMD的SEV-SNP和Intel的TDX,并通过设备证书、英伟达远程证明服务等机制验证设备安全 [10] - 在性能上,机密计算模式下GPU原生算力与HBM带宽不受影响,主要开销来自CPU-GPU加密传输与跳板缓冲区带来的延迟 [10]
H200获批出口中国,英伟达GPU:迎来新争议
创业邦· 2025-12-09 18:40
美国对华AI芯片出口政策动态 - 美国商务部计划批准英伟达向中国出售H200 AI芯片 其性能高于此前获准的H20 但不如顶级Blackwell及未来的Rubin系列芯片[2] - 该决定是在美国总统特朗普与英伟达CEO黄仁勋会晤后做出的 部分官员支持出口H200 认为这是既能保持英伟达在华竞争力 又不会让中国在AI领域超越美国的折衷方案[2] - 智库Institute for Progress估计 H200的性能几乎是H20的六倍[3] - 此举可能为英伟达带来数以十亿美元计的销售额 并帮助难以获得顶级芯片的中国科技巨头训练模型[4] 英伟达在华市场战略与重要性 - 英伟达CEO黄仁勋认为应允许公司在华竞争 因为中国拥有许多世界顶尖的AI研究人员 美国应希望他们使用美国技术[4] - 黄仁勋明确表示 中国的AI需求规模对英伟达的未来至关重要 并称“你无法取代中国”[4] - 此前特朗普政府批准对华出口H20时 要求销售额的15%上缴美国政府 目前尚不清楚此协议是否适用于H200销售[2] 市场对英伟达GPU出货量的质疑 - 有博主质疑英伟达CEO关于Blackwell GPU已出货600万块的说法 认为其报告的数据中心收入与出货量不匹配[5][6] - 自Blackwell推出以来 英伟达报告的数据中心GPU收入为1110亿美元 该博主计算认为这仅对应250万到350万颗Blackwell芯片 与600万块的出货量声明存在差距[8] - 即使加上2024年第四季度报告的“Blackwell收入超过100亿美元” 总收入超过1210亿美元 博主估算这仅对应近400万块Blackwell GPU 仍不匹配[9] - 博主从能源角度分析 为美国数据中心可能接收的390万到420万块GPU供电 需要约85吉瓦到110吉瓦的电力容量 相当于新加坡总发电能力或约十座标准核反应堆 而美国2024至2025年新建数据中心容量合计约85吉瓦 仅够最低限度供电[10][11] 做空者对公司会计与商业模式的担忧 - 知名投资者迈克尔·伯里要求提供英伟达囤积GPU的证据 并买入与英伟达挂钩的看跌期权[13][14] - 伯里观点的核心在于AI硬件的会计折旧问题 他认为AI硬件更新换代速度太快 合理使用寿命可能接近三年 而非行业普遍采用的更长折旧期(如4-6年)[15] - 较长的折旧期会降低每季度账面成本 提高短期收益 伯里认为这掩盖了经济真相 若使用寿命缩短 许多AI采用者的实际利润率可能远低于表面值[15][17] - 伯里及一些分析师担忧AI生态系统中可能存在供应商融资或循环融资 人为制造需求 英伟达对此予以坚决否认[17] - 这场争论的焦点在于当前AI资本支出速度是否与长期价值创造相匹配 投资者正密切关注数据中心运营商的设备使用寿命决策、资本支出速度及是否存在融资安排[18] 行业会计处理争议与现状 - 《华尔街日报》指出 关于AI芯片折旧速度的会计争论正在激烈进行 科技巨头在AI基础设施上投入数千亿美元 使得折旧方法备受市场关注[20] - Meta Platforms将其大部分服务器和网络资产的预计使用寿命从4-5年延长至55年 使其2025年前九个月的折旧费用减少了23亿美元[20] - Alphabet和微软对类似资产的使用寿命从2020年的三年延长至六年 亚马逊则从四年计划延长至六年 但今年将部分设备的使用寿命缩短至五年[21] - 有观点认为 对于价值早期急剧下降的资产(如AI芯片) 加速折旧法可能比直线折旧法更能反映经济现实 例如使用三年的H100系统转售价格约为全新价格的45%[23] - 会计折旧是基于估计和假设的人为构建概念 精确性罕见 最终资产价值是否受损取决于投资的实际回报 而非选择的折旧方法[24][26]
大厂自研芯片加速,逃离英伟达
半导体行业观察· 2025-12-08 11:04
文章核心观点 - 全球主要科技巨头正加速推进自研或定制AI芯片,以应对AI热潮带来的半导体需求,旨在降低对英伟达的依赖、控制成本并提升供应链自主性 [1][2] - 英伟达首席执行官黄仁勋对定制芯片的竞争威胁持淡化态度,强调其公司在工程能力、技术栈广度和CUDA软件生态上的综合优势难以被复制 [4][6] 科技巨头自研AI芯片动态 - **微软**:正与博通洽谈合作,共同研发新一代客制化AI芯片,旨在为数据中心打造更具成本效益和掌控度的运算核心,以应对生成式AI模型规模膨胀带来的供应链压力 [1] - **谷歌**:母公司Alphabet推出Ironwood TPU v7,被视为首款能正面挑战英伟达Blackwell GPU的专用加速芯片,正扩大客户使用范围并强化AI超级运算竞争力,意图切入数据中心市场 [2] - **亚马逊**:旗下AWS已正式开放客户使用新一代AI加速芯片Trainium3,并将其部署至部分数据中心,该芯片主打低成本、高能效,被视为英伟达H100、B100的替代方案,AWS宣称其在特定AI训练场景的效能与能耗比优于市面主流GPU [2] - **OpenAI**:正与博通合作开发自家客制化AI芯片,预计明年下半年开始部署,此举旨在降低因GPT模型需求暴增而购买大量英伟达GPU所产生的成本,并提升运算自主性 [3] 英伟达对竞争的看法 - 英伟达首席执行官黄仁勋认为,定制芯片的开发团队在工程能力上难以与英伟达竞争,世界上真正擅长构建复杂AI系统的团队并不多 [4] - 黄仁勋指出,对于云服务提供商而言,在数据中心部署“随机ASIC”远不如选择英伟达技术栈理想,因为英伟达产品应用范围更广 [6] - 黄仁勋强调,即便竞争对手能复制英伟达的计算硬件能力,英伟达拥有的CUDA强大软件栈才是真正吸引业界的关键所在 [6] - 黄仁勋声称英伟达致力于在AI预训练、后训练和推理等所有主要细分领域保持“不可替代”的地位 [6]