Workflow
推理计算
icon
搜索文档
英伟达“万亿预期”能否打动市场
新浪财经· 2026-03-18 12:52
文章核心观点 - 英伟达在年度GTC大会上发布新产品并公布宏大业绩预期,以巩固其在AI算力领域的统治地位,但面临性价比竞品环伺、巨头“去英伟达化”加速以及地缘政治等多重挑战 [1] - AI产业重心正从“训练”向“推理”偏移,催生了对更便宜、更精简的推理硬件的需求,吸引了大量资本和竞争者涌入,行业竞争格局加剧 [4][5][6] - 尽管英伟达短期优势明显,但后续竞争的核心可能转向价格,其在该领域的优势并不突出 [6] GTC大会与英伟达战略 - 英伟达在GTC大会上揭晓了一款新型CPU以及一套基于Groq公司LPU技术构建的AI系统,旨在提升AI系统的响应速度,构建全新的AI推理基础设施 [2] - 公司将LPU作为“协处理器”提供,配合主加速器工作,新架构计算性能相比上一代GPU架构实现显著跨越 [2] - 公司正将GPU、CPU、LPU等技术串联起来,以保护其“护城河”,并在机器人、自动驾驶和AI代理等领域进行了布局展示 [2] - 公司创始人黄仁勋预测其最新AI处理器将帮助公司在2027年前创造1万亿美元的销售额 [3] - 公司此前曾预期Blackwell和Rubin架构芯片到2026年将带来5000亿美元的收入机遇 [3] 市场反应与财务表现 - 受GTC大会业绩预测提振,英伟达股价当天一度上涨4%,最终收涨1.2% [3] - 在GTC大会召开前,公司股价年内累计跌幅已达3.4% [3] 行业趋势:从训练转向推理 - AI产业正从“模型竞赛(训练)”向“商业落地(推理)”偏移,OpenAI、Anthropic等科技巨头的战略重心转向服务终端用户 [4] - 推理芯片在执行任务、生成响应时的能效表现远超训练阶段的高耗能处理器,市场对更便宜、更精简的推理硬件兴趣浓厚 [4] - “推理的拐点已经到来”,需求还在持续增长 [4] - 推理是一个持续且对成本高度敏感的过程 [5] 竞争格局与挑战 - 尽管英伟达目前仍占据约90%的市场份额,但其周边AI硬件领域的竞争格局已现“合围”之势 [4] - Meta等大客户正加速推进自研芯片以降低对英伟达的依赖 [4] - 原本在训练领域稍逊一筹的CPU因其成本优势,在部署环节展现出替代潜力 [4] - 云巨头与初创公司正纷纷研发竞品AI芯片,尤其侧重于推理领域 [5] - 亚马逊已推出Trainium与Inferentia系列芯片,作为英伟达的低成本替代方案 [5] - 微软近期发布了名为Maia 200的AI推理芯片 [5] - 一大批初创公司正通过研发比GPU更廉价、高效的专用芯片,试图重塑行业标准 [5] - 随着数十亿美元资本涌入,该赛道已催生出多家极具竞争力的独角兽企业 [6] - 中国是英伟达面临的最大地缘政治难题,美国的安全与贸易限制制约了其潜在增长 [6] - 华为被视为英伟达最直接的挑战者,业务覆盖芯片、服务器、网络设备和云平台 [6] - 以寒武纪为代表的中国芯片初创公司也正脱颖而出,成为有力替代方案 [6] - 后续竞争的核心可能是价格,众多企业希望用较低价格冲击英伟达的主导地位 [6]
AI产业重心转向“推理” 芯片巨头面临对手“合围” 英伟达“万亿预期”能否打动市场
环球网资讯· 2026-03-18 10:22
文章核心观点 - 英伟达在年度GTC大会上发布新产品并公布宏大业绩预期,以应对AI竞赛白热化、竞争对手环伺及行业重心向推理阶段偏移的挑战,旨在巩固其市场统治地位 [1][2][3][4] 技术发布与战略布局 - 公司发布了一款新型CPU以及一套基于Groq公司LPU技术构建的AI系统,旨在提升AI系统的响应速度,构建全新的AI推理基础设施 [2] - 新架构将LPU作为协处理器,配合主加速器工作,计算性能相比上一代GPU架构实现显著跨越 [2] - 公司正加快技术研发节奏,将GPU、CPU、LPU等技术串联起来以保护其“护城河”,并在机器人、自动驾驶和AI代理等领域展示布局 [2] 财务表现与市场预期 - 公司创始人预测其最新AI处理器将帮助公司在2027年前创造1万亿美元的销售额 [3] - 此前公司曾预期Blackwell和Rubin架构芯片到2026年将带来5000亿美元的收入机遇 [3] - 受GTC大会乐观预测提振,公司股价当天一度上涨4%,最终收涨1.2%,暂缓了市场对其增长前景的疑虑 [3] - 在GTC大会召开前,公司股价年内累计跌幅已达3.4% [3] 行业竞争格局演变 - AI产业重心正从“模型训练”向“商业落地(推理)”偏移,市场对更便宜、更精简的推理硬件兴趣增长 [4] - 公司创始人表示“推理的拐点已经到来”,需求还在持续增长 [4] - 尽管公司目前仍占据约90%的市场份额,但竞争加剧,客户正寻求降低对其依赖 [4] - Meta等大客户正加速推进自研芯片,CPU因其成本优势在部署环节展现出替代潜力 [4] - 云巨头与初创公司正纷纷研发竞品AI芯片,侧重推理领域,例如亚马逊推出Trainium与Inferentia系列,微软发布Maia 200推理芯片 [5] - 数十亿美元资本涌入推理技术浪潮,催生出多家极具竞争力的独角兽企业 [6] 地缘政治与区域挑战 - 中国是公司面临的最大地缘政治难题,美国的安全与贸易限制制约了其潜在增长 [6] - 公司创始人曾警告,阻断对华销售会加速中国本土产业发展 [6] - 华为被视为公司最直接的挑战者,业务覆盖芯片、服务器、网络设备和云平台 [6] - 以寒武纪为代表的中国芯片初创公司正成为公司之外的有力替代方案 [6] - 行业分析认为,在AI硬件领域公司短期内优势难撼动,但推理赛道的后续竞争核心可能是价格,众多企业希望用较低价格冲击其主导地位 [6]
AI产业重心转向“推理”,英伟达“万亿预期”能否打动市场?
环球时报· 2026-03-18 06:53
文章核心观点 - 英伟达在年度GTC大会上发布新产品并公布宏大业绩预期,以巩固其在AI算力领域的统治地位,同时应对来自竞争对手在AI推理市场的挑战和地缘政治风险 [1][4][6] 英伟达的战略与产品发布 - 在GTC大会上发布了一款新型CPU以及基于Groq公司LPU技术构建的AI系统,旨在提升AI系统的响应速度,构建全新的AI推理基础设施 [3] - 将LPU作为“协处理器”提供,配合主加速器工作,新架构计算性能相比上一代GPU架构实现显著跨越 [3] - 公司正通过串联多种技术来保护其“护城河”,并展示了在机器人、自动驾驶和AI代理等领域的布局 [3] - 创始人黄仁勋预测其最新AI处理器将帮助公司在2027年前创造1万亿美元的销售额 [4] - 黄仁勋表示“推理的拐点已经到来”,需求还在持续增长 [4] 市场反应与竞争格局 - 公司股价在GTC大会当天一度上涨4%,最终收涨1.2%,暂缓了市场对其增长前景的疑虑 [4] - 在GTC大会召开前,公司股价年内累计跌幅已达3.4% [4] - 尽管英伟达目前仍占据约90%的市场份额,但其周边AI硬件领域的竞争格局已现“合围”之势 [5] - Meta等客户正加速推进自研芯片以降低对英伟达GPU的依赖 [5] - AI产业重心正从“模型竞赛(训练)”向“商业落地(推理)”偏移,推理是一个持续且对成本高度敏感的过程 [4][5] - 亚马逊已推出Trainium与Inferentia系列芯片作为英伟达的低成本替代方案 [5] - 微软近期发布了名为Maia 200的AI推理芯片 [6] - 一大批初创公司正通过研发比GPU更廉价、高效的专用芯片,试图重塑行业标准,随着数十亿美元资本涌入,该赛道已催生出多家极具竞争力的独角兽企业 [6] - 后续竞争的核心可能是价格,众多企业都希望能够用较低的价格来冲击英伟达的主导地位 [6] 地缘政治挑战 - 中国是英伟达面临的最大地缘政治难题,美国政府的限制制约了其潜在增长 [6] - 华为被视为英伟达在中国市场最直接的挑战者,不仅制造芯片、服务器和网络设备,还运营自己的云平台 [6] - 以寒武纪为代表的中国芯片初创公司也正脱颖而出,成为英伟达之外的有力替代方案 [6]
“AI牛市叙事”再掀巨浪! 黄仁勋抛出万亿美元AI宏图,英伟达扬帆起航冲6万亿美元市值
智通财经· 2026-03-17 14:12
公司战略与愿景 - 公司正从单一的AI GPU供应商,彻底重构为“AI工厂”或“AI基础设施总包商”,其竞争单位已从单颗芯片升级为整座AI工厂 [1][4][9][11] - 公司CEO黄仁勋在GTC大会上将AI算力基础设施的营收机遇上调,预计到2027年至少达到1万亿美元,远高于此前提出的到2026年5000亿美元的目标 [1][4][10][13] - 公司旨在定义下一代“AI工厂”的生产函数,核心指标从训练峰值性能转向单位电力下的token产出、单token成本及首次生产时间 [4][5][10] 财务与市场预期 - 华尔街分析师平均目标价显示,公司股价未来12个月内有51%的上行潜力,目标价达273美元,对应市值约6.6万亿美元,最乐观目标价高达360美元 [1][12] - 高盛等机构认为,公司提出的万亿美元营收前景为市场提供了长周期需求背书,缓解了投资者对“AI资本开支可能在2026年见顶”的担忧 [13][14] - 截至新闻发布时,公司股价收于183.220美元,市值约4.45万亿美元,市场预期其市值将突破5万亿美元并迈向更高点位 [1][12] 产品与技术路线图 - 公司正式推出基于Blackwell架构的下一代平台Vera Rubin,并预告了Feynman架构的路线图,下一代平台将引入Rosa CPU、LP40 LPU等新组件 [5][7] - 在硬件层面,公司将CPU、GPU、LPU、DPU、网络交换芯片和存储架构整合成平台级系统,推出了Vera CPU、Rubin GPU、NVLink 6 Switch、Groq 3 LPU等产品 [6] - Vera Rubin NVL72平台相比Blackwell可实现最高10倍的每瓦推理吞吐,单token成本降至十分之一,训练大规模模型所需GPU数量可降至四分之一 [5] - 公司通过收购Groq获得技术授权,推出LPU AI推理算力基础设施系统,并将AI推理拆分为prefill(由Vera Rubin负责)和decode(由Groq AI芯片负责)两段,采用异构计算方案 [2][6][14] - 官方数据显示,Vera Rubin与LPX协同可实现最高35倍的每兆瓦推理吞吐,并为万亿参数模型带来最高10倍的营收机会 [14] 软件与生态系统 - 公司推出Dynamo 1.0,将其定义为AI工厂的推理操作系统,官方称其对Blackwell平台可带来最高7倍的推理性能提升 [7] - 在智能体(Agentic AI)方向,公司推出Agent Toolkit、OpenShell、NemoClaw等工具,并将OpenClaw上升为“个人AI的操作系统”式平台 [7] - 公司扩展了Nemotron、Cosmos、Isaac GR00T、BioNeMo、Earth-2等开放大模型家族,强化软件生态 [7] 市场定位与竞争格局 - 公司正从“训练霸主”进一步扩张为“AI算力推理基础设施总包商”,以应对在推理计算领域来自CPU及谷歌TPU等定制AI ASIC处理器的竞争 [2][10][14] - 公司强调“极限协同”设计理念,将计算、网络、存储、软件、供电和冷却作为一个整体进行优化,以在固定电力预算下实现最佳经济效益 [4][5] - 高盛认为,公司在电力受限、时延敏感的推理时代,拿出了更强的变现框架与更完整的异构算力答案,巩固了其护城河 [14] 业务扩展与新市场 - 公司将“物理AI”与“空间计算”纳入战略,IGX Thor已进入通用可用阶段,面向工业、医疗、机器人和轨道边缘计算 [8] - 公司推出Open Physical AI Data Factory Blueprint,用于加速机器人、视觉AI智能体和自动驾驶的数据生成与评估 [8] - 公司将Vera Rubin架构延伸至太空,Space-1 Vera Rubin Module相较H100可为太空推理带来最高25倍的AI算力 [8] - 公司正将“AI工厂”的范式从云数据中心扩展至跨云、边、端、车、机器人及太空的统一基础设施 [8][9] 行业影响与叙事 - 公司抛出的万亿美元AI算力宏图,旨在撑起资本市场的“AI牛市叙事”,并带动全球AI算力产业链迈向新一轮上行轨迹 [1] - 全球投资者将围绕公司、谷歌TPU集群与AMD的“AI牛市叙事”,继续锚定为全球股市中最具确定性的景气投资叙事之一 [1] - 电力、液冷散热系统、光互连供应链等与AI训练/推理密切相关的投资主题,将继续位列股票市场最火热的投资阵营 [1]
英伟达正式发布LPU,CPU重磅更新:GPU不再是GTC唯一主角
半导体行业观察· 2026-03-17 06:10
公司战略与市场前景 - 公司首席执行官预测人工智能热潮将在未来一年内产生价值1万亿美元的订单积压,是去年同期预测的两倍[1][5] - 公司首席执行官宣称正处于一个全新平台变革的开端,并重新定义了计算[5] - 首席执行官认为人工智能的发展仍处于起步阶段[4] - 首席执行官强调推理转折点已经到来,2026年将是推理能力主导人工智能的一年[50] - 公司被描述为“垂直整合但横向开放”,旨在向客户提供完整的技术栈[59] - 公司预告下一代Feynman系统,配备全新GPU、LPU、CPU等,预计2028年发布[60] 新产品发布:Rubin平台与Groq 3 LPU - 公司在GTC 2026上发布了多颗芯片和系统,以迎接市场机会[6] - Rubin平台新增Nvidia Groq 3 LPU,这是一款推理加速器,旨在增强系统以低延迟、大批量方式交付令牌的能力[7] - Groq 3 LPU集成了500 MB的SRAM,可提供150 TB/s的带宽,远高于HBM的22 TB/s[9] - 公司将构建包含256个Groq 3 LPU的Groq 3 LPX机架,提供128GB的SRAM和40 PB/s的推理加速带宽[11] - Groq LPX被设想为Rubin的协处理器,旨在提升解码性能,并服务于需要高交互性的多智能体系统[12] - 在多智能体系统中,Rubin GPU和Groq LPU的组合可将人工智能代理间通信的吞吐量从每秒100个token提升到每秒1500个token甚至更高[13] - Groq 3 LPU的推出旨在帮助公司在低延迟推理领域抵御Cerebras等挑战者,并可能导致Rubin CPX推理加速器的作用降低[15] 新产品发布:Vera CPU及机架系统 - 公司公布了全新88核Vera数据中心CPU的细节,声称其性能比标准CPU提升50%[16] - Vera CPU得益于Olympus核心IPC提升1.5倍,以及创新高带宽设计,提供最快的单线程性能[16] - 公司发布了Vera CPU机架架构,将256个液冷CPU集成到一个机架中,专为以CPU为中心的工作负载设计[16] - 该机架据称CPU吞吐量提升6倍,在智能AI工作负载中性能提升2倍[16] - Vera CPU的演进标志着公司正式进军CPU直销领域,成为英特尔和AMD的有力竞争对手[16] - 公司声称Vera CPU沙箱性能比x86竞争对手高出1.5倍,每个核心的内存带宽高出3倍,能效高出两倍[19] - Vera是一款88核144线程的CPU,采用公司设计的Arm v9.2-A Olympus核心,支持空间多线程技术[19][20] - 所有88个核心排列在一个域中,避免了NUMA架构的延迟问题[21] - Vera架构内存带宽达到1.2 TB/s,平均每个核心13.6 GB/s,单个核心最高支持80 GB/s吞吐量[22] - 芯片配备NVLink-C2C芯片间接口,吞吐量高达1.8 TB/s,是上一代Grace芯片的两倍[23] - Vera CPU机架包含256个液冷CPU、74个Bluefield-4 DPU和ConnectX SuperNIC网络,配备高达400 TB的LPDDR5内存,总内存吞吐量达300 TB/s[28] - 公司分享了基准测试结果,声称在各种工作负载下,其性能比Grace提高了1.8倍到2.2倍[29] - 公司将向Meta、Oracle、Coreweave、Nebius、阿里巴巴等超大规模数据中心运营商提供Vera CPU机架系统[30] - 众多OEM和ODM厂商将提供单路和双路服务器,Vera CPU也将用于Nvidia HGX NVL8系统[31] - Vera CPU目前已全面投产,预计将于今年下半年开始交付[32] 新产品发布:太空计算与边缘产品 - 公司发布了Vera Rubin太空模块,声称其在轨道推理工作负载方面的AI计算能力是H100的25倍[33] - 该模块专为在太空直接运行LLM和高级基础模型的轨道数据中心设计[34] - 已有六家商业航天公司部署了该平台[33] - 公司还面向任务关键型边缘环境推出Nvidia IGX Thor,面向卫星推出Jetson Orin[36] - 公司推出RTX PRO 6000 Blackwell系列服务器版GPU,声称在分析大型图像存档时,其性能比传统的基于CPU的批处理系统提升高达100倍[37] - 目前有六家公司正在轨道和地面环境中使用其平台[37] 公司业绩与市场挑战 - 公司凭借在人工智能芯片市场的主导地位,年收入从2022年的270亿美元增长到去年的2160亿美元,市值达到4.5万亿美元[42] - 自去年10月市值短暂突破5万亿美元大关以来,公司股价已经降温,原因是人们担心人工智能的热潮被过分夸大[43] - 尽管2月下旬发布的季度报告远超预期且管理层展望乐观,公司股价仍比数据公布前下跌了6%[45] - 分析师预计公司明年的收入将超过3300亿美元[46] - 公司在人工智能芯片市场正面临严峻挑战,因为谷歌和Meta等其他科技巨头试图开发自己的处理器[46] - 公司的潜在增长受到美国安全和贸易壁垒的制约,这些壁垒阻碍了其在中国销售先进芯片的能力[47] - 公司目前面临的挑战是其畅销产品在推理计算方面的吸引力不如在训练计算方面,用户反映其Grace Blackwell服务器能耗大且内存不足[51] - 有观点认为,由于推理计算商业模式重视效率和降低成本,且该领域竞争加剧,公司高达73%的毛利率必然会下降[52][53] - 为了帮助过渡到推理领域,公司与Groq达成了一项数十亿美元的授权协议,并聘用了该初创公司的顶尖工程师[54] - 有分析师认为公司市值将在未来一年左右超过6万亿美元[55] 行业竞争与格局变化 - 公司进军CPU市场,将对AMD和英特尔在人工智能数据中心的插槽争夺战构成严峻挑战[18] - 公司还需要与全球最大的超大规模数据中心运营商使用的各种定制Arm处理器展开竞争[16] - 包括OpenAI在内的众多大型客户已签约使用Cerebras的计算能力,以利用其平台优异的延迟特性[15] - 越来越多的迹象表明,公司正在将其重心从GPU转向推理计算解决方案提供商[56] - Meta宣布将在其人工智能数据中心部署数千颗英伟达Vera CPU,这是公司人工智能系统首次大规模部署且未使用GPU[56] - 据《华尔街日报》报道,公司计划推出新的采用多个独立于GPU的CPU的计算解决方案[57] - 英特尔宣布其Xeon 6处理器将作为Nvidia DGX Rubin NVL8系统的主机CPU,扩展了双方的合作[58] - 在推理迅速崛起的当下,公司能否继续垄断市场存在不确定性[62]
英伟达将发布重磅芯片
半导体芯闻· 2026-02-28 18:08
英伟达新产品与战略动向 - 公司计划在下个月的GTC开发者大会上推出一款专为人工智能“推理”计算而设计的新处理器系统,该系统将采用Groq设计的芯片 [1] - 新平台旨在帮助OpenAI等客户构建更快、更高效的工具,并可能重塑人工智能竞赛格局 [1] - 公司同意支付200亿美元从Groq获得关键技术许可,并聘请其高层领导,这是硅谷有史以来规模最大的“收购式招聘”交易之一 [3] 市场格局与竞争态势 - 随着市场向推理方向转变,公司首次面临其旗舰GPU产品的局限性,并感受到来自客户要求生产更高效芯片的压力 [2] - 在GPU市场,公司控制着90%或以上的市场份额 [2] - 竞争对手如谷歌、亚马逊已设计出能与公司旗舰系统媲美的芯片,同时科技行业自主编程能力的增长也催生了新型芯片需求 [1] - 编码应用是企业级人工智能最重要且最赚钱的应用之一,该领域存在竞争,例如Anthropic的Claude Code与OpenAI的Codex [5] 客户动态与行业需求 - OpenAI已同意成为公司新型处理器的最大客户之一,这对公司是一项重大胜利 [1] - 作为公司最大的客户之一,OpenAI过去几个月一直在寻找更高效的替代方案,并于上个月与芯片初创公司Cerebras签署了一项价值数十亿美元的计算合作协议 [1][3] - 过去一年,随着企业部署人工智能代理,对高级计算的需求已从训练转向推理,企业希望这些工具能颠覆行业并创造巨额利润 [2] - 许多公司发现GPU成本过高、能耗过大且不适合实际运行其模型,因此对成本更低、能效更高的推理芯片需求迫切 [3] 技术细节与产品架构 - 人工智能推理计算分为预填充和解码两大任务,预填充速度通常更快,而解码对于大型模型往往较慢 [4] - Groq设计的芯片采用名为“语言处理单元”的架构,在推理功能方面效率极高 [3] - 公司通常将Vera芯片(CPU)与Rubin GPU搭配构建高性能服务器,但一些大型客户发现某些AI工作负载仅使用CPU运行效率更高 [5] - 公司宣布扩大与Meta Platforms的合作,包括首次大规模部署纯CPU架构以支持Meta的广告定向AI代理,这揭示了其通过GPU以外方式锁定市场份额的战略 [5]
英伟达(NVDA.US)据悉开发AI推理芯片 OpenAI或成最大客户
智通财经网· 2026-02-28 17:05
英伟达新产品发布计划 - 芯片巨头英伟达计划发布一款全新处理器,专门为人工智能研究公司OpenAI及其他客户打造,以帮助他们构建更快速、更高效的工具 [1] - 新平台预计将在下个月于圣何塞举行的英伟达GTC开发者大会上发布,并将整合由初创公司Groq设计的芯片 [1] - OpenAI已同意成为这款新处理器的最大客户之一,这对英伟达而言是一项重大胜利 [1] 行业竞争格局与市场趋势 - 推理计算领域已成为行业激烈竞争的焦点,谷歌和亚马逊等公司已经设计出与英伟达旗舰系统相竞争的芯片 [1] - 科技行业中自动化编程的迅猛发展,催生了对新型芯片的需求,这些芯片需要更高效地处理复杂的AI相关任务 [1] - 随着市场重心从训练转向推理,一些客户开始向英伟达施压,要求其推出更高效驱动AI应用的芯片 [2] - 过去一年,随着企业部署AI代理及其他工具,先进算力的需求已从训练转向推理 [2] 英伟达的市场地位与挑战 - 英伟达长期主导着GPU市场,控制着90%以上的GPU市场份额 [2] - 英伟达Hopper、Blackwell和Rubin系列GPU被认为是训练超大型AI模型的行业标杆产品 [2] - 自AI热潮兴起以来,英伟达首次面临其旗舰产品的局限性 [2] - 许多公司发现GPU成本过高、能耗过大,且在实际运行模型方面并非最佳选择,英伟达正面临开发更低成本、更高能效推理芯片的压力 [2] - 谷歌自研芯片张量处理单元是重要挑战者,谷歌正在推进使TPU能够取代GPU的计划 [3] 客户动态与竞争威胁 - 作为英伟达最大的客户之一,OpenAI在过去几个月一直在寻求比英伟达芯片更高效的替代方案 [1] - 上个月,OpenAI与芯片初创公司Cerebras签署了一项价值数十亿美元的计算合作协议,Cerebras提供专注于推理的芯片,并称其芯片比英伟达GPU更快 [2] - 上个月,OpenAI与芯片初创公司Cerebras签署协议,为自身提供更多选择 [1] 英伟达的战略举措 - 为了巩固护城河,英伟达去年年底同意支付200亿美元,以获得Groq的关键技术授权,并聘请其高层团队,这是硅谷历史上规模最大的“人才并购”交易之一 [3] - Groq设计的芯片采用不同架构,被称为“语言处理单元”,在推理功能方面效率极高 [3]
英伟达被曝将推出新芯片以优化人工智能处理速度
环球网资讯· 2026-02-28 16:33
公司动态:英伟达 - 全球芯片巨头英伟达正计划推出一款新型处理器,旨在助力OpenAI等客户构建速度更快、效率更高的AI系统[1] - 该处理器将聚焦于AI“推理”计算领域,以优化人工智能模型对用户查询的响应能力[1] - 新系统专为推理计算设计,可显著提升AI模型处理复杂任务时的效率[3] - 新平台预计将于下个月在圣何塞举行的英伟达GTC开发者大会上正式亮相[3] - 新平台将采用由初创公司Groq设计的芯片[3] - 英伟达近期与Groq达成了一项价值高达200亿美元的授权协议[3] 公司动态:OpenAI - OpenAI对英伟达现有硬件在支持ChatGPT处理特定类型问题(如软件开发、AI与其他软件交互)时的响应速度表示不满[3] - OpenAI正寻求新型硬件解决方案,预计未来可满足其约10%的推理计算需求[3] - 为加速推理计算能力,ChatGPT开发商OpenAI曾与Cerebras、Groq等芯片初创公司探讨合作可能性[3] - 由于英伟达与Groq达成授权协议,OpenAI与Groq的谈判被迫中断[3]
英伟达封死了ASIC的后路?
半导体行业观察· 2025-12-29 09:53
英伟达与Groq的交易性质与战略意图 - 英伟达与Groq达成了一项“非独家许可协议”,而非全面收购,旨在规避反垄断监管审查[18] - 该交易涉及约200亿美元,用于获取Groq的知识产权和关键人才,是一种典型的“反向收购”策略[19][21] - 交易使英伟达能够将Groq的低延迟处理器技术集成到其AI工厂架构中,扩展其推理和实时工作负载服务能力[18] Groq LPU技术的核心优势 - LPU是Groq针对推理工作负载的解决方案,其核心优势在于确定性执行和片上SRAM作为主要权重存储[10] - Groq芯片配备230MB片上SRAM,提供高达80TB/s的片上内存带宽,显著降低延迟并提升吞吐量[10][11] - 使用SRAM相比HBM能显著降低每比特能耗,尤其在解码这类内存密集型工作负载中至关重要[14] - LPU通过编译时调度实现确定性周期,消除内核间时间差异,确保流水线完美利用,实现高吞吐量[14] 英伟达整合LPU的技术路径与潜在方案 - 专家AGF认为,英伟达可能通过台积电的混合键合技术,将LPU单元堆叠在下一代Feynman GPU计算芯片上[1][3] - 预计LPU模块将于2028年首次出现在Feynman芯片上,该芯片预计采用台积电A16工艺[5] - 采用分离的SRAM芯片并堆叠在主计算芯片上,可以解决SRAM在先进工艺节点上缩放停滞和成本高昂的问题[5][6] - 另一种集成方案是将LPU作为机架级推理系统的一部分,与GPU协同工作,由GPU处理预填充/长上下文,LPU专注于解码[16] 行业背景:推理需求崛起与竞争格局 - 人工智能行业计算需求正从训练转向推理,推理是超大规模数据中心的主要盈利点[9] - 推理,特别是解码阶段,需要确定性和低延迟,这与训练更看重吞吐量的需求不同[9][10] - 谷歌等公司已推出专注于推理的ASIC芯片,被视为英伟达的替代品,加剧了推理市场的竞争[9] 英伟达Feynman芯片的潜在架构与影响 - Feynman芯片预计采用台积电A16工艺,配备背面供电和全GAA结构[5] - 通过混合键合技术堆叠SRAM/LPU芯片,可以在保留HBM用于大容量存储的同时,修复低延迟解码的模型浮点利用率[5][6] - 这种集成方案旨在为Feynman芯片在有利工作负载下带来巨大的推理性能提升[5] - 该技术路径若成功,可能使其他厂商的专用集成电路在推理市场面临巨大挑战[2][6]
Broadcom(AVGO) - 2025 Q2 - Earnings Call Transcript
2025-06-06 06:02
财务数据和关键指标变化 - 2025财年第二季度总营收达创纪录的150亿美元,同比增长20% [6] - 第二季度综合调整后EBITDA为100亿美元,同比增长35% [7] - 第二季度综合营收150亿美元,同比增长20%,毛利率为79.4%,综合运营费用为21亿美元,其中研发费用15亿美元 [17] - 第二季度运营收入98亿美元,同比增长37%,运营利润率为65% [18] - 第二季度自由现金流64亿美元,占营收的43%,资本支出1.44亿美元 [21] - 第二季度末库存为20亿美元,较上一季度增长6%,库存周转天数为69天 [22] - 第二季度末现金为95亿美元,总债务为694亿美元,季度末后偿还16亿美元债务,固定利率债务加权平均票面利率为3.8%,期限为7年,浮动利率债务加权平均利率为5.3%,期限为2.6年 [22] - 预计第三季度综合营收约为158亿美元,同比增长21%,调整后EBITDA至少为66%,非GAAP税率保持在14% [14][24][25] 各条业务线数据和关键指标变化 半导体解决方案业务 - 第二季度营收84亿美元,同比增速从第一季度的11%加速至17% [8] - 人工智能半导体营收超44亿美元,同比增长46%,连续九个季度强劲增长,其中定制AI加速器同比两位数增长,AI网络同比增长超170%,AI网络占AI营收的40% [8] - 非AI半导体第二季度营收40亿美元,同比下降5%,宽带、企业网络和服务存储营收环比增长,工业和无线业务因季节性因素下降 [12] - 预计第三季度半导体营收约91亿美元,同比增长25%,其中AI半导体营收51亿美元,同比增长60% [24] - 半导体解决方案业务毛利率约为69%,同比提高140个基点,运营费用同比增长12%至9.71亿美元,运营利润率为57%,同比提高200个基点 [19] 基础设施软件业务 - 第二季度营收66亿美元,同比增长25%,高于预期的65亿美元 [13] - 10000个最大客户中,超87%已采用VCF,核心基础设施软件年度经常性收入实现两位数增长 [13] - 预计第三季度基础设施软件营收约67亿美元,同比增长16% [14][24] - 基础设施软件业务毛利率为93%,去年同期为88%,运营费用为11亿美元,运营利润率约为76%,去年同期为60% [20] 各个市场数据和关键指标变化 未提及相关内容 公司战略和发展方向和行业竞争 - 公司持续推进客户部署定制AI加速器,预计到2027年至少有三个客户各自部署100万个AI加速集群,且大部分为定制XPUs [10] - 公司认为以太网作为标准开放协议,是超大规模客户的首选,其网络产品组合推动了在超大规模AI集群中的成功,本周推出的Tomahawk六交换机代表下一代102.4太比特每秒的交换容量 [8][9] - 公司在基础设施软件业务上,成功将企业客户从永久vSphere转换为完整VCF软件栈订阅,以创建现代化私有云 [13] - 公司资本使用方面,优先通过股息回报股东,将部分自由现金流用于降低债务至债务与EBITDA比率不超过2的水平,也会在合适时机回购股票,对于并购,会考虑能显著提升业务且需要债务支持的项目 [101][102][103] 管理层对经营环境和未来前景的评论 - 尽管经济环境存在不确定性,但合作伙伴仍坚定投资计划,且在增加推理方面的投入,预计2025财年AI半导体营收的增长率将延续至2026财年 [11] - 公司对2026年AI营收增长持乐观态度,认为能延续当前增长轨迹 [51][52] - 公司认为在未来一两年内,随着集群规模扩大,光学互连将逐渐取代铜互连,公司将处于前沿位置,可能采用共封装光学或可插拔低成本光学方案 [70][71] 其他重要信息 - 公司计划于2025年9月4日周四收盘后公布2025财年第三季度财报,并于太平洋时间下午2点进行财报电话会议直播 [115] 总结问答环节所有的提问和回答 问题: 关于明年推理业务的更多细节及增长信心来源 - 公司看到明年XPUs的部署将增加,同时网络需求也会增加,是两者的结合带来增长信心 [28] 问题: 公司AI业务能否在本财年和下一财年维持60%的同比增长率 - 公司认为可以维持该增长率,目前对2026年的增长轨迹有更清晰的可见性 [32][33][36] 问题: 本季度AI网络表现强劲的原因及Tomahawk六交换机对明年增长的推动情况 - AI网络与AI加速集群的部署密切相关,在超大规模数据中心的扩展和集中场景中需求增加,特别是集中场景中交换机密度比扩展场景高5 - 10倍,超出预期;Tomahawk六交换机目前虽未大规模发货,但市场需求巨大 [40][41][42] 问题: 向客户交付以太网集中网络交换机的时间 - 集中场景正迅速向以太网转换,对于公司的超大规模客户而言,集中场景已基本采用以太网 [48] 问题: 关于2026年AI营收增长的具体数据及SAM市场规模变化 - 公司认为2025财年的增长趋势将延续至2026财年,但未对SAM市场规模变化作出回应 [51][52][53] 问题: 本季度XCU业务表现及长期项目的里程碑 - 本季度XCU业务符合预期,没有明显波动;对于长期项目,公司目前未更新相关数据,预计在2026年有更清晰的可见性时会提供更新 [58][59][60] 问题: 适合定制硅的推理工作负载及XPU业务中推理与训练的占比 - 公司认为使用定制加速器在训练和推理方面没有区别,定制加速器的价值在于能优化算法与硅的结合,提升大语言模型的性能 [63] 问题: 共封装光学对集中网络实现5 - 10倍高含量的重要性及集中网络机会的驱动因素 - 目前集中场景主要使用铜互连,当集群规模超过72个GPU互连时,可能会转向光学互连,共封装光学是一种选择,但不是唯一方式,也可以使用可插拔低成本光学方案,预计在一两年内会发生这种转变 [68][69][71] 问题: 指南中毛利率变化的原因及定制业务长期毛利率情况 - 第三季度毛利率环比下降约130个基点,主要是因为AI营收中XPUs占比增加,历史上XPU毛利率略低于其他业务(除无线业务外) [76][77] 问题: 如何看待竞争生态系统及AI网络明年的增长驱动因素 - 公司认为集中场景可通过开放标准的以太网轻松实现,以太网将像过去20年在传统网络中一样占据主导地位,AI网络增长可能由集中和扩展场景共同驱动 [83][84] 问题: AI需求加速的原因及是否会导致市场份额从GPU向XPU更快转移 - AI需求加速是因为超大规模客户需要通过推理实现投资回报,将训练投入转化为实际应用场景,并非由于ASICs或XPUs在软件方面的改进或代币经济学等因素 [89][90][91] 问题: 2026财年AI营收增长是否会加速及NVLink融合与集中网络的发展趋势 - 公司认为2025财年的增长趋势将延续至2026财年;公司不参与NVLink业务,无法回答相关问题 [94][96] 问题: 公司对资本回报、并购战略的看法 - 公司优先通过股息回报股东,将部分自由现金流用于降低债务至债务与EBITDA比率不超过2的水平,也会在合适时机回购股票;对于并购,会考虑能显著提升业务且需要债务支持的项目 [101][102][103] 问题: 2026年预期是否考虑四个潜在客户的贡献及AI中网络业务的未来占比 - 公司不讨论潜在客户;预计未来网络业务与XPU业务的比例将低于30%,而非目前的40% [105][106] 问题: 出口管制是否会对公司产生影响 - 由于贸易双边协议动态变化,规则不断改变,公司无法确定出口管制是否会产生影响 [109][110] 问题: VMware客户向订阅模式转换的进度 - 公司大部分VMware合同为三年期,目前续约进度已超过一半,预计还需要一年半左右完成转换 [112][113]