Workflow
AI Inference
icon
搜索文档
NVIDIA Enters Production With Dynamo, the Broadly Adopted Inference Operating System for AI Factories
Globenewswire· 2026-03-17 04:36
产品发布与核心定位 - NVIDIA于2026年3月16日发布NVIDIA Dynamo 1.0,这是一个用于大规模生成式和智能体推理的开源软件[2] - Dynamo 1.0与NVIDIA Blackwell平台结合,旨在为云提供商、AI创新者和全球企业提供具有无与伦比规模、效率和速度的高性能AI推理[2] - Dynamo 1.0被定位为AI工厂的分布式“操作系统”,如同计算机操作系统协调硬件和应用程序,它能在集群中无缝协调GPU和内存资源以处理复杂的AI工作负载[4] 性能提升与技术创新 - 在近期的行业基准测试中,Dynamo将NVIDIA Blackwell GPU的推理性能提升了高达7倍[4] - 该软件通过更智能的“流量控制”和在不同GPU及低成本存储之间移动数据的能力,来分配推理工作,从而减少资源浪费并缓解内存限制[5] - 对于智能体AI和长提示词处理,它能将请求路由到已拥有最相关“短期记忆”的GPU,并在不需要时卸载该内存[5] - 软件包含核心构建模块,如用于智能内存管理的KVBM、用于快速GPU间数据移动的NVIDIA NIXL,以及用于简化扩展的NVIDIA Grove[6] 生态系统整合与行业采用 - NVIDIA通过将Dynamo和TensorRT-LLM库优化集成到LangChain、llm-d、LMCache、SGLang、vLLM等流行框架中,加速开源生态系统发展[6] - NVIDIA还向FlashInfer项目贡献了TensorRT-LLM CUDA内核,以便其能原生集成到开源框架中[6] - NVIDIA推理平台获得了广泛生态支持,包括云服务提供商(亚马逊AWS、微软Azure、谷歌云、Oracle云基础设施)、NVIDIA云合作伙伴(阿里云、CoreWeave、Together AI、Nebius等),以及AI原生公司、推理端点提供商和全球企业[11][12] - 多家合作伙伴高管发表评论,认可Dynamo在提供动态基础设施、深度优化、可预测性能、简化部署路径以及支持大规模实时智能体验方面的价值[7] 产品特性与市场影响 - Dynamo 1.0为大规模推理提供了一个生产级的开源基础[10] - 作为免费开源软件,它能降低Token成本,并为数百万GPU增加收入机会[4] - 公司CEO黄仁勋表示,推理是智能的引擎,为每一次查询、每一个智能体和每一个应用提供动力,Dynamo的快速采用表明下一波智能体AI浪潮已经到来[5]
Nvidia's battle for inference tech
Youtube· 2026-03-17 00:19
行业趋势与市场格局 - AI行业在过去八个月内已发生转变,公司活动从单纯构建模型扩展到运行模型、生成响应以及驱动能编写代码和回答问题的智能体,这一过程被称为推理 [2] - 到2030年,美国银行估计推理市场可能占据规模超过1万亿美元的AI市场中约75%的份额 [2] - 谷歌、亚马逊、Meta以及Cerebras等初创公司均在推理领域开发替代方案,对英伟达的传统产品构成压力 [3] 英伟达的战略与产品发布 - 公司传统的“一芯通用”策略正面临压力,其旗舰芯片并非为推理任务构建,存在能耗过高和内存不足的问题,难以高效进行大规模答案输出 [1][2][3] - 在GTC大会上,公司CEO黄仁勋预计将发布一款基于Grok技术的新型推理芯片,该技术是公司在过去几个月内以200亿美元收购Grok设计所得 [4] - 新芯片设计将内存直接置于芯片上,使其在执行实时AI推理任务时速度显著提升且能效更高,旨在回应客户认为其GPU性能过剩的反馈 [4][5] 财务数据与市场预期 - 期权市场预计此次GTC大会将带来约4%的股价波动,按英伟达的标准看相对温和 [5] - 真正的催化剂可能并非产品发布本身,而是需求能见度,因为华尔街许多人士已预知或猜测到这些产品 [6] - 公司五个月前披露其在GTC DC拥有5000亿美元的积压订单,若黄仁勋更新此数字并提供至2027年的能见度,将成为推动股价的关键因素 [6][7] 地缘政治与区域市场 - 关于中国市场,多数卖方分析师已将其排除在预测之外,但若公司评论中国业务,考虑到美国政府对出口部分AI芯片至中国的限制有所放宽,可能对股价产生积极影响 [8] - 公司CEO的叙事重点已转向全球范围内的“主权AI”,在上次财报中,其贡献约为300亿美元,预计公司将更关注中国以外的其他国家和地区 [9] 合作伙伴关系与资本配置 - 公司将投资和合作作为其AI生态战略的核心部分,预计将宣布更多合作伙伴关系和供应协议 [10][11] - 近期在光学市场达成了一项价值20亿美元的协议,涉及Light、Lumentum和Coherent等公司,预计将宣布如何将网络从铜转向光学的计划 [11] - 公司拥有大量现金,分析师关注其在近期无公告后,是否会在问答环节提及股票回购计划 [12] - Roth Research提出了与英特尔潜在合作的可能性 [13]
Can Nvidia's Dominance Survive the Sea Change Under Way in AI Computing?
WSJ· 2026-03-16 17:30
公司业务与市场地位 - 公司通过为AI模型训练提供芯片,已成为全球市值最高的公司 [1] - 公司当前的核心业务和巨大成功源于AI训练芯片的巨大需求 [1] 行业需求趋势 - 市场对AI推理芯片的需求增长速度,远超过对AI训练芯片的需求 [1]
AWS and Cerebras Collaboration Aims to Set a New Standard for AI Inference Speed and Performance in the Cloud
Businesswire· 2026-03-13 23:06
核心合作与解决方案 - AWS与Cerebras Systems宣布合作,旨在为生成式AI应用和大语言模型工作负载提供最快的云端AI推理解决方案,该方案将在未来几个月内通过Amazon Bedrock推出[1] - 此次合作是首创的云端协作,AWS成为Cerebras分解式推理解决方案的首个云提供商,且该方案将通过Amazon Bedrock独家提供[1] - 解决方案结合了AWS Trainium驱动的服务器、Cerebras CS-3系统以及Elastic Fabric Adapter网络,部署在AWS数据中心[1] 技术架构与性能优势 - 解决方案采用“推理分解”技术,将AI推理分为提示处理(“预填充”)和输出生成(“解码”)两个阶段,并针对不同计算特性进行优化[1] - AWS Trainium芯片针对计算密集、可并行化的预填充阶段进行优化,而Cerebras CS-3系统则针对内存带宽密集型、串行化的解码阶段进行优化[1] - 通过EFA低延迟、高带宽网络连接两者,该集成系统将提供无与伦比的性能和速度,预计推理速度将比当前可用方案快一个数量级[1] - Cerebras CS-3是世界上最快的AI推理系统,其内存带宽比最快的GPU高出数千倍[1] - 该解决方案基于AWS Nitro系统构建,确保安全、隔离和运营一致性[1] 市场定位与客户采用 - 两家领先的AI实验室——Anthropic和OpenAI——已承诺使用Trainium。Anthropic将AWS列为其主要训练合作伙伴,OpenAI将通过AWS基础设施消耗2吉瓦的Trainium容量[1] - OpenAI、Cognition、Mistral等公司使用Cerebras来加速其最苛刻的工作负载,特别是在智能体编码领域[1] - 今年晚些时候,AWS还将提供使用Cerebras硬件运行的领先开源LLM和Amazon Nova模型[1] 公司背景与行业地位 - Cerebras Systems构建了世界上最快的AI基础设施,其旗舰产品Wafer Scale Engine 3是世界上最大、最快的AI处理器,面积比最大的GPU大56倍,单位计算功耗更低,推理和训练速度快20倍以上[2] - AWS是全球领先的云服务提供商,拥有最全面的AI能力和全球基础设施,为数百万客户提供服务[2] - Cerebras Systems近期完成了10亿美元的H轮融资,投后估值约为230亿美元,由Tiger Global领投[2] - Cerebras Systems已与美国能源部签署谅解备忘录,以在下一代AI和高性能计算技术方面进行合作[2]
研报 | 2025年第四季度全球前五大企业级SSD营收季增超50%
TrendForce集邦· 2026-03-13 16:04
行业整体表现 - 2025年第四季度,全球前五大企业级SSD品牌厂商总营收环比增长51.7%,达到99.2亿美元[2] - 行业增长主要驱动力包括:AI推理应用普及提升存储系统要求、企业大规模升级通用服务器,以及HDD供应短缺带来的转单效应[2] - 2026年,随着PCIe 5.0成为主力产品以及企业级SSD位元出货量明显增加,整体市场营收有望翻倍增长[8] - 未来供应商的竞争关键,在于谁能率先提供稳定的PCIe 6.0解决方案以及针对AI工作负载优化的专门产品[8] 主要厂商表现 - **三星**:营收排名第一,2025年第四季度营收达36.56亿美元,环比增长49.7%,市场份额为33.8%[3][4]。其凭借DRAM和NAND Flash自给能力,在DRAM短缺时吸引了关注供货稳定性的客户,其176层QLC产品线已全面到位,预计2026年将明显放量[4] - **SK集团**:营收排名第二,2025年第四季度营收达32.6亿美元,环比大幅增长75.2%,市场份额升至30.2%[3][5]。旗下Solidigm长期布局的高容量QLC产品进入收获期,集团针对生成式AI从训练转向推理的趋势制定了清晰的产品路线[5] - **美光**:营收排名第三,2025年第四季度营收达14.01亿美元,环比增长41.4%,市场份额为13.0%[3][6]。公司策略性降低消费级产品比例,专注于高毛利的Enterprise SSD市场,并正在开发具备高DWPD的SLC SSD以满足AI运算中的KV Cache需求[6] - **铠侠**:营收排名第四,2025年第四季度营收为11.63亿美元,环比增长18.9%,市场份额为10.8%[3][7]。公司正积极对AI存储作长线布局,策略是扩大高速及高寿命产品线以满足未来KV Cache和训练需求[7] - **闪迪**:营收排名第五,2025年第四季度营收为4.4亿美元,环比增长63.6%,市场份额为4.1%[3][8]。尽管基数较小,但增长幅度具有指标意义,预计其2026年QLC出货比重将显著增长,企业级营收占比将大幅提升[8]
科技动态:SRAM- 一种全新的 AI 推理范式-Tech Bytes-SRAM – A New AI Inference Paradigm
2026-03-06 10:02
**涉及的行业与公司** * **行业**:AI推理芯片与高性能内存市场,特别是SRAM和HBM领域 [1] * **覆盖公司**:三星电子 (Samsung Electronics, 005930.KS/005935.KS)、SK海力士 (SK hynix, 000660.KS)、英伟达 (NVIDIA)、Groq [5][12][85] **核心观点与论据** * **AI推理新范式**:AI计算正从通用计算转向以推理为中心的、更专业化且确定性的架构,以突破实时推理的物理限制 [10] * **SRAM与HBM的混合架构趋势**:AI推理内存市场正走向混合模式,SRAM在延迟敏感型工作负载中开辟利基市场,而HBM在吞吐密度方面仍占主导 [1] 未来的AI系统很可能是分层的,结合用于热路径执行的SRAM和用于可扩展内存容量的HBM [3] * **LPU作为新型推理芯片**:LPU是一种专为运行已训练AI模型而构建的推理芯片,旨在实现最快、最高效的运行 [12] 其架构基于确定性、编译器优先的方法,大量使用片上SRAM,将数据保留在计算核心本地,提供比HBM3e快10倍的带宽 [13] * **SRAM与HBM的权衡**:SRAM提供超低延迟和即时数据可用性,但成本更高、密度更低;DRAM/HBM提供更高容量和更低的每比特成本,但速度较慢 [11] SRAM访问速度比HBM快约20倍 [12] 当前SRAM/HBM每GB的溢价已降至历史约30倍水平的5倍 [14] * **LPU的理想与不理想工作负载**: * **理想**:低延迟应用(金融交易、游戏、对话AI)、多步推理、有稳定性能要求的应用 [27] * **不理想**:模型训练、批处理、超大型模型(超过1T+参数)、边缘部署 [27] * **投资观点**: * 三星电子是首选股,因其在HBM4认证、SRAM、晶圆代工可选性及商品上行周期方面的优势 [5] * 同时维持对SK海力士的“增持”评级 [5] * 股价近期出现调整(周内下跌20%,同期韩国综合指数下跌17%),这为买入提供了良好机会,因为股价往往与基本面增长的上行轨迹脱钩并跌破该轨迹 [5] * 每股收益增长预测仍有很大回升空间,且尚未被市场定价 [5] **其他重要内容** * **技术细节**: * DRAM单元由1个晶体管和1个电容器组成,需要周期性刷新(约32-64毫秒),密度高但速度较慢(50-100纳秒) [17] * SRAM使用触发器电路,无需刷新周期即可保留数据,访问速度更快,但成本更高,密度更低 [14] * 台积电在2nm-CMOS-纳米片技术中推出了38.1Mb/mm²的SRAM,用于高密度和节能计算应用,其设计使用0.021um²高密度位单元,并通过DTCO将整体SRAM密度比上一技术节点提高了1.1倍 [28] * **新兴替代技术**:随着技术发展,MRAM、ReRAM和eDRAM等新兴替代存储技术可能变得可行,并进一步调整内存格局 [25] * **估值与风险**: * 对SK海力士和三星电子均采用剩余收益模型进行估值,假设股本成本为11.5%,终端增长率为3% [29][30] * **上行风险**:平均售价增长重新加速、需求大幅改善、资本回报显著增加、AI和超大规模数据中心增长带来的更持久内存上行周期、半导体收益增长集中 [32][33] * **下行风险**:终端需求弱于预期、DDR5竞争加剧导致供应侧过度支出、云和中国智能手机客户库存保持高位 [32] * **行业评级**:摩根士丹利对韩国科技行业的观点为“具吸引力” [6]
Akamai Technologies (NasdaqGS:AKAM) 2026 Conference Transcript
2026-03-06 03:47
公司及行业关键要点总结 (Akamai Technologies) 一、 公司战略与业务演进 * 公司将其业务发展分为三个阶段:第一阶段是开创并引领内容交付网络市场;第二阶段是在过去十年间建立了超过20亿美元的安全业务;第三阶段是进入公有云市场,并最新推出用于边缘AI推理的GPU即服务(Akamai推理云)[3] * 公司的战略愿景基于其平台在交付、计算和安全方面的天然协同性,计算是公司长期规划的一部分[7][11] * 并购是公司战略的一部分,公司成功地将收购的公司整合到其产品组合中,并持续扩大在安全领域的市场份额[8] 二、 云计算与基础设施服务业务 * 公司的云基础设施服务业务年化收入已达到4亿美元[25] * 该业务的增长并非由少数大客户驱动,而是来自数百个客户,收入贡献范围从每月20万美元到200万美元不等[26] * 公司正在看到来自现有客户和新客户的需求都非常强劲,特别是随着“智能体网络”的发展,收到了大量有趣的主动咨询[31][32] * 公司的价值主张包括:更好的性能(如延迟)、更优的经济性(如更低的出口费用)、满足特定合规要求(如金融标准)以及多云战略下的多样性需求[35][37][39][41][43] * 与超大规模云厂商相比,公司能够提供更低的出口费用,原因在于其拥有全球最大的骨干网络之一,每秒可交付数百太比特,因此成本几乎为零,并将此优势传递给客户[41] * 公司推出了Linode Kubernetes引擎和托管容器服务,这扩展了客户可以运行的工作负载类型,成为吸引客户的因素之一[50][51] * 所有三大超大规模云厂商都是公司的客户,他们使用公司的服务进行视频交付、API管理、广告决策等[53] 三、 AI推理云业务 * 公司于2025年10月底/11月初宣布推出Akamai推理云[56] * 公司相信AI推理将大量发生在边缘,驱动因素包括:下一代应用(如虚拟旅行代理、虚拟承包商)需要处理更多数据、进行更强大的计算;低延迟是关键要求,特别是在机器人、自动驾驶等领域;客户需求正在增长[62][64][66][69][71] * 公司已与英伟达合作,并部署了RTX 6000 PRO GPU[21][71] * 公司获得了一份为期4年、价值2亿美元的重大合同,客户是一家处于AI前沿的大型科技公司[83] * 该大客户选择公司的原因是其独特的性能要求,公司通过概念验证测试满足了这些要求,随后客户下了大订单[87][89] * 从概念验证到合同签署通常需要2到6个月,由于需要准备新的数据中心空间,收入确认会有滞后[91] * 业务渠道来自现有客户、新客户、渠道合作伙伴推荐以及英伟达等技术合作伙伴的推荐[93] 四、 基础设施扩展与单位经济学 * 目前有20个地点支持Akamai推理云,这些均为现有设施[96] * 未来的扩展将是混合模式:在已有容量的现有站点部署;为特定客户需求建设专用站点[96][126] * 从单位经济学看,部署1000个GPU大约需要1兆瓦的电力[99] * 在美国,1兆瓦电力的年成本通常在200万到400万美元之间,加利福尼亚州可能高达600万美元[101] * 1000个GPU的资本支出(包括服务器、交换机等)估计在1200万到1600万美元之间,取整按2000万美元计算[103] * 当前GPU租赁市场价格约为每小时2.5美元,1000个GPU运行一年的收入约为2200万美元[105] * 即使按上述收入的一半计算,运营利润率也在60%到40%或更好的范围内,毛利率可达70%左右[111][168] * 公司预计GPU位置将从目前的20个增加到20-40个左右,最终可能达到约100个地点,具体由客户需求驱动[131][133] * 公司已承诺2.5亿美元的资本支出用于AI推理云,其中一部分用于上述大客户,仍有数千个GPU可供销售[138][139] * 资本支出的时机将根据销售渠道、现有客户增长和需求来决定,公司会进行前瞻性投资[143] 五、 财务表现与利润率展望 * 第四季度业绩强劲,云基础设施服务业务和全球云业务加速增长,并获得了2亿美元的推理服务客户[144] * 随着资本支出增加,利润率从2025年的约29%下降至26%-28%,2026年资本支出占收入比例预计为23%-26%,而2025年为19%[144] * 利润率压力主要来自商品销售成本中的托管费用和折旧[146] * 托管费用压力来自两方面:提前购买和部署资产但收入尚未跟上带来的时间差;与供应商签订长期租赁协议导致的会计准则下的非现金托管成本[147][149][153] * 公司在增长和利润率之间存在权衡,但将在市场推广、工程和运营方面获得良好的运营杠杆[157] * 公司已将约1000名工程师从CDN业务调整到计算业务,因为运行分布式平台有诸多相似之处,未来将在运营侧获得更多杠杆效应[159][161] 六、 安全与交付业务 * 安全业务在过去十年中,每年新增约2亿至2.5亿美元的收入[7] * 公司对维持安全业务高个位数增长充满信心[188][191] * 安全业务中的高增长部分:API安全业务年化收入已超过1亿美元,增长率超过100%,在现有客户中的渗透率低于10%[208] * Guardicore(微隔离)业务在现有客户中渗透率也低于10%,大部分收入来自新客户,年增长率超过30%[210][213] * 交付业务定价环境有所改善,公司正采取更强硬的定价立场,试图在续约时提高价格,这是公司历史上首次提价[194][206] * 影响定价策略的因素包括:内存价格上涨导致资本支出增加2亿美元、托管费用和劳动力成本上升[202][204] * 交付业务增长还受到收购Edgio资产的影响,部分大客户是多CDN用户,收购后需要时间重新平衡供应商份额,这导致了计划内的收入下降[198][200]
Akamai to Deploy Thousands of NVIDIA Blackwell GPUs to Create One of the World’s Most Widely Distributed AI Platforms
Globenewswire· 2026-03-03 19:30
公司战略与投资 - 公司宣布收购数千块英伟达Blackwell GPU以增强其全球分布式云基础设施 [1] - 此次部署旨在创建一个统一的人工智能研发、微调和训练后优化平台 [1] - 该架构通过减少与集中式数据中心相关的延迟和数据出口问题,旨在支持快速推理 [1] - 公司采用Blackwell GPU推进了其构建面向推理时代的全球分布式人工智能计算网格的愿景 [3] - 公司将根据其云基础设施战略,继续增加GPU容量 [6] 市场定位与行业趋势 - 行业已达到一个临界点,人工智能推理与训练变得同等重要 [2] - 第一波人工智能浪潮集中于中心化枢纽的模型训练 [2] - 56%的组织将延迟视为阻碍人工智能大规模部署的主要障碍 [2] - 超大规模云服务商继续突破人工智能训练的边界,而公司专注于满足推理时代的独特需求 [3] - 集中式人工智能工厂对于构建模型仍然至关重要,但要使这些模型大规模应用需要一个去中心化的神经系统 [3] 技术优势与解决方案 - 通过将全球视为一个单一的低延迟背板,公司正在弥合延迟差距,为物理人工智能和智能体人工智能提供基础架构 [2] - 通过在全球网络中分布针对推理优化的计算,公司不仅提供容量,还以最小延迟提供所需的规模 [3] - 将人工智能处理从集中式人工智能工厂扩展到高密度分布式基础设施,使人工智能能够与物理系统交互,不受传统云架构的地理或成本限制 [3] - 该平台将英伟达RTX PRO™服务器(配备英伟达RTX PRO™ 6000 Blackwell服务器版GPU)和英伟达BlueField-3 DPU与公司的分布式云计算基础设施及覆盖全球超过4,400个地点的边缘网络相结合 [6] - 公司的人工智能推理云将人工智能推理更靠近用户和设备,重新定义了人工智能的使用地点和方式 [4] 客户价值与性能提升 - 通过为平台工程师和开发人员提供工具,使其能在更靠近最终用户的地方构建和运行人工智能应用及数据密集型工作负载 [5] - 与传统的超大规模云服务商基础设施相比,使用英伟达人工智能基础设施可为企业节省高达86%的人工智能推理成本 [5] - 该方案可提供高达2.5倍的延迟降低,同时实现高吞吐效率 [5] - 集成英伟达Blackwell人工智能基础设施可实现:在专用GPU集群上处理人工智能工作负载以生成快速响应的可预测高性能推理;支持数据隐私和区域合规需求的现场大语言模型本地化微调;基于专有数据对基础模型进行微调和适配以提高特定任务准确性的模型训练后优化 [7]
Intel Expands AI Inference Capabilities: Will it Drive Growth?
ZACKS· 2026-02-26 23:51
公司与SambaNova的战略合作 - 英特尔公司与领先的AI推理平台及硬件提供商SambaNova达成多年战略合作,旨在围绕基于英特尔至强处理器的基础设施,提供高性能、高性价比的AI推理解决方案 [1] - 此次合作将整合英特尔至强处理器、英特尔GPU、英特尔网络与存储产品以及SambaNova系统,旨在提升英特尔在AI推理领域的商业前景 [5] 行业与市场趋势 - AI生态系统正快速演变,焦点正从使用大量数据训练大型AI模型,转向AI推理工作负载,即在各种任务中实时使用AI模型 [2] - AI工作负载变得日益复杂,由异构基础设施驱动,包括CPU、GPU、AI加速器、网络架构和软件等多种计算单元协同工作 [3] - AI推理层面存在巨大的创收机会,例如每一次AI查询,如搜索查询、各种AI工具中的推荐 [3] - 全球AI推理市场规模预计在2024年达到972.4亿美元,并预计在2025年至2030年间以17.5%的复合年增长率增长 [4] 公司的技术进展与战略 - 英特尔已成功达到MLPerf v5.1基准测试要求,该套件是行业标准的AI基准测试 [5] - 英特尔推出了专为AI推理工作负载优化的Crescent Island GPU [5] - 公司正在扩展其产品组合,以抓住新兴市场趋势,即实时AI推理工作负载需求的增长 [4][9] 竞争格局 - 英特尔在AI推理领域面临来自英伟达公司和AMD的竞争 [6] - 英伟达提供了全面的AI推理基础设施产品组合,其Blackwell、H200、L40S和RTX产品在云、工作站和数据中心的AI推理方面提供了显著的速度和效率 [6] - AMD的Instinct MI350系列GPU以其强大且高能效的核心,为数据中心生成式AI和高性能计算设立了新基准 [7] - 面对英伟达的主导地位和AMD的强劲势头,英特尔在AI推理领域面临一场艰苦的逆势之战 [7] 公司股价表现与估值 - 英特尔股价在过去一年上涨了103%,而同期行业增长率为56.4% [8] - 根据市净率,公司股票目前以1.85倍市净率交易,低于28.71倍的行业平均水平 [10] 盈利预测 - 市场对英特尔2025年和2026年的盈利预测在过去60天内有所下调 [12]
The Artificial Intelligence (AI) Inference Market Could Reach $255 Billion by 2030. These Stocks Are Best Positioned to Win.
Yahoo Finance· 2026-02-26 06:50
行业市场前景 - 人工智能基础设施建设的早期阶段由模型训练主导 [1] - 人工智能推理市场规模预计将从约1060亿美元增长至近2550亿美元(到2030年)[1] 英伟达 (NVIDIA) - 公司在大型语言模型训练领域占据主导地位,同时也是人工智能推理市场的领导者 [2] - 通过Nvidia NIM提供预构建、优化的推理微服务 [2] - Blackwell GB300 Ultra图形处理器已针对推理和智能体人工智能进行优化,即将推出的Vera Rubin平台预计将进一步提升其推理性能 [2] - 收购Groq员工并授权其技术,计划将Groq专为人工智能推理设计的语言处理单元集成到其CUDA软件平台和网络基础设施中 [3] 超威半导体 (AMD) - 由于英伟达CUDA在推理领域的护城河不如训练领域宽,这为AMD提供了获取市场份额的机会 [4] - 公司已在推理市场成功开辟了利基市场,整体市场增长将使其受益,尤其是考虑到其收入基础远小于英伟达 [4] - 将受益于OpenAI的投资以及该初创公司承诺使用价值6吉瓦的AMD图形处理器,基于英伟达图形处理器的价格,1吉瓦芯片价值约350亿美元,这将成为公司未来的重要增长动力 [5] - OpenAI将专门将这些图形处理器用于推理,这可能为AMD与其他公司达成推理交易打开大门 [5] - 在智能体人工智能领域,中央处理器的重要性不容忽视,中央处理器更像是计算机的大脑,随着人工智能智能体的发展,它们正成为人工智能基础设施中更重要的部分 [6] - 在人工智能推理和数据中心中央处理器需求增长的推动下,AMD未来前景看好 [6]