AI推理
搜索文档
海光信息(688041):2024年报和2025年一季报点评:业绩持续高增,技术突破驱动国产算力突围
华创证券· 2025-04-23 22:46
报告公司投资评级 - 维持“推荐”评级 [2] 报告的核心观点 - 海光信息作为国内高端处理器核心厂商,有望持续受益于AI推理需求释放,随着深算3号推向市场,公司业绩有望维持高增 [10] 根据相关目录分别进行总结 业绩情况 - 2024年公司实现总营业收入91.62亿元,同比增长52.40%;归母净利润19.31亿元,同比增长52.87% [2] - 2025年一季度公司实现总营业收入24.00亿元,同比增长50.76%;归母净利润5.06亿元,同比增长75.33% [2] - 预计2025 - 2027年公司营业收入为137.4/195.0/263.3亿元;归母净利润为29.0/42.2/57.2亿元 [10] 主要财务指标 |指标|2024A|2025E|2026E|2027E| | ---- | ---- | ---- | ---- | ---- | |营业总收入(百万)|9,162|13,738|19,503|26,327| |同比增速(%)|52.4%|49.9%|42.0%|35.0%| |归母净利润(百万)|1,931|2,902|4,219|5,724| |同比增速(%)|52.9%|50.3%|45.4%|35.7%| |每股盈利(元)|0.83|1.25|1.82|2.46| |市盈率(倍)|183|122|84|62| |市净率(倍)|17.5|15.5|13.4|11.3|[5] 公司基本数据 - 总股本232,433.81万股,已上市流通股88,655.72万股 [7] - 总市值3,333.10亿元,流通市值1,271.32亿元 [7] - 资产负债率18.63%,每股净资产8.53元 [7] - 12个月内最高/最低价159.18/65.35元 [7] 公司优势 - 强劲增长:2024年营收、归母净利润等核心财务指标连续五年稳健攀升,2025年一季度增长势头持续,净利率提升,经营活动现金流净额同比由负转正,合同负债大幅增长 [10] - 技术护城河:2024年研发投入34.46亿元,研发投入占比37.61%,研发人员占比90.18%;2025年一季度研发投入7.64亿元,CPU和DCU产品应用领域拓展、份额提高 [10] - 生态闭环:通过“光合组织”串联近5000家合作伙伴,打造自主生态闭环,国内龙头企业开展基于海光处理器的生态建设,关键领域基本实现自主可控 [10] 投资建议 - 采用PS估值法,考虑可比公司估值及公司地位,给予2025年30x PS,对应目标价约为177元 [10]
大模型一体机塞进这款游戏卡,价格砍掉一个数量级
量子位· 2025-04-09 16:58
大模型一体机硬件选择 - 大模型一体机中可使用英特尔锐炫显卡作为N卡的替代方案 [1][2] - 飞致云测试显示4张锐炫A770显卡完成大型任务耗时50分钟,比N卡方案慢20分钟但成本仅为半张N卡价格 [6][7] - 英特尔方案将私有化部署成本从百万元级降低一个数量级,性价比显著提升 [12][13][14] 英特尔技术组合优势 - 采用锐炫显卡+至强W处理器的组合拳模式,显卡负责推理加速,CPU协调计算与异构加速 [16][17][20] - 通过优化显存带宽(A770卡间通信20G/秒)和低时延技术提升多卡并行效率,支持70B模型12路实时聊天 [20] - 适配多样化场景:2卡工作站至8卡一体机均可部署,覆盖30-50人团队需求 [9][20][30] 行业应用案例 - 飞致云MaxKB系统应用于知识问答、智能客服等场景,实现效率与成本优化 [5][22] - 超云推出塔式工作站至8卡高端一体机,支持32B-70B模型金融投顾、文档处理 [28][29][30][38] - 云尖边缘推理工作站支持4卡轻量化模型,适用于OCR、智能质检等本地化AI应用 [32] 一体机部署趋势 - 开箱即用、深度定制化特点加速企业部署,无需复杂调试且启动成本低 [35][36][37] - 一体机在运维简化、稳定性和专机专用方面优于传统IT系统与云服务 [39][40][41] - 英特尔方案兼容DeepSeek、Qwen、Baichuan等主流开源模型,适配多业务场景 [43][44] 行业生态与愿景 - 开源模型推动AI普惠,一体机承担类似PC普及的历史使命 [45][46] - 英特尔复刻PC时代成功经验,联合合作伙伴降低AI部署门槛 [46]
AI芯片,需求如何?
半导体行业观察· 2025-04-05 10:35
行业格局变化 - 2023年AI推理领域出现新趋势,传统云服务商(AWS、Azure、谷歌云)之外涌现大量配备Nvidia芯片的GPU云提供商,形成新的竞争格局[1] - 行业出现重大转变,大多数AI基础设施开始在三大云提供商之外构建,创造新的市场机会[1] - 新兴GPU云提供商建立的数据中心配备数千个Nvidia芯片,推动AI推理等计算需求[1] Parasail公司概况 - 由Mike Henry和Tim Harris于2023年底创立,获得1000万美元种子资金[1] - 商业模式类似电力公司,连接AI推理需求方与GPU计算资源供应方[1] - 提供聚合的无合同GPU容量,宣称超过Oracle云基础设施规模[2] - 使用AI部署网络连接企业与GPU提供商,确保工作负载获得所需计算能力[2] 技术优势 - 成本优势显著:相比OpenAI或Anthropic可节省15-30倍成本,相比其他开源提供商节省2-5倍[3] - 部署速度快:GPU设置仅需数小时,推理可在几分钟内完成[3] - 提供多种Nvidia GPU选择,包括H200、H100、A100和RTX4090,价格区间为每小时0.65-3.25美元[3] - 构建全球性Kubernetes编排系统,克服不同GPU云提供商的技术差异[5][6] - 实现跨多个提供商的集群管理,使全球GPU云成为工作节点[6] 市场表现 - 2024年1月开始封闭测试,需求持续增长[8] - 年度经常性收入(ARR)已超过七位数[8] - 客户包括SambaNova、Oumi、Rasa和Elicit等AI领域公司[8] 行业洞察 - 市场存在"奇怪悖论":GPU看似稀缺但实际有大量闲置容量,问题在于优化和利用率不足[9] - 下一代AI应用需求几乎无限,将取代传统互联网应用[9] - 当前市场Nvidia GPU占主导地位,但预计未来会发生变化[9] 团队背景 - 创始人Henry曾创立AI平台公司Mythic,融资1.65亿美元,开发过AI加速硬件[2] - 联合创始人Harris是自动驾驶公司Swift Navigation的创始人[2] - 计划扩充目前12人的团队,重点增加工程岗位[9]
【电子】英伟达GTC2025发布新一代GPU,推动全球AI基础设施建设——光大证券科技行业跟踪报告之五(刘凯/王之含)
光大证券研究· 2025-03-22 22:46
英伟达GTC大会核心观点 - 提出Agentic AI作为AI技术发展的中间态 按照"Generative AI Agentic AI Physical AI"三阶段进化路线推进 [3] - 全球数据中心建设投资额预计2028年达到1万亿美元 Scaling Law发展需要更大规模算力资源投入 [3] 芯片产品规划 - Blackwell Ultra芯片2025年下半年供货 基于Blackwell架构 AI推理性能显著提升 [4] - GB300 NVL72机架级解决方案AI性能比GB200 NVL72提升1.5倍 已全面投产 [4] - Vera Rubin系列芯片为下一代AI平台 预计2026年下半年推出Vera Rubin 2027年下半年推出Vera Rubin Ultra [4] 光通信技术突破 - 推出115.2T的800G Quantum-x CPO交换机 采用微环调制器1.6T硅光CPO芯片 预计2025下半年上市 [5] - 基于CPO共封装光学平台打造Spectrum-x系列光交换机 包括128端口800G和512端口800G型号 [5] 软件与生态系统 - 推出AI推理服务软件Dynamo 支持Blackwell芯片实现推理性能飞跃 [6] - 发布NIM服务支持企业构建AI Agent 推出AI-Q(NVIDIA IQ Blueprint)框架 [6] - 推出DGX Spark个人AI超级计算机和GR00T N1人形机器人模型框架 [6] 大会规模与内容 - 包含1000多场会议 400多项展示和技术实战培训活动 [2] - 聚焦代理式AI 机器人 加速计算等前沿领域发展 [2]
软银收购Ampere Computing
半导体行业观察· 2025-03-20 09:19
软银收购Ampere Computing - 软银同意以65亿美元收购硅谷芯片初创公司Ampere Computing,旨在强化数据中心技术布局[1] - 收购反映软银对Ampere芯片在人工智能领域潜力的看好,认为其可挑战英伟达的领先地位[1] - Ampere成立于8年前,专注于基于Arm技术的数据中心芯片,软银2016年已收购Arm并推动其技术多元化应用[1] - 软银将Ampere作为全资子公司运营,孙正义强调Ampere的高性能计算能力将加速AI愿景实现[1] 行业背景与市场动态 - 交易背景是市场对AI芯片(如支持ChatGPT的芯片)需求激增,软银近期通过多笔交易加码AI领域[2] - "星际之门"计划由软银、OpenAI、甲骨文联合发起,拟投资5000亿美元建设数据中心,英伟达为关键技术伙伴[2] - 数据中心芯片市场中,每售出4块英伟达GPU需搭配1块英特尔/AMD微处理器,后者目前主导AI推理任务[3] - IDC预测AI微处理器市场规模将从2025年125亿美元增至2030年330亿美元[3] 技术竞争与合作伙伴 - 英伟达正推广Arm处理器替代英特尔/AMD芯片,但后者认为软件适配难度高且英伟达未完全放弃原有技术路线[4] - Ampere近期推出专为AI推理设计的Aurora芯片,含512个计算引擎,但面临亚马逊、谷歌等巨头自研Arm芯片的竞争[4] - 甲骨文是Ampere主要支持者,持有29%股份(价值15亿美元),提供基于Ampere芯片的在线服务[4] - 凯雷集团和甲骨文将在收购中出售所持Ampere股份[5] 交易进展 - 彭博社此前报道软银接近达成收购Ampere协议[6]
解读英伟达的最新GPU路线图
半导体行业观察· 2025-03-20 09:19
高科技公司路线图的重要性 - 高科技公司通常拥有技术路线图以向关键投资者和客户展示未来技术发展路径 [1] - 路线图可降低技术规划和采用风险 尤其在芯片制造难度加大的市场环境中 [1] - 部分公司如Oracle、Nvidia和AMD曾通过公开路线图展示技术迭代计划 [2] Nvidia的技术路线图战略 - Nvidia通过公开路线图向超大规规模客户展示其持续领先的技术开发能力 [2] - 路线图涵盖GPU、CPU、纵向扩展网络和横向扩展网络等多领域技术 [3] - 公司未将Quantum系列InfiniBand交换机纳入路线图 因AI领域更倾向以太网解决方案 [4] Blackwell系列GPU技术细节 - Blackwell B100/B200 GPU实际发布于2023年 而非路线图标注的2024年 [5] - B300 GPU内存容量提升50%至288GB FP4性能提升50%达15千万亿次浮点运算 [7] - GB300 NVL72系统FP4推理性能达1100 petaflops FP8训练性能360 petaflops 计划2025年下半年上市 [7] ConnectX系列网络技术进展 - ConnectX-8 SmartNIC速度达800Gb/秒 是前代ConnectX-7的两倍 计划2024年推出 [8] - 2028年将推出ConnectX-10 NIC 速度进一步提升至3.2Tb/秒 [18] Vera Rubin架构创新 - 2026年推出的Vera CV100 Arm处理器采用88核设计 支持同步多线程至176线程 [8] - NVLink C2C带宽翻倍至1.8TB/秒 与Blackwell GPU的NVLink 5匹配 [8] - Rubin R100 GPU配备288GB HBM4内存 带宽提升62.5%至13TB/秒 [9][10] 机架级系统性能飞跃 - VR300 NVL144系统FP4性能达50千万亿次浮点运算 是GB200系统的5倍 [13] - 2027年Rubin Ultra GPU将集成4个芯片于单插槽 FP4性能100 petaflops 配备1TB HBM4E内存 [14] - VR300 NVL576系统采用Kyber液冷机架设计 推理性能达15百亿亿次浮点运算 是当前系统的21倍 [16][17] 未来技术规划 - 2028年"费曼"GPU将搭配Vera CPU和3.2Tb/秒ConnectX-10 NIC [18] - 路线图显示Nvidia将持续提升NVSwitch带宽 2028年达7.2TB/秒 [18] - 公司通过系统级创新保持AI计算领域的技术领先地位 [19]
英伟达GTC Keynote直击
2025-03-19 23:31
纪要涉及的行业和公司 - 行业:数据中心、科技股、算力产业链 - 公司:英伟达、台积电科沃斯、北美五大科技公司(Amazon、Microsoft、Apple、Google)、GM、小米、联想、比亚迪、中兴、阿里巴巴、腾讯、美团 纪要提到的核心观点和论据 数据中心产品 - 日本数据中心产品推出时间和 HBM 配置低于预期,第一代预计 2026 年推出,第二代预计 2027 年推出,第一代 HBM 容量 288GB 低于预期的 384GB [2][3][4] - 英伟达预计 2026 年推出 Rubin 架构,晚于预期的 2025 年,Rubin Ultra 展示新架构,GPU 单元增至 576 个,支持 NVLink 6 和 CX9 交换机,每个单元可搭载高达 1TB HBM [3][5] - CPO 技术通过集成光模块缩短传输距离、提高速度,新一代 Spectrum X 今年下半年随 Blacker 推出,Quantum X 明年下半年伴随下一代日本数据中心产品推出 [3][6] - GTC 大会提到 DGX BasePOD 和 DGX Station 等小型计算机项目,面向开发者市场,采用 Black Box 芯片,支持 FP4 精度及超 1,000 TOPS AI 计算能力 [3][7] 算力需求与收入 - 预训练模型规模迅速扩大,推动算力需求大幅增长,模型规模每年翻十倍,远超摩尔定律降本速度,英伟达数据中心收入激增,CSP 资本开支过去两年翻倍 [3][9][10] 推理阶段 - GTC 大会强调推理阶段重要性,如 DPC 模型带来需求增长,但应用场景能否推动推理需求仍需观察,英伟达通过软硬件降低 AI 推理成本,目标是降低 token 生成成本 [3][11][12] 科技股市场 - 今年初以来中国科技股跑赢美国科技股,从 Deep CQ 发布后已跑赢美国七大科技公司 44 个百分点,目前美股与 A 股差距缩小至约三十几个百分点,未来半年有望进一步拉近,可能出现美股下跌、港股上涨的“东升西降”趋势 [13] 重要产品发布及影响 - GTC 大会发布 GB300(现称 Blackberry Ultra 72)、Rubin 等产品,展示英伟达至少到 2028 年的 GPU 加速计算演进路线,新一代 CPU 和交换机系统将未来导入,对产业链产生深远影响 [14] 资本开支与出货量 - 2025 年北美五大科技公司资本开支预计比 2024 年增长 30%,较 2023 年几乎翻倍,下修机会不大 [3][16] - 台积电科沃斯产能预计到 2025 年底达 775,000 片,英伟达 GGB200 和 GB300 出货量预计在 2.5 万 - 3 万台之间,比 2024 年底的 4 万台有所下降,但金额能与五家厂商规模匹配 [17] 硬件需求与服务器价值量 - GB200 和 GB300 在 HBM 使用、功耗、算力、生产方式等方面有变化,GB300 使 CSP 厂商设计自由度提高 [15][18] - GB300 服务器价值量受影响,新一代产品对光模块需求有影响,主要在 2026 年体现 [19] 算力产业链前景 - 2025 年英伟达算力卡出货量预计在 25,000 - 23,000 之间,与现有 M72 服务器规模相当,带动工业互联等领域收入增长,但产业链仍面临压力 [20] 其他重要但可能被忽略的内容 - 英伟达展示与自动驾驶、机器人相关新合作与开源模型,如与 GM 合作推进自动驾驶技术,更多相关信息预计在 Computex 展会上公布 [8]
深度解读黄仁勋GTC演讲:全方位“为推理优化”,“买越多、省越多”,英伟达才是最便宜!
硬AI· 2025-03-19 14:03
英伟达GTC 2025技术创新与行业影响 核心观点 - 英伟达通过推理Token扩展、推理堆栈与Dynamo技术、共封装光学(CPO)等创新显著降低AI总拥有成本,巩固其在全球AI生态系统的领先地位 [2][5] - 三条扩展定律(预训练、后训练、推理时)协同作用推动AI模型能力持续提升 [8][10] - 硬件性能提升与成本下降形成"杰文斯悖论"效应:成本降低刺激需求增长而非抑制 [10][12] 推理Token扩展 - 现有模型Token数超100万亿,推理模型Token量达20倍,计算量高出150倍 [12] - 测试阶段需数十万Token/查询,每月数亿次查询;后训练阶段单个模型需处理数万亿Token [13] - 代理能力AI推动多模型协同工作,解决复杂问题 [13] 黄仁勋数学规则 - 第一条规则:FLOPs数据以2:4稀疏度计,实际密集性能为公布值的2倍(如H100 FP16密集性能1979.81 TFLOPs) [15] - 第二条规则:带宽按双向计量(如NVLink5报1.8TB/s=900GB/s发送+900GB/s接收) [16] - 第三条规则:GPU数量按封装中芯片数计(如NVL144含72个封装×2芯片) [16] GPU与系统路线图 Blackwell Ultra B300 - FP4 FLOPs密度较B200提升超50%,内存容量升至288GB/封装(8×12-Hi HBM3E),带宽维持8TB/s [20] - 采用CoWoS-L封装技术,16个GPU封装组成B300 NVL16系统 [21][22] - 引入CX-8 NIC(800G吞吐量),比CX-7提升一倍 [22] Rubin系列 - 采用台积电3nm工艺,50 PFLOPs密集FP4性能(较B300提升3倍) [25][26] - 关键改进:I/O芯片释放20%-30%面积、1800W TDP、128×128张量核systolic array [27][28] - HBM4容量288GB(8×12-Hi),带宽13TB/s(总线2048位,6.5Gbps针速) [32] Rubin Ultra - 性能翻倍至100 PFLOPs密集FP4,HBM4E容量1024GB(16×16层32Gb DRAM) [36] - 系统总高速存储365TB,Vera CPU配1.2TB LPDDR [37] - 采用Kyber机架架构,NVL576配置含144封装×4芯片=576计算芯片 [39][44] 推理堆栈与Dynamo技术 - Smart Router实现多GPU负载均衡,避免预加载/解码阶段瓶颈 [56][58] - GPU Planner动态调整资源分配,支持MoE模型负载均衡 [59][60] - NCCL小消息传输延迟降低4倍,NIXL引擎实现GPU-NIC直连(免CPU中转) [61][62] - NVMe KV-Cache卸载管理器提升56.3%缓存命中率,释放预加载节点容量 [65] CPO技术突破 - 功耗显著降低:400k GB200 NVL72集群总功耗节省12%,收发器功耗占比从10%降至1% [75] - 网络扁平化:三层→两层拓扑,Quantum X-800 CPO交换机提供144×800G端口 [76] - 长期潜力:提升GPU扩展网络基数,支持超576 GPU的规模化部署 [77] 成本效益与行业地位 - Blackwell较Hopper性能提升68倍,成本降87%;Rubin预计性能提升900倍,成本降99.97% [69] - 技术迭代速度使竞争对手难以追赶,形成平台优势 [79][80] - CPO、机架设计等创新持续扩大与竞争对手差距 [78][79]
速递|从训练到推理:AI芯片市场格局大洗牌,Nvidia的统治或有巨大不确定性
Z Finance· 2025-03-14 19:39
AI芯片市场格局转变 - AI计算需求从训练转向推理,DeepSeek的R1、OpenAI的o3和Anthropic的Claude 3.7等推理模型消耗更多计算资源 [2] - 摩根士丹利预计未来几年美国数据中心75%以上的电力与计算需求将用于推理 [3] - 巴克莱预测前沿AI推理资本支出将从2025年的1226亿美元跃升至2026年的2082亿美元,超过训练支出 [4] Nvidia面临的竞争挑战 - 初创公司如Cerebras、Groq及科技巨头谷歌、亚马逊等正集中力量挑战Nvidia的霸主地位 [2] - 巴克莱预计Nvidia在长期内仅能满足50%的推理需求,到2028年竞争对手或争夺近2000亿美元市场 [5] - 云计算提供商希望减少对Nvidia的依赖,推动更高效芯片发展 [5] Nvidia的应对策略 - 公司CEO黄仁勋强调Blackwell芯片优化推理性能,并指出推理需求较初期增长100倍 [6][7] - Nvidia的CUDA软件生态构成竞争壁垒,其推理性能过去两年提升200倍 [6][8] - 公司称数亿用户通过其数百万GPU访问AI产品,架构灵活性支持多样化应用场景 [8] 推理技术发展趋势 - 推理任务需更大内存处理复杂查询,为替代Nvidia GPU提供机会 [7] - Cerebras芯片在延迟表现上优于竞品(如1秒生成答案 vs OpenAI的40秒) [8] - 推理加速器需针对特定AI模型优化,但通用GPU在架构变化时更具灵活性 [9][10] 行业成本与创新动态 - OpenAI CEO表示AI使用成本每12个月下降约10倍,推动使用量激增 [7] - DeepSeek的v3和R1模型通过架构创新降低推理成本 [7] - 初创公司Mistral采用Cerebras芯片加速其聊天机器人Le Chat [8]
英伟达电话会全记录,黄仁勋都说了什么?
华尔街见闻· 2025-02-27 19:09
核心观点 - AI推理需求将远超当前大语言模型(LLM)的计算需求,可能需要比现有计算能力高出数百万倍 [1] - Blackwell系列芯片供应链问题已完全解决,Blackwell Ultra计划于2025年下半年发布 [1] - 公司预计到2025年年底利润率将在70%-80%区间中部 [2] - 数据中心的资本投资持续增长,AI将成为数据中心的主要工作负载 [13] - 企业AI、代理AI和物理AI等新兴领域将推动长期需求增长 [14] 财务表现 - 2025财年第四季度收入为393亿美元,环比增长12%,同比增长78% [32] - 2025财年收入为1305亿美元,较上一财年增长114% [32] - 数据中心收入为1152亿美元,较上一财年翻了一番 [32] - 第四季度数据中心收入达到创纪录的356亿美元,环比增长16%,同比增长93% [32] - Blackwell产品上个季度实现了110亿美元的收入 [8] - GAAP毛利率为73%,非GAAP毛利率为73.5% [43] 产品与技术 - Blackwell架构为推理AI设计,推理性能比Hopper提升25倍,成本降低20倍 [6] - Blackwell的生产涉及350个工厂,150万个组件 [8] - 大型云服务提供商如Azure、GCP、AWS和OCI已经开始部署Blackwell系统 [9] - 公司致力于在两年内将推理成本降低200倍 [36] - Blackwell的FP4 Transformer引擎和NVLink 72扩展结构使处理推理AI模型的速度比Hopper快25倍 [84] 市场需求 - 推理需求正在加速增长,受到测试时扩展和新的推理模型如DeepSeek-R1的推动 [34] - 长思考推理AI可能需要比一次性推理多100倍的计算量 [34] - 训练后的模型定制和微调的总体计算需求可能比预训练高出几个数量级 [34] - 企业收入同比增长了近两倍,得益于对模型微调、RAG和代理AI工作流程的加速需求 [38] - 汽车垂直业务收入预计在本财年将达到约50亿美元 [39] 行业趋势 - AI已成为主流技术,广泛应用于金融服务、医疗保健等行业 [21] - 未来的计算机将是加速的,未来的计算机将基于AI [69] - 公司预计AI将从数字世界扩展到物理世界,推动机器人技术和物理AI的发展 [38] - 全球各国都在构建自己的AI生态系统,对计算基础设施的需求激增 [39] - 初创公司的活跃和创新表明AI市场潜力巨大,需求将持续强劲 [15] 地理分布 - 中国市场的比例保持稳定,大约是出口管制之前的一半 [68] - 由于Blackwell的初步推广,美国的数据中心收入环比增长最为强劲 [39] - 法国的2000亿欧元AI投资和欧盟的2000亿欧元AI计划正在重新定义全球AI基础设施建设 [39] - 中国数据中心的销售额仍远低于出口管制开始时的水平 [40] 产品路线图 - Blackwell Ultra计划在下半年推出,将带来新的网络、内存和处理器等改进 [16] - Blackwell Ultra将无缝对接现有系统架构,继续推动AI基础设施的发展 [18] - 公司与客户和供应链紧密合作,确保从Blackwell到Blackwell Ultra的平稳过渡 [17] - 下一代产品Vera Rubin正在准备中,将带来巨大的性能飞跃 [60] 客户案例 - NAP利用英伟达TensorRT将其截图功能的推理吞吐量提升了三倍,并削减了66%的成本 [35] - Perplexity每月处理4.35亿次查询,并通过英伟达Triton推理服务器将推理成本降低了三倍 [35] - 微软必应利用英伟达TensorRT在视觉搜索中实现了5倍的速度提升 [35] - Meta的Andromeda广告引擎运行在Grace Hopper超级芯片上,将推理吞吐量提升了3倍 [37] - 现代汽车集团宣布将采用英伟达技术来加速自动驾驶汽车和机器人技术的发展 [39]