Workflow
Reasoning
icon
搜索文档
阿里多模态推理模型开源!精准捕捉视频隐藏信息,三大杀手锏让AI更懂“人情世故”
搜狐财经· 2025-07-09 08:28
阿里通义实验室开源多模态推理模型HumanOmniV2 - 阿里通义实验室开源多模态推理模型HumanOmniV2,通过强制上下文总结机制、大模型驱动的多维度奖励体系和GRPO优化训练方法,实现对多模态信息的全面理解 [1] - HumanOmniV2在生成最终答案前会输出上下文概括,系统性分析视觉、听觉、语音信号,例如正确解读视频中女性翻白眼的真实意图 [1] - 模型在IntentBench评测基准(633个视频和2689个问题)上准确率达到69.33% [4] 模型技术突破 - 引入强制上下文总结机制,避免忽略多模态输入中的隐藏信息,解决现有多模态模型全局上下文理解不足和推理路径简单的问题 [18] - 采用GRPO优化算法改进:词元级损失解决长序列训练不平衡、移除问题级归一化项避免权重偏差、动态KL散度机制提升训练稳定性 [23] - 大模型驱动的多维度奖励机制包括上下文奖励(一致性评估)、格式奖励(结构化输出)、准确性奖励(正确率)、逻辑奖励(多模态整合) [20] 性能表现与基准测试 - HumanOmniV2在开源全模态模型中性能最佳:Daily-Omni测试集58.47%、WorldSense测试集47.1%、IntentBench测试集69.33% [24] - 对比测试中,HumanOmniV2(7B参数)在情感识别任务上优于GPT-4o(59.98%)和Gemini 1.5 Pro(67.15%),达到69.33%准确率 [25] - 在细分领域测试中,模型在"Social"(84%)、"Emotion"(82.41%)、"Deception"(64%)等场景表现突出 [25] 数据集与行业影响 - 开发全模态推理训练数据集,融合图像、视频、音频任务的上下文信息,解决人工标注数据不足问题 [23] - 推出IntentBench评测基准,包含633个视频和2689个复杂意图理解问题,要求模型具备深度社会关系分析能力 [23] - 基于Qwen2.5-Omni-Thinker架构改进,为AI理解人类复杂意图提供技术参考,但7B参数规模可能限制更大模型的适用性 [26][27]
DeepSeek推理最高提速6倍!开源研究:加装「思维进度条」,计算量减少30%
量子位· 2025-07-07 14:13
核心观点 - 特拉维夫大学研究团队开发出监控和控制LLM思考路径长度的新方法 通过"思维进度向量"(TPV)实现推理过程的动态调节 包括超频加速和降频减速 [1][4] - 该方法使模型token使用量减少近6倍 同时保持答案准确性 在Math-500和GSM-8K测试中最高提速6倍且准确率不降反升 [3][18][19] - TPV技术可与现有提示策略互补结合 混合方法平均提升66%性能 最高提升285% 相对于基础模型平均提升223% [23][24] 技术原理 - **进度跟踪机制**:LLM通过隐藏状态动态编码推理进度信息 研究团队从最终隐藏层提取"思维进度向量"量化推理阶段相对位置 [6][7][8] - **干预方法**:通过调整α参数修改隐藏表示 正α值实现超频加速(减少不必要推理步骤) 负α值实现降频减速 [16][17] - **可视化实现**:采用指数平滑和序列模型预测相对位置序列 生成可视化进度条 经测试预测误差低于0.1 [11][14][15] 实验效果 - **效率提升**:DeepSeek-R1模型token使用量减少6倍 GSM8K数据集计算量减少30% 思考序列长度显著缩短 [3][18][28] - **准确性表现**:在256-512token低计算预算下 正确答案增加80% 错误率保持不变 更高预算下保持相同趋势 [21][22] - **参数影响**:α值从5增至100持续提升效果 与指令提示结合时最佳性能提升达1416% [20][23][29] 应用验证 - **跨场景适应性**:TPV在不同指令策略和推理序列长度下保持有效 测试损失始终低于0.1 显示强鲁棒性 [32][33] - **模型兼容性**:已验证适用于DeepSeek-R1-Qwen-32B和DeepSeek-R1-LLaMA-8B等显式结构化推理模型 [8][19]
重温《英伟达GTC 2025》:挖掘AI算力需求预期差?
2025-07-07 08:51
纪要涉及的行业和公司 - **行业**:美股算力领域、AI 产业、数据中心市场 - **公司**:英伟达、微软、谷歌、亚马逊、Oracle、Marvell、戴尔、台积电 纪要提到的核心观点和论据 1. **算力需求现状与变化** - 全球 AI 算力跟踪方式与以往不同,过去依赖产业链数据,如今需关注大模型和应用,美股算力领域上涨由推理和训练需求共振驱动 [2] - AI 计算需求和扩展速度超加速增长,因推理模型出现,计算量比一年前预期至少高出 100 倍 [2][16] 2. **GTC 大会影响** - 今年参会人数较去年增长 50%,AI 产业人士增加,对 AI 产业重要性提升,重温可挖掘信息差和预期差,是海外算力链上涨核心原因 [3] - 提出 agentic AI 概念,与传统 LLM 不同,强调任务分布执行和规划 [6] 3. **算力需求相关因素** - 算力需求空间与 TOKEN 量密切相关,海外算力公司涨幅不能仅用传统业绩解释,需分析 TOKEN 量对计算需求的影响 [1][4] - 未来海外算力链发展需关注大模型和应用、全球市场变化、GTC 大会信息差、TOKEN 量与计算需求关系 [5] 4. **AI 范式区别** - agentic AI 与 generative AI 是不同范式,前者侧重协作和目标驱动,后者是生成式 AI [7] - agent 是独立执行任务个体,agentic AI 是协作性目标驱动系统 [11] 5. **Skin law 曲线** - 现在有三条 skin law 曲线,分别对应预训练、后训练和测试时间,三个阶段都存在算力需求通胀 [1][8] 6. **后训练与测试时间** - 后训练通过强化学习等优化模型,不涉及卷模型参数;测试时间指推理市场,是结果导向型 [9] 7. **协作型 AI** - 涉及多步骤、多代理等协作过程,信息沟通依赖 TOKEN,全球 TOKEN 量爆发提升了算力需求 [2][12] 8. **数据问题解决** - 强化学习产生的 COT TOKEN 数据和合成数据可用于模型训练,不必担心数据不足 [13] 9. **互联网大厂策略** - 免费开放 AI 应用是为保持竞争力和获取 TOKEN 数据用于训练下一代模型 [14] 10. **推理模型** - reasoning model 与传统大语言模型不同,需详细列出思考过程,增加了算力和 TOKEN 需求,比 one shot 方式至少高出 100 倍 [18][19] 11. **后训练应用** - 后训练在强化学习中用大量 tokens 验证和调整模型,计算需求高,推理环节 token 消耗量远超 chatbot [20] 12. **Token 相关关系** - Agentic AI 与 token 消耗是指数关系,token 与计算量关系复杂,总算力需求等于 Token 数量乘以单 Token 算力成本 [21][22][23] - TOKEN 量增加与计算需求不是 1:1 关系,可能是 1:n,n 可能为 10 甚至更高 [25][26] 13. **海外 AI 应用** - 海外 AI 应用中 TOKEN 量爆发因 Deepseek 降低成本,推动应用快速增长 [27] 14. **单任务执行问题** - 可通过增加算力降低单任务执行等待时间,涉及延迟和吞吐量权衡 [28] 15. **不同 AI 模型差异** - Chatbot 与 Deep Research Agent、通用模型与测试模型在 TOKEN 消耗上存在显著差异 [30] 16. **云服务提供商需求** - 四大云服务提供商对 GPU 需求巨大,2024 年买 130 万张 Hopper 架构 GPU,2025 年已买 360 万张 Blackwell 芯片 GPU [31] 17. **数据中心市场** - 预计到 2028 年数据中心市场规模达 1 万亿美金以上,2025 年是需求增长拐点 [32] 18. **英伟达战略** - 加强与戴尔合作,向政企领域拓展,利用戴尔客户网络 [33] 19. **算力需求驱动因素** - 底层计算架构从 CPU 转换为 GPU,软件未来需资本投入,通过自身生成 TOKEN 交互协作,推动算力需求 [34] 20. **软件运行模式转变** - “软件加算力”替代“软件加能力”,软件运行将自动化,企业依赖计算资源而非人力 [37] 21. **算力需求阶段** - 当前处于算力需求拐点向上阶段,因计算架构转换和 AI 技术发展,算力需求爆发式增长 [38] 22. **推理图表数据** - 单个用户每秒钟处理 TOKEN 量与智能 AI 反应速度有关,吞吐量越大、系统响应越快,影响用户体验 [39] 23. **Token 资源分配** - AI 应用中 Token 是资源,用户单位时间获 Token 数量影响应用运行速度,吞吐量决定系统任务执行和用户数 [41] 24. **AI 工厂优化** - 可通过增加 HBM 存储容量、提高存储带宽、优化算法和架构优化 AI 工厂吞吐量,提升系统性能 [42] 25. **公司股价上涨** - 英伟达和台积电等公司股价创新高因 AI 算力需求大幅增长,公司创新技术满足需求 [43][44] 26. **资本市场逻辑** - 资本市场对 AI 算力需求变化基于新需求驱动,深入研究原因可准确预测未来发展方向 [45] 其他重要但可能被忽略的内容 - 微软 2025 年一季度总吞吐量达 100 万亿个 tokens,谷歌 4、5 月吞吐量为 480 万亿个 tokens,后训练一次至少需 100 万亿个 tokens [20] - 从 2025 年 2 月底出现拐点,Deepseek 于 2024 年 1 月底发布,推动海外 AI 应用发展 [27] - 英伟达股价从 2024 年 6 月到 2025 年 6 月横盘一年,2025 年 6 月底突破新高 [44]
喝点VC|红杉美国对谈OpenAI前研究主管:预训练已经进入边际效益递减阶段,其真正杠杆在于架构的改进
Z Potentials· 2025-07-04 11:56
AI技术发展现状与趋势 - 预训练、后训练和推理构成AI发展的"三位一体"框架 预训练已进入边际效益递减阶段 真正杠杆在于架构改进 后训练聚焦模型个性与智能表现 推理能力训练则引导AI自主摸索链式思维[4][8] - 2025年成为"推理之年" 各大实验室重点转向推理优化 但后续进展将越来越困难[5][7] - 预训练收益递减源于基本规律 模型智能水平与计算资源呈对数线性增长 提升智能需指数级增加计算资源[7][8] Agent商业模式与竞争格局 - Agent价格将趋近计算使用成本 普适性和性价比将颠覆传统人力密集型领域[6][18] - 简单重复性任务由AI完成 复杂需人类理解的服务保持价值稀缺性[19][26] - 创业公司机会在于构建网络效应和规模经济 而非依赖高价Agent[21][26] 机器人技术突破与商业化 - LLMs为机器人提供低成本语言接口 结合强大视觉编码器 赋予处理通用任务的先发优势[24][25] - 机器人领域正处于研究最后阶段 距离商业化仅数月到数年时间[22][25] - 技术突破使机器人能快速解决多样化任务 如叠衣服、搬运纸箱等[25] 编程领域变革与未来趋势 - 编程发展呈现非线性加速 未来将形成混合模式:人类主导设计+Agent自动编码[32][34] - Agentic工程师处理明确结果的任务如bug修复、代码重构 人类负责需"品味"的设计工作[34][35] - 关键挑战在于如何让Agent理解代码库 目前仍需人类进行高层次设计[33][35] 专有数据价值重估 - 专有数据价值被高估 "无限智能、无限耐心"的Agent可从公开数据重构替代信息[29][30] - 真正有价值的专有数据是具体客户的深度个性化信息 可辅助专业决策而非训练技能[31] - 垂直领域专属模型表现普遍不如下一代通用模型 因综合能力远超单纯记忆[29] 企业管理与文化构建 - 技术团队应消除研究员与工程师界限 建立平等环境促进全栈理解[37][38] - 管理者核心是真诚关心团队成员 建立忠诚度才能推动困难决策[50][51] - 高绩效人才管理需平衡个人创作欲望与团队协作目标[52] AI教育应用与人才培养 - AI最佳应用是帮助用户成为领域专家 同时减轻重复性工作负担[42][43] - 教育应聚焦学习过程和自主能动性培养 而非特定技能[43][44] - 即时响应式学习能抓住最佳学习时机 大幅提升教育效果[46] 安全防御新范式 - AI使攻击能力提升 防御措施需更加自主化和智能化[53] - 企业需重构业务流程以适应自主安全系统 这为创业公司创造机会[53]
NVIDIA Regains Its Lost Glory - Should You Buy on the Dip and Hold?
ZACKS· 2025-06-26 21:10
市场地位与股价表现 - 公司以3.763万亿美元市值重夺全球最高市值公司宝座 超越微软的3.66万亿美元 [1] - 股价在6月25日创154.31美元历史新高 较4月初低点反弹近80% 同比涨幅超15% [1][3] - 1月底曾达149.41美元前高 后因中国DeepSeek AI平台推出及对华出口限制导致股价下跌 [2] 业务发展与技术创新 - Blackwell GPU已创云服务商采购记录 计划2025下半年推出Blackwell Ultra 2026年发布Vera Rubin 2027/2028年规划Rubin Next和Feynman AI芯片路线图 [5][6] - 推理AI芯片成为新方向 DeepSeek R1等开源推理模型将带来100倍算力需求 Blackwell Ultra预计使数据中心收入较Hopper系统提升50倍 [10][11][12] - 汽车业务成新增长点 2026财年Q1汽车收入同比增72%至5.67亿美元 全年预期突破50亿美元 未来或达万亿美元规模 [13][14] 行业需求与客户动态 - 四大科技巨头(微软/谷歌/Meta/亚马逊)2025年AI基础设施资本开支达3250亿美元 同比增46% [7][8] - Oppenheimer预估全球主权AI市场规模将达1.5万亿美元 [9] - 推理AI模型推动芯片升级需求 OpenAI o1和谷歌Gemini 2.0 Flash Thinking均采用该技术 [11] 财务指标与增长预期 - 2026财年(截至2026年1月)预期营收/利润增速达51.4%/42.1% 2027财年预期25.2%/31.8% [15] - 长期(3-5年)EPS增长率28.2% 显著高于标普500指数的12.6% [16] - ROE达105.09%远超行业4.95% 净利率51.69%对比行业6.67% 远期市盈率34.84倍 [17] 业绩修正与估值 - 当前财年Zacks共识盈利预期30日内上调1.7% 次年7日内上调0.4% [15] - Q1/Q2季度盈利预期60日内分别上调1.02%/1.79% 2026/2027财年预期上调0.24%/4.28% [17]
多样化大规模数据集!SceneSplat++:首个基于3DGS的综合基准~
自动驾驶之心· 2025-06-20 22:06
三维高斯溅射技术发展 - 三维高斯溅射(3DGS)成为最理想的三维表示方法,因其能联合编码场景的几何、外观和理解属性[2] - 视觉-语言推理是三维场景理解最具前景的方向,将视觉/几何属性与语言概念连接[2] - 现有方法分为三类:基于梯度的单场景优化、免优化的特征聚合、泛化方法[3] 评估基准创新 - 提出SceneSplat-Bench基准,包含1060个场景和325个语义类别,首次在三维空间评估性能[3] - 现有评估存在三大局限:样本量少(仅9-21个场景)、依赖训练视点、二维评估为主[4] - 基准测试显示泛化方法SceneSplat在f-mIoU指标上最高达0.354(ScanNet20)和0.338(Matterport3D)[24] 数据集突破 - 发布SceneSplat-49K数据集,包含46K个3DGS场景,总高斯数达29.24B,覆盖室内外环境[9][10] - 数据集平均质量达27.8dB PSNR和0.90 SSIM,几何误差仅0.061米,存储量8.36TB[10][12] - 包含12K个带视觉语言嵌入的场景,采用动态加权机制融合全局/局部特征[19] 技术性能比较 - 泛化方法SceneSplat运行时仅0.24分钟/场景,显著优于优化方法(76-621分钟)[5][24] - 免优化方法在效率(4-5.6分钟)和准确率上均优于优化方法,如Gradient-Weighted 3DGS在ScanNet20达0.418 f-mIoU[5][24] - 数据规模扩大使ScanNet++性能提升69%(f-mIoU从0.168到0.284)[28] 跨领域应用 - 室内训练模型可迁移至室外场景,零样本性能达0.263 mIoU,但特定领域数据仍关键[29] - 城市尺度数据集HoliCity包含6,300个伦敦场景,覆盖20平方公里,支持室外评估[17][22] - 合成数据Aria ASE贡献25K程序化室内场景,采用鱼眼图像校正技术[16]
2025年,AI大模型在企业场景走到哪了?
36氪· 2025-06-20 18:29
核心观点 - AI在企业中的地位发生根本性转变,从试验项目转变为战略行动,成为IT和经营预算中不可或缺的一部分[2][4] - 企业AI部署呈现预算常态化、模型选择多元化、采购流程标准化、应用系统落地的特点[2][8] - AI市场形态接近传统软件,但变化节奏与复杂性完全不同[2][52] 预算趋势 - AI预算增长远超预期,平均增幅达75%,且持续增长毫无放缓迹象[10] - AI支出从创新专项预算(25%)转向常规IT与业务部门预算(93%),结束"试验期"[13] - 预算增长驱动因素:内部用例持续发掘(如效率提升)和面向客户AI应用(如科技公司)的指数级扩展[11] 模型选择 - 多模型策略成为主流,37%企业使用5种及以上模型(去年29%),注重差异化性能而非同质化[15] - 三大厂商确立领先地位:OpenAI(67%生产部署率)、谷歌(Gemini 2.5性价比优势)、Anthropic(代码任务突出)[17] - 闭源中小型模型性价比优势明显,如xAI Grok 3 mini和Gemini 2.5 Flash(0.26美元/百万Token)[20] - 微调重要性下降,Prompt工程成本更低且迁移性更好,但特定领域(如视频搜索)仍需微调[22] 采购流程 - 采购流程趋近传统软件,形成系统性评估框架,安全性和成本成为核心考量[27] - 企业信任度提升,托管策略多元化,直接与模型厂商合作趋势增强[29] - 模型切换成本快速上升,代理工作流设计导致替换模型影响整体稳定性[31] - 外部评估基准(如LM Arena)成为第一道筛选门槛,但实际试用仍是决定因素[33] 应用落地 - 企业从自建转向采购成品应用,如90%CIO测试第三方客户支持应用[35] - 软件开发成为首个杀手级场景,某SaaS公司90%代码由AI生成(去年仅10-15%)[43][47] - Prosumer市场拉动增长,如ChatGPT企业版因员工习惯驱动采购[45] - AI原生公司(如Cursor)在产品质量和迭代速度上超越传统厂商(如GitHub Copilot)[48]
知识类型视角切入,全面评测图像编辑模型推理能力:所有模型在「程序性推理」方面表现不佳
量子位· 2025-06-13 13:07
研究背景 - 东南大学联合马克斯·普朗克信息研究所、上海交通大学、阶跃星辰、加州大学伯克利分校与加州大学默塞德分校的研究团队共同提出KRIS-Bench评测框架 [2] - 首创从知识类型视角系统化评测图像编辑模型的推理能力 [3] - 借鉴布鲁姆认知分类与教育心理学分层教学理念设计评测体系 [4] 评测体系设计 - 基于三大知识范畴构建评测框架:事实性知识(颜色/数量/空间/时间)、概念性知识(物理/化学/生物常识)、程序性知识(多步操作与规则推理) [8] - 细分为7大推理维度和22种典型编辑任务覆盖全谱系难度包括物体计数变化、化学反应预测、多元素合成等 [6] - 样本总量1,267对图像-指令由专家团队手工打磨数据来源包含真实照片、开源基准、模型生成、3D渲染等多样分布 [12] 评估方法创新 - 首创四维度自动化评估指标:视觉一致性(非目标区域保持)、视觉质量(自然度)、指令跟随(完整性)、知识合理性(常识符合度) [10][11][13] - 深度知识任务附带手工知识提示辅助判断模型理解程度 [11] 模型评测结果 - 评估10款模型包含3款闭源(GPT-Image-1、Gemini 2.0 Flash、Doubao)和7款开源(OmniGen/Emu2/BAGEL/Step1X-Edit等) [14] - 闭源旗舰GPT-Image-1表现领先开源模型BAGEL-Think通过引入推理过程提升知识合理性但仍落后闭源模型 [18] - 所有模型在程序性推理、自然科学及多步骤合成任务上表现不佳显示深层推理能力不足 [18] 行业影响 - 推动图像编辑模型从像素搬运向具备人类认知能力的视觉智者演进 [16] - 未来目标是在AI编辑中植入物理/化学/社会常识与因果推理实现真正的理解与预测 [16]
Microsoft-backed AI lab Mistral is launching its first reasoning model in challenge to OpenAI
CNBC· 2025-06-10 17:47
公司动态 - 法国人工智能初创公司Mistral AI推出首款推理模型 旨在与OpenAI和中国深度求索(DeepSeek)等竞争对手抗衡 [1] - 新模型具备多语言推理能力 在数学和编程领域表现优异 首席执行官Arthur Mensch在伦敦科技周公开宣布此消息 [2] - 模型采用逐步逻辑思维流程执行复杂任务 技术定位为推理模型(reasoning model) [2] 行业竞争格局 - 当前市场主要竞品包括OpenAI于2023年底发布的o1模型 以及中国深度求索实验室的R1模型 [3] - 法国AI企业首次推出具备多语言特性的推理模型 形成对中美头部企业的差异化竞争 [1][2] - 模型发布时间选择在伦敦科技周期间 通过CEO现场演示强化市场传播效果 [2]
NVIDIA (NVDA) 2025 Conference Transcript
2025-06-04 23:52
纪要涉及的行业和公司 - **行业**:半导体、人工智能 - **公司**:NVIDIA、DeepSeek、High Flyer、OpenAI、Meta、Grok、xAI、AWS、TPU、CoreWeave、Lambda、Nibius、Microsoft 纪要提到的核心观点和论据 1. **DeepSeek事件影响** - **观点**:DeepSeek事件是AI推理模型的重要转折点,使推理模型变得普遍、开放和民主化,大幅增加推理需求和市场机会 [7][11][12] - **论据**:DeepSeek是首个开放的世界级推理模型,其论文展示了对GPU等的大量优化;推理模型能让模型思考并检查答案,生成的令牌数量大幅增加,如DeepSeek r one生成的令牌是传统模型的13倍,带来约20倍的推理市场机会;新的DeepSeek r one在数学基准测试中的准确率从约70%提升到89% [8][15][17][18][19] 2. **模型规模与价值** - **观点**:模型规模不断增大,且推理模型能带来更多价值,未来将趋向于万亿参数模型 [28][32] - **论据**:如今百亿参数模型已很常见,甚至有万亿参数模型;推理模型能利用互联网语料进行思考和回答问题,知识越多、思考越快,答案越准确或成本越低;模型不断训练和再训练,将更多知识融入其中,增加自身智能和价值 [29][31][32] 3. **NVIDIA在推理市场的竞争力** - **观点**:NVIDIA在推理市场具有竞争力,平台至关重要 [41][42] - **论据**:推理市场面临数值精度、模型分布、多样化工作负载等复杂优化问题,NVIDIA与各AI公司合作,不断创新平台;AWS的b 200 h g x平台是出色的推理平台,能为使用Hopper的用户带来3倍的推理提升 [44][45][47][57][58] 4. **ASIC与商用量产芯片的市场趋势** - **观点**:不能单纯从芯片成本考虑,而应关注数据中心的整体价值和收益 [62] - **论据**:数据中心的价值在于输出的令牌数量和价值,推理模型能更快给出答案或在一定时间内进行推理,用户愿意为此支付溢价;芯片成本在数据中心总支出中占比相对较小,连接芯片和液体冷却等技术带来的复杂性和价值能提高收入;NVIDIA每年推出新的GPU和架构,优化数据中心设计 [62][63][65] 5. **主权AI机会** - **观点**:主权AI带来增量需求,是令人兴奋的机会 [70] - **论据**:各国政府和国家认识到计算对国家的重要性,纷纷建设AI工厂,如台湾的10,000个Blackwell GPU AI工厂用于制造业,日本、德国、英国等也在积极推进;全球目前约有100个AI工厂正在建设和组装 [70][71][74] 其他重要但可能被忽略的内容 1. **技术创新**:DeepSeek使用MLA统计技术压缩变压器层,降低成本;模型执行中的MOE专家技术,能选择合适的知识进行计算,提高效率 [24][33] 2. **模型蒸馏**:蒸馏是优化计算的一种方式,能将大模型蒸馏成小的垂直模型,满足特定应用需求;Hugging Face上有大量蒸馏模型,蒸馏过程是GPU的一大消耗 [38][39] 3. **增长限制因素**:目前增长的限制因素包括获取电力的能力、客户对产品年度更新节奏的接受程度、资本支出需求增加以及企业采用高价值模型的速度 [80][85] 4. **NVIDIA软件货币化**:NVIDIA可通过与企业直接合作提供特定模型、为数据中心软件提供支持以及提供企业级软件支持等方式实现软件货币化 [88][89][90]