Workflow
Reasoning Models
icon
搜索文档
2025年,AI大模型在企业场景走到哪了?
36氪· 2025-06-20 18:29
核心观点 - AI在企业中的地位发生根本性转变,从试验项目转变为战略行动,成为IT和经营预算中不可或缺的一部分[2][4] - 企业AI部署呈现预算常态化、模型选择多元化、采购流程标准化、应用系统落地的特点[2][8] - AI市场形态接近传统软件,但变化节奏与复杂性完全不同[2][52] 预算趋势 - AI预算增长远超预期,平均增幅达75%,且持续增长毫无放缓迹象[10] - AI支出从创新专项预算(25%)转向常规IT与业务部门预算(93%),结束"试验期"[13] - 预算增长驱动因素:内部用例持续发掘(如效率提升)和面向客户AI应用(如科技公司)的指数级扩展[11] 模型选择 - 多模型策略成为主流,37%企业使用5种及以上模型(去年29%),注重差异化性能而非同质化[15] - 三大厂商确立领先地位:OpenAI(67%生产部署率)、谷歌(Gemini 2.5性价比优势)、Anthropic(代码任务突出)[17] - 闭源中小型模型性价比优势明显,如xAI Grok 3 mini和Gemini 2.5 Flash(0.26美元/百万Token)[20] - 微调重要性下降,Prompt工程成本更低且迁移性更好,但特定领域(如视频搜索)仍需微调[22] 采购流程 - 采购流程趋近传统软件,形成系统性评估框架,安全性和成本成为核心考量[27] - 企业信任度提升,托管策略多元化,直接与模型厂商合作趋势增强[29] - 模型切换成本快速上升,代理工作流设计导致替换模型影响整体稳定性[31] - 外部评估基准(如LM Arena)成为第一道筛选门槛,但实际试用仍是决定因素[33] 应用落地 - 企业从自建转向采购成品应用,如90%CIO测试第三方客户支持应用[35] - 软件开发成为首个杀手级场景,某SaaS公司90%代码由AI生成(去年仅10-15%)[43][47] - Prosumer市场拉动增长,如ChatGPT企业版因员工习惯驱动采购[45] - AI原生公司(如Cursor)在产品质量和迭代速度上超越传统厂商(如GitHub Copilot)[48]
NVIDIA (NVDA) 2025 Conference Transcript
2025-06-04 23:52
纪要涉及的行业和公司 - **行业**:半导体、人工智能 - **公司**:NVIDIA、DeepSeek、High Flyer、OpenAI、Meta、Grok、xAI、AWS、TPU、CoreWeave、Lambda、Nibius、Microsoft 纪要提到的核心观点和论据 1. **DeepSeek事件影响** - **观点**:DeepSeek事件是AI推理模型的重要转折点,使推理模型变得普遍、开放和民主化,大幅增加推理需求和市场机会 [7][11][12] - **论据**:DeepSeek是首个开放的世界级推理模型,其论文展示了对GPU等的大量优化;推理模型能让模型思考并检查答案,生成的令牌数量大幅增加,如DeepSeek r one生成的令牌是传统模型的13倍,带来约20倍的推理市场机会;新的DeepSeek r one在数学基准测试中的准确率从约70%提升到89% [8][15][17][18][19] 2. **模型规模与价值** - **观点**:模型规模不断增大,且推理模型能带来更多价值,未来将趋向于万亿参数模型 [28][32] - **论据**:如今百亿参数模型已很常见,甚至有万亿参数模型;推理模型能利用互联网语料进行思考和回答问题,知识越多、思考越快,答案越准确或成本越低;模型不断训练和再训练,将更多知识融入其中,增加自身智能和价值 [29][31][32] 3. **NVIDIA在推理市场的竞争力** - **观点**:NVIDIA在推理市场具有竞争力,平台至关重要 [41][42] - **论据**:推理市场面临数值精度、模型分布、多样化工作负载等复杂优化问题,NVIDIA与各AI公司合作,不断创新平台;AWS的b 200 h g x平台是出色的推理平台,能为使用Hopper的用户带来3倍的推理提升 [44][45][47][57][58] 4. **ASIC与商用量产芯片的市场趋势** - **观点**:不能单纯从芯片成本考虑,而应关注数据中心的整体价值和收益 [62] - **论据**:数据中心的价值在于输出的令牌数量和价值,推理模型能更快给出答案或在一定时间内进行推理,用户愿意为此支付溢价;芯片成本在数据中心总支出中占比相对较小,连接芯片和液体冷却等技术带来的复杂性和价值能提高收入;NVIDIA每年推出新的GPU和架构,优化数据中心设计 [62][63][65] 5. **主权AI机会** - **观点**:主权AI带来增量需求,是令人兴奋的机会 [70] - **论据**:各国政府和国家认识到计算对国家的重要性,纷纷建设AI工厂,如台湾的10,000个Blackwell GPU AI工厂用于制造业,日本、德国、英国等也在积极推进;全球目前约有100个AI工厂正在建设和组装 [70][71][74] 其他重要但可能被忽略的内容 1. **技术创新**:DeepSeek使用MLA统计技术压缩变压器层,降低成本;模型执行中的MOE专家技术,能选择合适的知识进行计算,提高效率 [24][33] 2. **模型蒸馏**:蒸馏是优化计算的一种方式,能将大模型蒸馏成小的垂直模型,满足特定应用需求;Hugging Face上有大量蒸馏模型,蒸馏过程是GPU的一大消耗 [38][39] 3. **增长限制因素**:目前增长的限制因素包括获取电力的能力、客户对产品年度更新节奏的接受程度、资本支出需求增加以及企业采用高价值模型的速度 [80][85] 4. **NVIDIA软件货币化**:NVIDIA可通过与企业直接合作提供特定模型、为数据中心软件提供支持以及提供企业级软件支持等方式实现软件货币化 [88][89][90]
Nvidia CEO Huang says AI has to do '100 times more' computation now than when ChatGPT was released
CNBC· 2025-02-27 09:32
文章核心观点 英伟达CEO黄仁勋表示下一代AI因新推理方法需比旧模型多100倍计算量 公司财报超分析师预期 但股价受中国AI实验室DeepSeek影响下跌后未恢复 黄仁勋反驳相关担忧 [1][2][3] 下一代AI计算需求 - 下一代AI因新推理方法需比旧模型多100倍计算量 [1] 公司财报情况 - 英伟达财报全面超分析师预期 营收同比增长78%至393.3亿美元 [2] - 数据中心营收飙升93%至356亿美元 占总营收超90% [2] 公司股价表现 - 公司股价在1月27日下跌17%后仍未恢复 此次下跌是因中国AI实验室DeepSeek引发的担忧 [3] 对相关担忧的回应 - 黄仁勋反驳相关担忧 称DeepSeek推广的推理模型将需要更多芯片 [3] - 黄仁勋称赞DeepSeek开源了世界级推理模型 [4] 涉及推理模型举例 - 涉及推理过程的模型包括DeepSeek的R1、OpenAI的GPT - 4和xAI的Grok 3 [2]