Workflow
Reasoning Models
icon
搜索文档
Transformer作者重磅预言:AI无寒冬,推理革命引爆万亿市场
36氪· 2025-11-14 19:51
AI行业技术范式转移 - Transformer架构共同作者Łukasz Kaiser认为,推理模型正引发AI领域重大的范式转移,这被视为继2017年Transformer之后最重大的突破[3] - 推理模型具备自我反思、动态分配计算资源、调用外部工具及生成并筛选多条推理路径的能力,完全不同于GPT-4这类纯自回归大语言模型[19] - 在绝大多数推理密集型任务中,OpenAI的首个推理模型o1显著优于当时最强的通用模型GPT-4o,尤其在数学、程序分析等结构化任务上效果明显[21][23] AI技术发展瓶颈与核心制约因素 - AI未来一两年极速跃升的瓶颈不在于算法,而在于GPU计算能力与能源供应,这是当前所有实验室面临的根本性制约[1][17] - 推理模型所需训练数据量比传统模型少几个数量级,但对算力的需求巨大,目前缺乏足够的算力支撑其并行开展更多实验[17] - 通用的互联网数据基本上已被使用完,谁也无法轻易获得比这多得多的数据,纯粹的Scaling在经济上已不可行[35] 行业内对AGI发展路径的争论 - 强化学习之父Richard Sutton与图灵奖得主Yann LeCun等专家认为大语言模型已走入死胡同,其改进能力存在极限,且这个极限远比众所周知的要近[11][13] - OpenAI等公司推动的“LLM+数据+GPU+能源”的AGI路径被部分经济学家认为已接近成功,甚至有观点认为2025年4月16日就是AGI日[4][7] - Łukasz Kaiser反驳“LLM是死胡同”的观点,认为推理模型代表着根本性突破,并指出AI能力会持续增强,但短期内物理世界相关领域仍将存在人类不可替代的工作[17][27] 推理模型的技术特点与应用前景 - 推理模型不急于生成响应,而是先进行推理、检索、调用工具等“深度思考”过程,像人类在回答问题前的犹豫,从而能真正“搞定一件事”[23] - 该方法已能真正胜任职场中的某些工作任务,并且能持续工作数小时产出有价值成果,例如在编程领域能理解大型代码库、进行代码审查、发现漏洞甚至安全威胁[28][31] - 代码模型在三个月前还只是辅助工具,但现在却能真正处理复杂代码库,展现出指数级进步[34] 多模态学习与未来研究方向 - 当前多模态训练已取得成功,模型能将音频编码成离散的音频token,图像被分成多个图像块进行编码,并通过预测下一个token来进行训练[40] - 视频训练虽然数据量巨大,但大部分信息对推理帮助有限,AI需要学会“挑重点”,只提取有意义的部分如运动、因果、变化[42] - 语言模型已掌握对抽象世界的建模,最欠缺的是对人类最熟悉的物理世界的理解,填补这个空白是实现实用机器人的关键突破[42] AI行业未来发展趋势预测 - Łukasz Kaiser认为AI冬天不会来临,未来一两年内改进可能非常猛烈,之后世界将翻天覆地[39] - 未来推理模型需要实现“多线并行思考”,例如同时运行多个思维链然后让它们“讨论”并选出最佳答案,GPT-5 Pro已初步实现这一点[39] - 谷歌的Gemini 1.5 Robotics已开始结合推理与视觉,未来机器人将具备“快反应系统”和“慢思考系统”的结合[43][45]
2025年,AI大模型在企业场景走到哪了?
36氪· 2025-06-20 18:29
核心观点 - AI在企业中的地位发生根本性转变,从试验项目转变为战略行动,成为IT和经营预算中不可或缺的一部分[2][4] - 企业AI部署呈现预算常态化、模型选择多元化、采购流程标准化、应用系统落地的特点[2][8] - AI市场形态接近传统软件,但变化节奏与复杂性完全不同[2][52] 预算趋势 - AI预算增长远超预期,平均增幅达75%,且持续增长毫无放缓迹象[10] - AI支出从创新专项预算(25%)转向常规IT与业务部门预算(93%),结束"试验期"[13] - 预算增长驱动因素:内部用例持续发掘(如效率提升)和面向客户AI应用(如科技公司)的指数级扩展[11] 模型选择 - 多模型策略成为主流,37%企业使用5种及以上模型(去年29%),注重差异化性能而非同质化[15] - 三大厂商确立领先地位:OpenAI(67%生产部署率)、谷歌(Gemini 2.5性价比优势)、Anthropic(代码任务突出)[17] - 闭源中小型模型性价比优势明显,如xAI Grok 3 mini和Gemini 2.5 Flash(0.26美元/百万Token)[20] - 微调重要性下降,Prompt工程成本更低且迁移性更好,但特定领域(如视频搜索)仍需微调[22] 采购流程 - 采购流程趋近传统软件,形成系统性评估框架,安全性和成本成为核心考量[27] - 企业信任度提升,托管策略多元化,直接与模型厂商合作趋势增强[29] - 模型切换成本快速上升,代理工作流设计导致替换模型影响整体稳定性[31] - 外部评估基准(如LM Arena)成为第一道筛选门槛,但实际试用仍是决定因素[33] 应用落地 - 企业从自建转向采购成品应用,如90%CIO测试第三方客户支持应用[35] - 软件开发成为首个杀手级场景,某SaaS公司90%代码由AI生成(去年仅10-15%)[43][47] - Prosumer市场拉动增长,如ChatGPT企业版因员工习惯驱动采购[45] - AI原生公司(如Cursor)在产品质量和迭代速度上超越传统厂商(如GitHub Copilot)[48]
NVIDIA (NVDA) 2025 Conference Transcript
2025-06-04 23:52
纪要涉及的行业和公司 - **行业**:半导体、人工智能 - **公司**:NVIDIA、DeepSeek、High Flyer、OpenAI、Meta、Grok、xAI、AWS、TPU、CoreWeave、Lambda、Nibius、Microsoft 纪要提到的核心观点和论据 1. **DeepSeek事件影响** - **观点**:DeepSeek事件是AI推理模型的重要转折点,使推理模型变得普遍、开放和民主化,大幅增加推理需求和市场机会 [7][11][12] - **论据**:DeepSeek是首个开放的世界级推理模型,其论文展示了对GPU等的大量优化;推理模型能让模型思考并检查答案,生成的令牌数量大幅增加,如DeepSeek r one生成的令牌是传统模型的13倍,带来约20倍的推理市场机会;新的DeepSeek r one在数学基准测试中的准确率从约70%提升到89% [8][15][17][18][19] 2. **模型规模与价值** - **观点**:模型规模不断增大,且推理模型能带来更多价值,未来将趋向于万亿参数模型 [28][32] - **论据**:如今百亿参数模型已很常见,甚至有万亿参数模型;推理模型能利用互联网语料进行思考和回答问题,知识越多、思考越快,答案越准确或成本越低;模型不断训练和再训练,将更多知识融入其中,增加自身智能和价值 [29][31][32] 3. **NVIDIA在推理市场的竞争力** - **观点**:NVIDIA在推理市场具有竞争力,平台至关重要 [41][42] - **论据**:推理市场面临数值精度、模型分布、多样化工作负载等复杂优化问题,NVIDIA与各AI公司合作,不断创新平台;AWS的b 200 h g x平台是出色的推理平台,能为使用Hopper的用户带来3倍的推理提升 [44][45][47][57][58] 4. **ASIC与商用量产芯片的市场趋势** - **观点**:不能单纯从芯片成本考虑,而应关注数据中心的整体价值和收益 [62] - **论据**:数据中心的价值在于输出的令牌数量和价值,推理模型能更快给出答案或在一定时间内进行推理,用户愿意为此支付溢价;芯片成本在数据中心总支出中占比相对较小,连接芯片和液体冷却等技术带来的复杂性和价值能提高收入;NVIDIA每年推出新的GPU和架构,优化数据中心设计 [62][63][65] 5. **主权AI机会** - **观点**:主权AI带来增量需求,是令人兴奋的机会 [70] - **论据**:各国政府和国家认识到计算对国家的重要性,纷纷建设AI工厂,如台湾的10,000个Blackwell GPU AI工厂用于制造业,日本、德国、英国等也在积极推进;全球目前约有100个AI工厂正在建设和组装 [70][71][74] 其他重要但可能被忽略的内容 1. **技术创新**:DeepSeek使用MLA统计技术压缩变压器层,降低成本;模型执行中的MOE专家技术,能选择合适的知识进行计算,提高效率 [24][33] 2. **模型蒸馏**:蒸馏是优化计算的一种方式,能将大模型蒸馏成小的垂直模型,满足特定应用需求;Hugging Face上有大量蒸馏模型,蒸馏过程是GPU的一大消耗 [38][39] 3. **增长限制因素**:目前增长的限制因素包括获取电力的能力、客户对产品年度更新节奏的接受程度、资本支出需求增加以及企业采用高价值模型的速度 [80][85] 4. **NVIDIA软件货币化**:NVIDIA可通过与企业直接合作提供特定模型、为数据中心软件提供支持以及提供企业级软件支持等方式实现软件货币化 [88][89][90]
Nvidia CEO Huang says AI has to do '100 times more' computation now than when ChatGPT was released
CNBC· 2025-02-27 09:32
文章核心观点 英伟达CEO黄仁勋表示下一代AI因新推理方法需比旧模型多100倍计算量 公司财报超分析师预期 但股价受中国AI实验室DeepSeek影响下跌后未恢复 黄仁勋反驳相关担忧 [1][2][3] 下一代AI计算需求 - 下一代AI因新推理方法需比旧模型多100倍计算量 [1] 公司财报情况 - 英伟达财报全面超分析师预期 营收同比增长78%至393.3亿美元 [2] - 数据中心营收飙升93%至356亿美元 占总营收超90% [2] 公司股价表现 - 公司股价在1月27日下跌17%后仍未恢复 此次下跌是因中国AI实验室DeepSeek引发的担忧 [3] 对相关担忧的回应 - 黄仁勋反驳相关担忧 称DeepSeek推广的推理模型将需要更多芯片 [3] - 黄仁勋称赞DeepSeek开源了世界级推理模型 [4] 涉及推理模型举例 - 涉及推理过程的模型包括DeepSeek的R1、OpenAI的GPT - 4和xAI的Grok 3 [2]