Workflow
Token经济学
icon
搜索文档
投资人准备用Token打款了
投资界· 2026-03-20 16:30
文章核心观点 - AI应用进入执行时代,Token(代币)作为AI模型运行和交互的计费单位,已成为AI时代的新型核心成本与“货币”,其消耗直接关系到企业的运营成本与商业模式 [2][7] - 高昂且持续增长的Token成本正成为AI创业公司的主要财务负担,甚至可能拖垮公司,迫使投资者和创业者重新审视商业模式与成本效率 [4][5][6] - 行业巨头正将Token内部化、基础设施化,例如为员工设置Token预算,这预示着Token可能成为未来企业运营和人才薪酬的一部分 [8][9] - 主要云服务与模型提供商近期集体宣布上调Token及相关算力服务价格,加剧了AI应用公司的成本压力,行业可能进入“Token消耗战”阶段 [10] - 在AI时代,企业的核心竞争力从单纯的技术拥抱,转向如何高效利用Token创造不可替代的价值,人类的判断力与商业直觉变得更为关键 [11][12] Token成为核心成本与“货币” - Token是AI从对话走向执行时代的“劳力”燃料,AI的每一次逻辑运转、代码输出都按Token计价 [2][4] - 英伟达创始人黄仁勋提出“算力等同于收入”,因为算力生成Token,而Token驱动收入增长,将Token比作AI时代的货币 [8] - 真格基金发起Token Grant,为每个入选AI项目提供5万元Token费用,反映了Token已成为AI创业的“弹药” [2] - 风险投资领域开始讨论是否可以用Token进行部分投资打款,凸显其作为新型支付媒介的潜力 [2] AI创业公司面临严峻的Token成本压力 - 创业者反映存在Token狂烧但产品未上线的现象,研发过程中频繁调试API和参数导致成本失控 [4] - 投资人Chamath Palihapitiya指出,其软件初创公司自2025年11月以来成本增长三倍多,主因之一是AI编程工具Cursor消耗大量Token,按趋势年化AI成本将达1000万美元 [4] - 北京一人公司创业者表示,Token支出占其公司成本的70%,迭代一次产品可能需要1000-1500美元的Token [5] - AI玩具公司案例显示,一个售价600元的玩具每日消耗约200万Token,即使按“200万Token仅5元”的低价计算,长期成本与收益平衡仍是挑战 [6] - 对于智能架构在云端的公司,产品智能程度越高,Token消耗越多,陷入线性成本竞争困境 [6] 巨头推动Token基础设施化与薪酬化 - 阿里巴巴内部计划向员工提供Token额度,鼓励使用先进AI工具,并成立Alibaba Token Hub事业群,旨在建立Token的创造、输送与应用调度中心 [8] - 黄仁勋提出,未来英伟达每位工程师除基础年薪外,还将获得约相当于年薪一半金额的Token预算,以实现10倍的效率提升 [9] - 这些举措表明,Token正从外部采购成本,演变为企业内部的基础设施和潜在薪酬组成部分 [8][9] 云服务与模型提供商掀起Token涨价潮 - 2026年3月中下旬,多家中国云服务与AI模型公司宣布涨价,主要原因是全球AI需求爆发、供应链成本上涨及Token调用量暴涨 [10] - 阿里云、百度智能云自2026年4月18日起对部分产品涨价,百度AI算力相关产品上调约5%-30% [10] - 智谱AI于3月16日上调其GLM-5-Turbo模型的API价格20% [10] - 腾讯云自2026年3月13日起调整混元系列模型Tencent HY2.0 Instruct的计费,输入和输出价格每千Tokens涨幅均超过400% [10] 新时代下的商业模式与核心竞争力 - AI Agent的普及颠覆了传统软件边际成本递减的规律,每次用户交互都消耗Token产生成本,这使得采用传统订阅制时,最活跃的用户可能成为成本最高的用户 [7] - 在Token经济学中,最终胜出的不是最能烧钱的公司,而是能将每一元Token转化为不可替代价值的公司 [11] - 尽管AI提供强大算力,但用商业直觉抓住关键决策瞬间并承担风险,仍是人类的专属特权,判断力成为AI时代最重要的技能 [12]
解析AI云IAAS涨价投资机遇
2026-03-20 10:27
纪要涉及的行业或公司 * **行业**:AI云基础设施即服务(AI Cloud IaaS)、人工智能数据中心(AIDC)、算力租赁、内容分发网络(CDN)、液冷技术、AI计算与网络(包括芯片、服务器、交换机、光模块、电源、光纤光缆)[1][2][9] * **公司**: * **科技巨头**:英伟达、阿里巴巴、腾讯、字节跳动、百度、智谱[1][2][3][4] * **AIDC与算力租赁**:光环新网、润泽科技、奥飞数据、数据港、优刻得[8][9] * **液冷技术**:英维克、申菱环境、高澜股份[9] * **AIDC供电**:中恒电气、科泰电源[9] * **CDN**:网宿科技[9] * **AI芯片**:寒武纪、海光信息[9] * **服务器**:浪潮信息、中科曙光[9] * **交换机**:盛科通信、锐捷网络、中兴通讯、紫光股份[9][10] * **光模块**:中际旭创、新易盛、天孚通信、华工科技[9][10] * **服务器电源**:欧陆通[9][10] * **光纤光缆**:长飞光纤、亨通光电、中天科技[9][10] 核心观点和论据 * **AI云IaaS进入涨价周期**:近期腾讯云、智谱、阿里云、百度云等厂商接连宣布涨价,核心驱动因素是Tokens使用量的暴涨,AIGC需求在2025年底出现显著拐点以及“小龙虾”等应用的出现进一步确认了算力需求爆发,预计后续涨价态势将持续[1][2] * **“Token经济学”成为产业核心**:英伟达在GTC大会上提出“Token算力工厂”概念,将Token定义为新的大宗商品,认为未来数据中心的核心竞争力是每瓦性能,算力即营收[1][3] 阿里巴巴成立ATH事业部整合AI资源,CEO吴永明指出Token将成为人类与数字世界交互的主要载体[4] 这些动向表明AI产业商业模式进入以Token为核心的变现周期,驱动投资形成“为产出更多Token投入算力 -> Token营收支撑算力投入”的良性循环[3][4] * **巨头战略转向,加大AI投资**:腾讯最新财报显示其云业务收入加速增长并已实现规模化盈利,公司计划减少股票回购以将资金用于人工智能领域投资,显示出对AI发展潜力的坚定信心和加大投入的决心[1][4] * **Token增长直接利好AI云IaaS核心板块**:Token的生成与应用等同于对AI芯片的需求,进而传导至AIDC和算力租赁,逻辑链条为:Tokens -> 国产算力 -> 算力租赁 -> AIDC[5][6] 高质量Tokens的产出离不开强大的AI云IaaS支撑,其轮番涨价为AIDC、算力租赁等细分板块打开了价格上行空间[6] * **AIDC与算力租赁市场供需极度失衡**:自2025年底以来国内AIDC需求呈爆炸式增长,阿里、腾讯、字节等巨头因能耗管控严格,正在激烈争抢AIDC资源[7] 算力租赁市场同样火爆,例如H100及5,090服务器需求旺盛,过去一个月价格翻倍,部分企业2026年的B卡订单预计可能增长6倍[1][7] 市场正由买方市场向卖方市场转变[7] * **AIDC估值模型重塑**:市场存在一种说法,即1GW的AIDC资源约对应500亿市值,该模型基于1GW资源约需200亿投资,可产生约35亿EBITDA,给予20倍估值后得到700亿EV,扣除投资后为500亿市值[9] 目前AIDC价格处于底部,若未来形成普遍涨价趋势,1GW资源对应的市值弹性将更大[9] * **液冷技术渗透率将达100%**:英伟达GTC大会确认了后续芯片将100%采用液冷,且LPO也需要液冷,需求旺盛[9] * **CDN及光纤光缆已开启涨价**:随着AI应用发展和边缘计算的崛起,对CDN的拉动作用显现,网宿科技等已宣布涨价[9] 光纤光缆作为网络核心资源,近期也持续涨价[9][10] * **2026年超级节点将带动网络基础设施全面升级**:2026年超级节点是重要技术方向,将带动服务器、液冷、交换机、光模块和服务器电源的全面升级[1][9] 其他重要内容 * **市场存在预期差**:部分观点担忧国内AI应用(如OpenCL)可能只是一时热潮,但即便没有特定爆款应用,以“豆包”为例的AI产品渗透率已显著提升,持续拉动算力需求[7] 光环新网存在较大预期差,市场可能低估了其作为字节跳动AIDC核心供应商和Tokens工厂的地位[9] * **光环新网的核心优势**:公司规划储备1GW资源,均位于“东数西算”核心节点,且其子公司光环云是火山引擎的核心Tokens合作伙伴[9] * **AI应用渗透率提升持续拉动需求**:即便没有特定爆款应用,以“豆包”为例的AI产品渗透率已显著提升,持续拉动算力需求[7]
黄仁勋宣布“推理拐点”已至,你还在死磕 Prompt 吗?
混沌学园· 2026-03-19 20:54
文章核心观点 - AI已越过“推理拐点”,自主智能体时代全面到来,数据中心将转变为生产智能的“AI工厂” [1] - 行业正按“Token经济学”重塑商业规则,将长逻辑推理和Multi-Agent作为新基建 [1] - 当前许多职场人和管理者陷入“技能焦虑”,但稀缺的是跨越技术周期、洞悉智能涌现底层逻辑的“大模型思维” [3] 对AI时代企业数据价值的颠覆性认知 - 企业历史数据中99%都是垃圾,因其是旧有低效流程中产生的日志,无法用于训练新时代的AI系统 [6][7] - 基于旧规则囤积的数据非但不是资产,反而会成为固化思维的“反向润滑油” [7] - 企业需要重新定义有价值的数据,并思考如何构建真正的“智能资产” [7] 对大模型技术路径的批判与展望 - “无限上下文”是一个陷阱,因为大模型的注意力总和是常量“1”,上下文越长,关键信息的注意力会被摊薄 [9][10] - 当前热门的Prompt工程和上下文工程只影响表层“语言”,并非终局 [10] - 未来的竞争核心是改变模型底层“脑神经”的后训练,将是一场“权重战争” [10] - 企业需要提高数据的“信噪比”,并思考如何参与“权重战争” [11] AI时代商业范式的根本性转变 - 工业时代追求确定性的SOP(标准作业程序)已死,用控制程序的确定性思维管理大模型会导致组织“免疫排异” [13][14][15] - 智能时代的赢家必须是“概率管理大师”,企业需按“生物体”而非“机械体”管理 [16] - CEO的角色需从“建筑师”转变为“园丁”,只提供土壤、养料和方向,让组织自主生长 [16] - 未来的“生物态企业”需要打破僵化SOP,用概率论重构业务 [4][20] 大模型认知重塑课程的核心亮点 - 揭秘底层逻辑:解析大模型黑盒,提出知识即“有损压缩” [4][20] - 颠覆技术认知:指出“幻觉”并非Bug,而是智能涌现的特征 [4][20] - 转化商业价值:通过拆解SFT(监督微调)与RL(强化学习),帮助企业沉淀智能资产 [4][20] - 重构业务流程:抛弃僵化SOP,用概率论重构业务 [4][20] - 升级组织形态:从建筑师到园丁,打造生物态组织 [21]
“龙虾”会吞噬SaaS公司吗
经济观察报· 2026-03-18 22:23
文章核心观点 - 以OpenClaw为代表的AI智能体正在引发SaaS(软件即服务)商业模式的范式危机,但企业服务的核心价值并未消失,而是从“提供工具”向“提供结果”或“交付业务价值”转变,行业参与者需要向“AI原生服务逻辑”转型 [2][5][7] 英伟达的新叙事与行业冲击 - 英伟达CEO黄仁勋在GTC 2026上推广名为OpenClaw(“龙虾”)的开源AI智能体,宣称“每一个公司都需要有一个OpenClaw”,这引发了关于“SaaS终结”的广泛焦虑 [2] - 该叙事描绘了未来企业可能不再需要订阅大量功能细分的SaaS账号,AI智能体可通过自然语言指令横跨多个系统自动完成工作,这直接冲击了以Salesforce为代表的、按人头收费的SaaS商业模式根基 [2] - 这一趋势极大地利好英伟达等基础设施提供商,因为智能体的运行基于“Token经济学”,其自主思考与执行将消耗天文数字般的Token,从而创造对算力的无底洞式需求 [3][4] SaaS商业模式的价值解构与转型方向 - SaaS公司必须变革商业模式,但企业服务解决“效率与信任”问题的本质价值不会消失 [5] - 服务模式正从“提供工具”(流程标准化)转向“提供结果”(能力封装),专业公司仍需在高质量数据源、合规审计、稳定业务逻辑等领域建立核心优势 [5] - 转型的终极方向是成为AI智能体公司,企业采购的将不再是软件,而是能直接交付业务价值的“硅基劳动力” [5] - 具体商业模式需从“软件订阅制”转向“成果付费制”或“Token分成制”,例如财税SaaS公司未来可能提供能直接交付完美审计结果的AI智能体 [6] 技术变革下的组织与需求新形态 - AI智能体将催生新的组织形态,如OPC(一人公司),个人与一群智能体协同即可实现业务全链路闭环 [5] - 未来的SaaS应是为OPC等新组织模式设计的“数字员工管理系统”,而非为传统科层制组织设计 [5] - 智能体打破软件功能边界后,将释放大量过去未被满足的长尾需求 [6] 历史视角与未来展望 - 技术浪潮(如浏览器、移动互联网)的历史表明,新技术并非简单替代旧事物,而是对价值链条进行重新切分 [6] - OpenClaw等AI智能体在“吞噬”旧软件架构的同时,也在为新的商业生态“施肥” [7] - 行业参与者的关键不是守护旧代码,而是在AI智能体横行的新生态中,定义属于自己的“AI原生服务逻辑” [7]
英伟达塑造“Token经济学”
21世纪经济报道· 2026-03-18 07:10
Vera Rubin平台与芯片发布 - 公司宣布Vera Rubin平台开启Agentic AI新时代,旨在构建全球最大的AI工厂,该平台包含七款已全面投入生产的新芯片[1][14] - 七款芯片包括:NVIDIA Vera CPU(服务器CPU)、NVIDIA Rubin GPU、NVIDIA NVLink 6(第六代交换机芯片)、NVIDIA ConnectX-9 SuperNIC(超级网卡)、NVIDIA BlueField-4 DPU(存储芯片)、NVIDIA Spectrum-6(支持CPO技术的以太网交换机芯片)以及新集成的NVIDIA Groq 3 LPU[1][15] - 这些芯片能够组成五种机架在数据中心运行,标志着公司从单一芯片竞争进入全方位的系统级竞赛阶段[1][16] 技术规格与性能突破 - Rubin架构计划于2026年下半年量产,采用台积电3nm工艺,Vera CPU(88核自研架构)与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成[4][18] - 采用“去PCIe化”紧耦合设计,单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,规模化推理能效较Blackwell提升5倍[4][18] - 平台为Agentic AI与长上下文推理设计,引入Transformer Engine 3.0等技术,使AI能处理数万个Token的上下文,单机柜NVL72内部互联总带宽达260 TB/s[5][19] - Vera CPU机架集成256个Vera CPU,基于MGX液冷基础设施,其效率是传统CPU的两倍,速度提升50%[5][19] 市场预测与客户进展 - 公司CEO预测,Blackwell与Rubin的AI芯片到2027年底的收入将达到1万亿美元,较去年10月的5000亿美元预测翻倍[2][15] - 已确认合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure、CoreWeave、Lambda、Nebius和Nscale,芯片已全面投产并将于今年下半年供货[6][20] Groq LPU与混合算力战略 - 公司通过200亿美元战略授权并集成Groq LPU架构,新推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s扩展带宽[6][21] - LPU采用确定性流水线架构,消除计算抖动,专为Agentic AI与实时交互设计,能保证毫秒级任务的执行时间恒定,将复杂Agent链条的思考时间从数分钟缩短至数秒[9][22] - 公司构建混合算力帝国:GPU负责万亿参数模型训练与长文本预处理,LPU阵列以10倍于对手的能效比统治实时推理市场,实现训练与推理分离[10][23] 软件、模型与生态系统建设 - 面向OpenClaw社区推出NemoClaw软件栈,提供基础软件能力,支持通过一条命令安装Nemotron模型和OpenShell运行时环境,为AI代理增加安全与隐私控制[11][23] - NemoClaw支持本地与云端模型混合调用,可运行于GeForce RTX设备、RTX PRO工作站及DGX系统,为全天候AI代理提供算力[12][24] - 宣布成立Nemotron联盟,联合全球AI实验室推进开放前沿模型发展,并扩展Nemotron 3系列多模态模型,包括Ultra、Omni和VoiceChat等版本[12][24] - 发布应用于物理世界的新模型,包括面向类人机器人的Isaac GR00T N1.7模型、面向自动驾驶的Alpamayo 1.5模型,以及即将推出的统一世界基础模型Cosmos 3[13][25] 行业趋势与战略定位 - 公司CEO强调“Token”是AI时代的新货币,AI工厂是生成Token的基础设施,公司通过Vera Rubin DSX AI Factory参考设计和Omniverse数字孪生蓝图提供构建最高生产力AI工厂的基础[6][20] - 行业趋势显示,巨头正通过聚集能力、补齐短板、延伸上下游来构建强大壁垒,单一比拼芯片性能的阶段已过去,系统级竞赛正在上演[2][16]
黄仁勋塑造“Token经济学” 英伟达拥抱智能体时代
21世纪经济报道· 2026-03-18 06:29
英伟达GTC大会核心发布 - 公司宣布其最新芯片架构Vera Rubin平台已全面投入生产,该平台包含七款新芯片和五种机架,旨在开启Agentic AI新时代并构建全球最大的AI工厂 [1] - 公司创始人预测,基于Blackwell与Rubin架构的AI芯片,到2027年底的收入将达到1万亿美元,较去年10月的5000亿美元预测翻倍 [2] - 发布会标志着行业竞争从单一芯片性能比拼进入全方位的系统级竞赛阶段 [2] Vera Rubin平台技术革新 - Rubin架构计划于2026年下半年量产,采用台积电3nm工艺,其Vera CPU与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现同封装集成,是“去PCIe化”的紧耦合设计 [2] - 单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,规模化推理能效较Blackwell提升5倍 [3] - 平台引入Transformer Engine 3.0与Inference Context Memory存储平台,并配备支持硅光子技术的Spectrum-X网络,单机柜NVL72内部互联总带宽达260 TB/s [3] 新芯片产品组合 - 七款新芯片包括:NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6、NVIDIA ConnectX-9 SuperNIC、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-6以及新集成的NVIDIA Groq 3 LPU [1] - Vera CPU机架集成256个Vera CPU,其效率是传统CPU的两倍,速度提升50% [4] - 与公司合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta、Oracle Cloud Infrastructure等,该产品已全面投产并将于今年下半年供货 [4] Groq LPU推理芯片战略 - 公司通过200亿美元战略授权并深度集成Groq LPU架构,新推出的Groq 3 LPX机架包含256个LPU处理器,具有128GB片上SRAM和640 TB/s扩展带宽 [5] - LPU采用确定性流水线架构,旨在实现极低延迟和确定性算力,专为实时交互场景设计,如自动驾驶和高频交易 [6] - LPU与GPU通过NVFusion技术协同,构建混合算力帝国:GPU负责训练,LPU负责高效实时推理,能效比号称可达对手的10倍 [7] AI代理与软件生态进展 - 公司推出面向OpenClaw社区的NemoClaw软件栈,提供基础软件能力,支持通过一条命令安装模型和OpenShell运行时环境,并增强安全与隐私控制 [8] - NemoClaw支持本地模型与云端模型的混合调用,可运行在多种计算平台上,为全天候运行的AI代理提供算力 [9][10] - 公司宣布成立Nemotron联盟,联合全球AI实验室共同推进开放前沿模型发展,并扩展了Nemotron 3系列多模态模型 [10] 物理智能与行业应用扩展 - 公司发布用于机器人和自动驾驶的新模型,包括面向类人机器人的NVIDIA Isaac GR00T N1.7模型和面向自动驾驶的NVIDIA Alpamayo 1.5模型 [11] - 即将推出的NVIDIA Cosmos 3被称为首个统一“世界生成、物理推理和行动仿真”的世界基础模型 [11] - 公司正搭建一个覆盖数字世界与物理世界的AI技术体系,推动人工智能在机器人、自动驾驶等领域的创新与落地 [11]
黄仁勋的Token经济学
经济观察报· 2026-03-17 22:23
文章核心观点 - 英伟达CEO黄仁勋在GTC大会的演讲核心并非仅是提出万亿美元的AI基础设施需求预期,而是阐述了一套新的商业逻辑:数据中心正从训练模型的场所转变为生产Token的工厂,这背后是AI推理需求爆发、Token分层定价以及硬件架构革新共同驱动的商业模式变革 [1][4] GTC大会与市场反应 - 2025年3月16日至19日,英伟达在美国圣何塞举行GTC大会,黄仁勋发表超过两小时主题演讲 [2] - 黄仁勋预测,到2027年全球AI基础设施相关需求将达到1万亿美元,并认为实际需求可能更高,产品将供不应求 [2] - 此预测发布后,英伟达美股股价瞬时跳涨超过4% [2] - 然而A股算力产业链股票在次日开盘后集体下跌,天孚通信收盘跌幅超10%,长光华芯收盘跌幅达9.72%,多数龙头股回吐了近5日涨幅 [2] - 市场落差源于时间尺度差异,黄仁勋讲的是未来需求,且下一代Feynman芯片架构要到2028年才上市,同时A股电子板块当时平均市盈率约82倍,市场存在估值担忧 [3] Token工厂:新的商业逻辑 - Token是大语言模型处理信息的基本单位,一个汉字大约对应一到两个Token [6] - AI消耗Token的量级自2022年底ChatGPT上线后经历了数次跳跃:ChatGPT使AI学会生成内容;o1模型使AI学会推理和反思;Claude Code使AI能执行复杂任务,单任务消耗Token量比简单对话多出好几个数量级 [7] - AI工作分为训练和推理两个阶段,过去全球购买GPU主要用于训练,现在重心已向推理转移 [8] - 推理服务商的业务规模过去一年增长了100倍,国内推理服务器在出货金额上占比已接近60% [8] - Token尚未形成统一市场定价体系,黄仁勋提出了未来可能出现的五档分层定价:免费层、中等层(每百万Token约3美元)、高级层(每百万Token约6美元)、高速层(每百万Token约45美元)、顶级层(每百万Token约150美元) [9] - Token价格取决于模型大小、上下文长度和响应速度,顶级层定价对应的是AI能处理此前无法完成的任务,例如一次性读完一整份合同或整个代码库 [9] 数据中心经济模型的变革 - 数据中心受电力限制,在固定功率下,单位电力产出Token最多的运营者生产成本最低 [11] - 黄仁勋展示了一组数据:同一个1吉瓦(GW)的数据中心,使用当前Blackwell架构年营收约300亿美元,换用新一代Vera Rubin架构约1500亿美元,再加上Groq LPU推理加速器后可达约3000亿美元,同一数据中心换设备后营收可相差10倍 [11] - 英伟达2026财年全年营收2159亿美元,其中数据中心业务贡献1937亿美元 [12] - 万亿美元需求预期的逻辑在于:客户现有数据中心未被充分利用,换上新一代设备后,在同等电力条件下可通过生产更多、更贵的Token使收入翻数倍 [12] - 未来企业CEO将密切关注其“Token工厂”的效能,因为这直接关系到收入 [13] - 随着工程师日常广泛使用AI工具,企业为员工使用AI的开销将大到需要单独列预算,黄仁勋预测未来每位工程师入职时获得的年度Token预算金额大约相当于其基础薪资的一半 [13][14][15] 硬件架构:Vera Rubin平台与Groq LPU - GTC大会上正式发布了Vera Rubin平台,这是一个完整的系统而非单一芯片,采用百分之百液冷设计,安装时间从两天压缩到两小时 [17] - Vera Rubin核心机架NVL72集成72颗Rubin GPU和36颗Vera CPU,通过NVLink 6相连,与上一代Blackwell相比,每瓦推理吞吐量最高提升10倍,单Token成本降至十分之一 [17] - 同时发布了全新88核Vera CPU,为AI智能体场景优化,微软CEO确认首批Vera Rubin机架已在Azure上运行 [18] - Vera Rubin在处理高并发Token生成(如每秒超过400个Token)时存在带宽短板,此缺口由Groq公司的LPU技术补足 [19] - Groq LPU与GPU是两种不同的芯片:GPU内存大(如Rubin GPU有288GB)、算力强,适合复杂计算;LPU内存小(仅500MB)但读写速度极快,在生成Token的速度和延迟上远优于GPU [19] - 英伟达通过Dynamo推理调度软件实现“解耦推理”:将需要大量算力和内存的上下文理解交给Vera Rubin处理,将对延迟敏感的Token生成交给Groq LPU,两者通过以太网协同工作,延迟减少约一半 [19] - 这套组合在高速层(45美元/百万Token)和顶级层(150美元/百万Token)实现了相比上一代35倍的性能提升 [20] - 从更长维度看,同一个1GW数据中心,Token生成速率可在两年内从每秒2200万提升到7亿 [20] - 黄仁勋建议客户:若以高吞吐批量推理为主,可完全使用Vera Rubin;若有大量编程、实时交互需求,可将25%的数据中心算力配置Groq LPU [20] - Groq 3 LPU由三星代工,已在量产,预计2025年第三季度出货 [21] 软件生态与未来路线 - 软件方面,英伟达发布了企业级智能体平台NemoClaw,为近期火爆的开源项目OpenClaw增加企业安全层 [21] - OpenClaw在几周内成为GitHub上增长最快的开源项目,黄仁勋将其地位抬升至与Linux同级,称其为智能体计算机的操作系统 [21] - Adobe、Salesforce、SAP等17家企业软件公司已宣布采用英伟达的Agent Toolkit [21] - 路线图方面,英伟达预告了2028年上市的下一代Feynman架构,首次同时支持铜缆和CPO(共封装光学)两种互连方式 [21] - 2025年是CUDA诞生20周年,英伟达目前60%的业务来自全球前五大云服务商,另外40%分布在主权AI、企业、工业、机器人等领域 [21] 其他领域合作 - GTC大会上,英伟达宣布了与Uber、比亚迪、吉利、现代、日产、五十铃在自动驾驶领域的合作 [22] - 受此消息推动,港股汽车板块在3月17日集体走强,吉利汽车盘中一度涨超5%,最终收涨4.55% [22]
英伟达 FY26Q4 业绩点评:指引超预期,Token 经济学的最佳增长引擎
国泰海通证券· 2026-02-27 18:30
报告投资评级 - 投资评级为“增持” [7] - 当前股价为184.89美元 [7] - 基于FY2027年30倍PE,目标价为275美元 [8][11] 报告核心观点 - 英伟达FY26Q4业绩及未来指引超预期,长期收入预期上调,毛利率维持坚挺 [3][8] - AI Agent应用拐点已至,未来AI世界的运转极度依赖Token生成能力 [3][8] - 英伟达凭借其Blackwell和下一代Rubin架构,实现了最优的每Token成本和最快的迭代速度,有望成为“Token经济学”下的最佳增长引擎,持续领跑AI基础设施 [3][8][11] 财务表现与预测总结 - **历史业绩**:FY26营收为2159.38亿美元,同比增长65.5%;Non-GAAP净利润为1169.96亿美元,同比增长57.5% [5] - **未来预测**:大幅上调FY2027E-FY2029E营收预测至3800.98亿、5238.47亿、6374.18亿美元(前值FY2027E-FY2028E为3065亿、3830亿美元);对应Non-GAAP净利润预测分别为2235.90亿、3063.80亿、3710.27亿美元(前值FY2027E-FY2028E为1752亿、2192亿美元) [8][11] - **盈利能力**:预计未来毛利率将维持在72.4%至74.3%的较高水平 [5] - **季度表现**:FY26Q4营收达681亿美元,同比增长73%;其中数据中心业务收入623亿美元,同比增长75%,网络收入同比暴涨263% [8] 业务与增长驱动总结 - **数据中心业务强劲**:下游客户多元化,来自CSP(云服务提供商)的收入占比略超50%,AI模型商、企业用户、主权国家等其他客户也在快速增长 [8] - **技术架构领先**:Blackwell架构(GB300 NVL72)相比前代Hopper,每兆瓦吞吐量提升50倍,百万tokens成本降至1/35;预计下一代Rubin平台每兆瓦吞吐量将再提升10倍 [8] - **需求能见度高**:公司上调了此前Blackwell和Rubin合计5000亿美元的收入指引,并表示供应将满足至2027年的需求;首批Rubin样品已交付,计划在2026年下半年量产出货 [8] - **Token经济学优势**:在AI从训练转向推理和Agent应用的时代,Token生成能力直接转化为收入,英伟达提供了最低的每token成本,运行在其设备上的数据中心能产生最高收入 [8] 估值总结 - **估值方法**:采用市盈率估值法,参考可比公司FY2026平均PE 40.8倍 [13] - **估值倍数**:给予英伟达FY2027年30倍PE,估值较行业平均有所折价,因部分可比公司盈利水平较低导致PE畸高 [11] - **目标价推导**:基于FY2027年Non-GAAP EPS预测9.2美元及30倍PE,得出目标价275美元 [8][11]
英伟达(NVDA):FY26Q4 业绩点评:指引超预期,Token经济学的最佳增长引擎
国泰海通证券· 2026-02-27 16:17
报告投资评级 - 投资评级为“增持” [7] - 基于FY2027年30倍市盈率给予目标价275美元,当前股价为184.89美元 [7][11] 报告核心观点 - 英伟达是“Token经济学的最佳增长引擎”,凭借最低的每Token成本和最快的架构迭代速度,将持续领跑AI基础设施 [1][3][8] - Agent应用拐点已至,AI世界的商业价值将极度依赖Token生成能力,而英伟达的设备能提供最优的Token成本,使运行其设备的数据中心产生最高收入 [3][8] - 公司上调了长期收入指引,并确认供应能满足至2027年的需求,显示出强大的增长能见度和执行能力 [8] 财务表现与预测总结 - **历史业绩**:FY26Q4营收同比增长73%至681亿美元,其中数据中心业务收入623亿美元,同比增长75% [8]。FY2026全年营收达2159.38亿美元,同比增长65.5%,Non-GAAP净利润为1169.96亿美元,同比增长57.5% [5] - **未来预测**:报告大幅上调未来营收与利润预测。FY2027E至FY2029E营收预测分别为3800.98亿美元、5238.47亿美元、6374.18亿美元,对应同比增长76.0%、37.8%、21.7% [5][11]。同期Non-GAAP净利润预测分别为2235.90亿美元、3063.80亿美元、3710.27亿美元 [5][11] - **盈利能力**:毛利率维持坚挺,FY26Q4 Non-GAAP毛利率达75.2%,并指引FY27Q1约为75%(±50个基点) [8]。长期预测毛利率保持在72.4%至74.3%之间 [5] 业务与增长动力分析 - **数据中心业务强劲**:FY26Q4数据中心计算和网络收入同比分别增长58%和263% [8]。网络收入爆发主要得益于面向GB200与GB300系统的NVLink推出及以太网与InfiniBand平台增长 [8] - **客户结构多元化**:下游客户中,来自云服务提供商(CSP)的收入占比略超50%,其他客户(包括AI模型商、企业级用户、超级计算机构、主权国家)也在快速增长 [8] - **技术领先与成本优势**:相比前代Hopper架构,Blackwell架构(GB300 NVL72)的每兆瓦吞吐量提升50倍,百万tokens成本降低至35分之一 [8]。预计下一代Rubin平台的每兆瓦吞吐量将再提升10倍 [8] - **产品迭代与交付**:公司已向客户交付首批Rubin样品,并计划在2026年下半年开始量产出货 [8]。6年前的旧卡H系列目前满载且租赁价格上涨,印证了其产品交付的每瓦性能实现大幅超越摩尔定律的代际提升 [8] 估值分析 - 报告参考可比公司FY2026平均市盈率40.8倍,给予英伟达FY2027年30倍市盈率(对应自然年CY2026) [11][13] - 基于此估值和FY2027E Non-GAAP每股收益9.2美元的预测,得出目标价275美元 [5][11] - 报告预测英伟达FY2027E和FY2028E的市盈率将分别降至24.1倍和18.4倍 [13]
暴降 90%!英伟达 Blackwell 压缩 AI 推理成本至1/10
是说芯语· 2026-02-15 09:30
Blackwell架构在AI推理领域的里程碑进展 - 英伟达宣布其Blackwell架构在AI推理的"token经济学"方面取得里程碑式进展 通过推行"极致软硬件协同设计"策略 优化硬件处理复杂AI推理负载的效率 解决了模型参数膨胀带来的算力成本激增问题 [1] - 数据显示 相比上一代Hopper架构 Blackwell平台将单位Token生成成本降低至十分之一 [1] Blackwell架构的技术核心与设计优势 - Blackwell的高效能核心在于其旗舰级系统GB200 NVL72 该系统采用72个芯片互联的配置 并配备了高达30TB的高速共享内存 [6][7] - 该设计完美契合了当前主流的"混合专家"架构需求 能够将Token批次高效地拆分并分散到各个GPU上并行处理 [6][7] Blackwell平台的行业应用与成本效益 - 包括Baseten DeepInfra Fireworks AI及Together AI在内的多家推理服务提供商已开始利用Blackwell平台托管开源模型 [3] - 通过结合开源前沿智能模型 Blackwell的硬件优势以及各厂商自研的优化推理栈 这些企业成功实现了跨行业的成本缩减 [3] - 专注于多智能体工作流的Sentient Labs反馈 其成本效率相比Hopper时代提升了25%至50% [3] - 游戏领域的Latitude等公司也借此实现了更低的延迟和更可靠的响应 [3]