Workflow
算力成本
icon
搜索文档
当“智能体时代”来临:传统企业的转型、软件企业的末日与华尔街的“低估”
硬AI· 2026-04-09 16:25
文章核心观点 - 企业软件的核心用户正从人类转向AI智能体,软件逻辑需从“人类使用工具”重构为“智能体调用系统”,这将对SaaS商业模式、API计费及企业算力成本带来指数级颠覆 [2][3][5] - 尽管AI在大型企业中的渗透因合规与预算僵化而可能慢于预期,但其最终市场规模将远超当前资本市场测算 [2][7] - 华尔街的财务模型存在严重误判,其“固定的收入蛋糕”和线性增长思维低估了AI带来的增量经济机会,差距可能达一个数量级 [9][10][11] AI智能体重塑企业软件逻辑 - 核心假设是智能体数量将比人类多**100倍或1000倍**,因此软件必须为智能体而构建,交互界面从面向人类的UI转向面向AI的API、CLI或“计算机使用” [5][6][16] - 企业软件逻辑正从“人类使用工具”演变为“智能体调用系统” [7] - **2024年将是“计算机使用(Computer Use)之年”**,AI智能体将企业软件当作计算机来使用,能自行决定调用现有API或实时编写代码以完成任务 [18] - 智能体擅长为任务选择正确的后端(基于成本、持久性等实质因素),而非仅仅依赖界面,因此构建更好的系统比优化面向智能体的营销界面更重要 [94][95] 对SaaS商业模式与资本市场的影响 - 市场担忧AI会摧毁传统SaaS模式,但现有财务模型完全算错了账,AI将创造巨大的增量空间,而非零和博弈 [9] - 类比早期PC和云计算时代,市场曾错误地将云计算视为本地服务器预算的转移,未预料到资源平权后计算消耗会增长**一千倍以上**,AI时代将重现此景 [11] - 随着软件代码生成量指数级暴增及移动端全面接入AI,算力消耗将以惊人速度扩张 [11] - 智能体不受人类微交易摩擦成本限制,可能为完成深度研究任务自动支付**3美元**获取数据,催生全新的微支付与API调用变现模式 [12] - 那些能提供高质量API、妥善处理智能体身份和权限的软件公司将获得巨大增量收入,因为智能体处理数据和文件的频率将远超人类 [19] 企业算力成本与财务挑战 - AI时代底层资源变为按量计费的Token(词元),企业软件支出从资本支出/固定运营支出转向弹性消耗 [22] - **工程算力预算将是未来几年最疯狂的话题**,CFO必须给出答案,华尔街也会施压 [22] - 对于上市公司,研发费用通常占收入的**14%到30%**,算力成本若达到工程团队成本的**两倍**或仅增加**3%**,都会直接吞噬每股收益(EPS) [23][116] - 弹性的、难以预测的算力消耗(如允许开发人员并行运行大量可能浪费Token的实验)与传统企业习惯的固定支出模式形成激烈冲突 [24] - 行业正经历从永久授权到订阅,再到使用量计费的转变,且计费粒度将非常细 [111] AI落地的现实阻碍与实施路径 - AI能力的普及所需时间将比硅谷预期的更长,主要阻碍在于大型企业的系统集成与安全边界 [26][27] - 赋予智能体与人类同等的系统访问权限风险被放大了**1000倍**,智能体没有隐私权,企业需对其所有行为承担全部责任,且易受社会工程学攻击导致信息泄露 [28][29][72] - 在建立完善的AI安全标准和全新访问控制层之前,大型企业CIO将保持谨慎,甚至“封锁一切” [30] - 渗透率将呈现分化:无历史包袱的初创公司将快速试错并全盘接入,而拥有庞大系统记录的传统大型企业(如摩根大通)则需要更长的消化周期 [30][82][97] - 从零开始、以第一性原理构建的新型知识服务公司(如营销机构、律所)可能展示颠覆性的AI原生组织形态,但最终仍会面临现实世界的扩张阻力 [101][102] 软件行业竞争与系统演进 - 试图靠“自然语言编写代码”(氛围编程)来取代SAP等蕴含深度领域知识的成熟系统是荒谬的,领域知识仍是核心护城河 [20][86] - 存在两种对立的系统演进观点:一是“层级坍塌论”,即所有现有界面消失,从提示词直接到机器代码;二是层级因组织边界、兼容性需求、安全合规而继续存在并叠加,智能体将适应而非打破它们 [98][99][100] - 长期看,软件栈必须为智能体而构建,业务表现将与智能体能否顺畅获取所需信息高度相关,企业IT基础设施需支撑智能体高效运转 [87] - 智能体可能因软件障碍过多而要求企业更换旧系统(如HR系统),以自动化工作流 [87] - 历史表明,每次技术革命都会催生意想不到的新商业模式,当前对AI经济机会的预估可能差了一个数量级 [103][104]
OpenAI vs Anthropic--“最强AI”的财报究竟如何?
硬AI· 2026-04-07 17:10
核心观点 - AI行业领军公司OpenAI与Anthropic营收高速增长,但天文级的模型训练与推理成本正吞噬其盈利空间,导致巨额亏损,盈利路径漫长[2][3] 财务表现与预测 - **营收高速增长**:OpenAI与Anthropic均预计今年营收将实现翻倍以上增长,主要驱动力是企业客户对AI工具的加速采用[5] - **Anthropic收入狂飙**:Anthropic最新年化收入已突破300亿美元,较2025年底的90亿美元大幅跃升[3][10] - **巨额亏损预期**:OpenAI预计到2028年,当年亏损将高达850亿美元,有望刷新史上最大亏损纪录[2][3] - **盈亏平衡点遥远**:OpenAI预计要到2030年才有望实现整体盈亏平衡,Anthropic则预计能更早达到这一里程碑[2][5] - **利润披露口径**:两家公司采用双口径利润披露,若剔除“研究用算力”支出,OpenAI今年有望实现小幅税前经营利润,Anthropic在最乐观情景下亦然;但纳入训练成本后均深陷亏损[5] 成本结构与压力 - **算力支出惊人**:训练AI模型的算力成本是核心财务压力,OpenAI预计2028年用于AI研究的算力支出将高达1210亿美元[2][7] - **成本增长逻辑**:每一代模型智能水平提升所需的算力投入都远超上一代,且模型迭代发布频率前所未有[7] - **推理成本负担重**:处理用户查询的推理成本目前占两家公司营收的比例均超过50%,尽管该比例预计将随技术效率提升而下降[7] - **免费用户成本**:ChatGPT的付费用户仅占极小比例,意味着大量推理成本无法通过营收覆盖[7] 业务运营与客户 - **营收构成差异**:OpenAI的营收来源涵盖消费者订阅、企业服务及新产品(含硬件);Anthropic则几乎全部依赖企业客户,并将通过云合作伙伴实现的销售计入营收[5] - **企业客户基础**:Anthropic平台上每年支出超过100万美元的企业客户已超过1000家,该数字自今年2月以来已翻倍[10] 资本运作与战略合作 - **IPO与资金需求**:两家公司正竞相冲刺年内IPO,未来数年均将持续大规模消耗现金,IPO募资被视为维系业务运转的关键资金来源[3][8] - **华尔街规则调整**:为配合可能创纪录的IPO融资需求,银行家正游说指数提供商放宽纳入标准,纳斯达克已宣布允许新上市公司更快加入其指数[11] - **Anthropic锁定算力盟友**:Anthropic与Broadcom及谷歌签署重大算力合作协议,从2027年起将获得约3.5吉瓦的算力资源,Broadcom正基于谷歌TPU开发芯片以提供英伟达替代方案,双方已签署延续至2031年的长期供应保障协议[10] - **合作市场反应**:与Broadcom及谷歌的合作消息公布后,Broadcom股价盘后一度上涨3.6%[10] 公司战略导向 - **增长优先于利润**:OpenAI表示公司目前优先考虑增长而非利润,虽然可以削减训练支出,但预期相关投入将带来丰厚回报[11]
一天涌入120亿,开年暴涨40%!AI板块的主动权益基金“赚”翻了?
搜狐财经· 2026-01-14 19:05
德邦稳盈增长基金巨额申购事件 - 德邦稳盈增长灵活配置混合基金于1月12日单日通过蚂蚁渠道的申购金额超过120亿元[1] - 截至2025年9月末,该基金管理规模仅为7.24亿元,百亿级申购将导致其规模急剧膨胀[1] - 基金管理人德邦基金回应称盘中规模数据未披露,准确规模需待日终清算确认[1] - 为应对资金涌入,德邦基金宣布自1月14日起,对该基金A类份额和C类份额分别实施10万元和1万元的申购金额限制[1] AI主题基金强劲的业绩表现 - 资金狂热追逐的背后是2025年AI板块极致的赚钱效应[2] - 德邦稳盈增长基金开年以来净值涨幅已达29.48%[2] - 该基金2025年三季报显示,其前十大重仓股高度集中于AI应用板块[2] - 其他重仓AI应用的基金同样表现强劲:申万菱信乐道三年持有年内净值涨幅接近40%(39.70%),西部利得科技创新混合A(34.91%)、申万菱信数字产业股票型发起式A(32.46%)、永赢信息产业智选混合发起A(35.00%)等多只基金同期涨幅超过30%[2][3] AI主题基金行业规模特征 - 拉长时间看,近一年来在重仓信息技术服务业的主动权益基金中,有11只基金涨幅超过70%[3] - 然而,其中仅诺安稳健回报混合A的合并规模超过10亿元,达到14亿元,多数基金规模仍较小[3] 行业限购措施 - 考虑到短期内规模过快增长可能对投资管理带来挑战,为保护现有持有人利益,多家基金公司开始对旗下绩优AI主题产品采取限购措施[4] - 继德邦基金后,永赢基金于1月13日宣布,旗下永赢信息产业智选基金将单日单个账户申购上限设定为100万元[4] - 博时新策略混合等聚焦信息传输、软件及信息技术服务行业的基金目前也处于限购状态[4] AI板块后续投资展望 - 诺安稳健回报混合A基金经理邓心怡表示,2026年将更关注大模型的迭代方向以及与之匹配的环节,包括提高模型能力、具备数据和生态壁垒、提高模型和应用收入天花板、提升推理效率实现成本可控等[5] - 在模型和应用端,关注具备垂类数据优势(尤其是非公域数据)的环节,跟踪其叠加AI能力之后生产力提升和变现的投资机会[5] - 在算力成本端,关注ASIC芯片、国产化芯片、超节点等技术,随着推理需求结构性提升带来的投资机会[5]
DeepSeek开源Engram,如何做到推理损失仅3%?
钛媒体APP· 2026-01-13 16:44
公司近期技术发布 - 公司于1月13日在GitHub开源名为Engram的模块,并发布与北京大学联合撰写的论文,阐述了一种新的大模型稀疏化方向:条件存储(Conditional Memory)[1] - 这是继1月1日发布关于mHC架构的论文后,公司的又一次重要技术发布,两篇论文均体现了公司通过架构与方法论创新来降低算力成本、追求性价比的核心方向[4] - 公司创始人兼CEO梁文锋在两篇论文中均署名,并列于作者最后[4] Engram技术原理与设计 - Engram是一个可微分、可训练、原生嵌入模型结构的组件,其核心设计是将记忆性负载从主干计算中剥离,通过高速检索模块直接调用稳定且高频出现的知识,以规避低效的反复计算[4] - 该模块首先提供确定性检索:模型基于当前token和前文形成的N-gram,通过哈希映射直接从超大规模的静态嵌入表中取出对应向量,无需复杂神经计算,速度更快、路径稳定[4] - 随后,Engram会通过引入轻量化门控机制,由当前层的隐藏状态来判断检索到的记忆是否适合当前语境,避免生硬注入,从而优化输出表现[6] - 实验表明,该机制在处理时间、专有名词等固定模式时高度活跃,而在自由生成和复杂推理时几乎不介入,这强化了记忆功能的同时,避免了不合时宜的幻觉出现[6] 公司提出的新架构维度 - 公司将大模型能力拆分为三个相互独立又协作的维度:决定逻辑与抽象能力的模型深度、以MoE为代表的计算稀疏性(减少每次激活的计算量)、以及Engram引入的存储稀疏性(条件记忆)[6] - 公司通过U型扩展定律解决了记忆模块可能影响计算与推理性能的平衡问题,在总参数和算力预算固定的情况下,系统调整MoE与Engram的比例,得出将20%至25%的稀疏参数分配给Engram是最优平衡点[6] - 测试数据显示,即便挂载规模高达千亿参数的Engram记忆库,推理吞吐损失也能控制在3%以内[7] 行业竞争与公司未来产品 - 据The Information援引知情人士消息,公司预计将在今年中国春节前后发布最新的V4模型,核心突破在于超长代码提示词的处理与解析能力,以及全流程训练中数据模式的理解力[7] - 新模型不仅推理性能将大幅提升,更擅长处理复杂任务,其编码能力是主打方向,内部初步测试结果据称已超越了Anthropic的最强编程模型Claude[7] - 竞争对手Anthropic为守护编程能力优势和入口通道,近期已陆续切断Claude Code的第三方平台入口,并于1月12日发布主打办公场景Agent落地的产品Cowork,可自动帮助用户完成制作PPT、整理邮件等工作[7] - 市场期待即将到来的公司旗舰新品能再次带来“DeepSeek春节冲击波”[7]
“AI教母”,公布最新世界模型
财联社· 2025-10-17 20:28
世界模型RTFM的技术突破 - 李飞飞团队发布全新世界模型RTFM,能够实时生成交互式三维世界[2] - 模型设计围绕效率、可扩展性和持久性三大原则,仅需单块H100 GPU即可渲染持久一致的3D世界[2] - 实现4K+60FPS交互式视频流,传统架构需每秒生成超过十万个token,相当于一本《弗兰肯斯坦》的文本量,当前算力下经济上不可行[2] AI算力成本与需求趋势 - 降低算力成本成为硬件厂商重要议程,OpenAI与博通战略合作部署10吉瓦AI加速器,形成英伟达、AMD、博通多元算力体系以倒逼成本下降[3] - 尽管模型效率提升,但算力总需求预期未减,存在“杰文斯悖论”,即效率提升反而增加总消耗量,例如DeepSeek R1性能增强但算力需求持续增长[4] - 预计针对更大推理预算的更大型模型将继续改进,未来算力需求增长预期稳固[3] 世界模型的行业进展与意义 - World Labs在9月发布世界生成模型Marble,可通过单张图片或文字生成3D世界,相比前代实现更优几何结构和更多样化风格[4] - 世界模型的意义在于不仅能理解推理文字信息,还能理解推理物理世界的运作规律[4] - 行业公司积极布局,xAI从英伟达挖来专家,Meta、谷歌加注世界模型,国内宇树、智元等机器人厂商也已开源其世界模型[4] 算力基础设施的估值逻辑 - 算力更便宜易得时,开发者会将更复杂模型系统作为新基准,提升参数量、上下文与并行度[5] - 模型架构迭代可能减小单次推理训练算力,但如Genie3等生成视频的世界模型需跨数量级算力提升才能满足[5] - AI算力更高的天花板和更好的竞争格局将支撑其相对4G/5G的更高估值框架和更强Beta[5]
26天倒计时:OpenAI即将关停GPT-4.5Preview API
36氪· 2025-06-18 15:34
公司动态 - OpenAI宣布将于7月14日正式移除GPT-4.5 Preview API [2] - GPT-4.5预览版将继续作为选项提供给个人ChatGPT用户使用 [5] - OpenAI早在4月发布GPT-4.1时就已公布移除计划,GPT-4.5始终是实验性产品 [5] 开发者影响 - 开发者需在27天内从近40个模型中寻找替代品 [3] - 迁移涉及提示词重标定、延迟与费用模型重算及向客户解释语气变化 [8] 商业策略 - GPT-4.5 API定价高昂,输入tokens为75美元/百万,输出tokens为150美元/百万 [6] - OpenAI降低o3 API价格80%,集中资源推广成本可控的主力模型 [8] - 公司战略聚焦规模效应和成本优化,舍弃定位模糊的边缘产品 [8] 财务与估值 - OpenAI在2025年3月完成400亿美元融资,由软银主导,估值达3000亿美元 [11] - 高估值依赖领先模型溢价和渠道议价能力,但模型迭代速度和算力成本构成天花板 [11] 技术背景 - GPT-4.5使命是为未来模型迭代提供创意和写作细微之处的经验 [5] - NVIDIA H100 GPU市价约2.5万美元,满载功耗700W [6] - ChatGPT Plus仍按20美元/月收费,公司需优化算力分配 [6]
对话红帽全球副总裁曹衡康:AI成本下降了 芯片的量一定会起来
每日经济新闻· 2025-06-14 17:02
AI推理技术发展现状 - 行业共识认为算力成本终将降低,但降低路径尚未统一,主要选项包括数据中心、一体机和推理服务器[1] - 红帽全球副总裁曹衡康提出2025年是AI推理元年,标志着AI应用将正式上线运行并为企业创造实际价值[1] - 当前推理技术栈存在两个主流方向,红帽选择vLLM框架作为其技术路线,该框架已成为开源领域事实标准[1] 中国在AI推理领域的参与 - 在vLLM社区中,中国贡献者占比达到35%,显示中国在推理技术领域的活跃参与[1] - 红帽高管认为中国可能成为最先实现企业价值的AI推理市场[1] 技术挑战与解决方案 - 当前面临两大技术难点:如何以最小硬件成本实现高性能推理,以及如何实现分布式推理引擎[1] - 红帽2025年推出推理服务器解决方案,主要优势在于降低企业算力成本[2] - 公司明确战略定位为纯软件提供商,不涉足硬件领域[2] 行业需求展望 - 随着AI应用成本降低,预计使用AI的企业数量将从1000家增长至1万-100万家规模[2] - 行业高管预判GPU需求量将随AI普及而显著增长[2] - 当前重点在于降低AI使用门槛以促进更广泛采用[2]