Opus 4.5
搜索文档
数据中心地产_AI 需求增长才刚刚起步-Data Center Real Estate_ The AI demand ramp is just getting started
2026-02-02 10:22
行业与公司纪要要点总结 涉及的行业与公司 * **行业**:通信基础设施,具体为数据中心房地产投资信托基金(Data Center REITs)及更广泛的AI基础设施领域[2] * **公司**:主要覆盖的数据中心REITs包括**Digital Realty**、**Equinix**和**Fermi**[5][8];提及的主要科技/云服务提供商包括Oracle、Meta、AWS、Microsoft、Alphabet、xAI、OpenAI、Coreweave等[2][7][22] 核心观点与论据 需求前景:AI基础设施需求浪潮刚刚开始 * 2025年第四季度,北美数据中心容量吸收量达到**5.8GW**,全年吸收量达**15.6GW**,是2024年约**7GW**的两倍多[2] * 当前美国有**11GW**的超大规模自建容量正在开发中,意味着总需求管道约为**26GW**[2] * 超大规模资本支出预计将从2025年的约**4200亿美元**增至2026年预计的约**5850亿美元**,增长近**40%**[7] * 主要云服务提供商的增量云收入预计将从2025年的**690亿美元**增至2026年的**1060亿美元**,2027年预计将增加**1230亿美元**[7] * 许多大型AI基础设施项目(如xAI的Colossus 2、Oracle-OpenAI的Stargate、Amazon的Rainier)现在才达到**1GW**的运营容量目标[21][22] * 训练计算量继续呈指数级增长[19],AI应用在消费者、开发者和企业层面的采用仍处于早期阶段(例如,仅**17%** 的企业组织大规模投入生产)[32] 供应约束:限制过度建设的担忧 * 主要市场的数据中心空置率处于历史低位,**<2%**[4] * 电网互联排队时间在大多数市场已延长至**6年以上**[4] * 劳动力短缺是第二大供应侧约束,全国范围内与数据中心相关的工种预计每年仅增加约**2.4万人**,而每个GW级建设项目需要**3-7千名工人**[9][91] * 计划中的美国数据中心总容量(IT负载)已从2021年的**37GW**增至当前的**140GW**[74] * 比特币矿商因其在低成本偏远地区拥有大量电力,已签署了约**2.6GW**的IT负载长期租赁合同,以支持AI部署[68] 技术演进:功率密度提升与架构变化 * 基于英伟达和AMD的GPU销售预测,预计2026年数据中心容量需求约为**12GW**,2025年约为**6GW**[7] * Blackwell系统的机架密度是Hopper系统的**3.4倍**,是大多数现有托管环境(5-10kW)的**10倍以上**[37] * Rubin系统预计在2026年下半年推出,Rubin Ultra机架级系统功率高达约**600kW**,路线图上还有**1MW+** 的机架系统[41] * 向**800V DC**架构的转变将支持更高的机架密度,并对整个数据中心电气系统产生影响,需要更专业的劳动力[94] 对覆盖的数据中心REITs的影响 * 尽管2025年主要和二级市场的吸收量同比下降了约**10%**,但行业整体状况紧张应继续推动定价上涨[8] * 预计传统数据中心REITs将保持健康的开发收益率和**高个位数**的增长率[8] * **Digital Realty**:预计2026年FFO/股增长**7.4%**,2025年预计为**10%**;1MW以上租约在2026年的到期租金为每千瓦**143美元**,2025年为**147美元**[8] * **Equinix**:预计2026年AFFO/股增长**6.2%**,2025年预计为**10%**;预计2026年经常性收入增长**8.6%**[8] * **Fermi**:直接暴露于大规模AI基础设施趋势,但因其早期、无收入的性质而风险更高;股价目前反映了**0.7 GW**的已售容量,而公司已确保**2.3GW**的涡轮机和其他电源[8] 其他重要内容 市场动态与商业模式 * 托管行业高度分散,但客户群高度集中,**6个客户**占据了**80%以上**的市场需求[136] * 市场正从传统的零售/批发托管模式,转向由超大规模客户驱动的**定制化大规模建设**模式[122] * 主要市场(如北弗吉尼亚、达拉斯、芝加哥)的租金与空置率呈现强负相关关系,当前空置率极低支撑了租金上涨[146] 建设成本与经济学 * 数据中心开发成本通常在**每MW 1000万至1500万美元**之间,其中电气和机械设备约占一半[125] * 开发收益率受供需环境、资本成本和风险水平影响:超大规模定制建设的收益率为**高个位数至低双位数**,批发为**10-15%**,零售为**15%至25%+**[139] * Digital Realty在北美市场的预期开发收益率已提升至**13-14%**[142] 行业领导层言论凸显长期需求 * Meta计划“在这个十年内建设数十吉瓦,未来建设数百吉瓦或更多”[57] * Sam Altman(OpenAI):“我们的愿景很简单:我们想创建一个每周能生产一吉瓦新AI基础设施的工厂”[57] * Elon Musk(xAI):“正如我们将率先使一吉瓦的连贯训练计算上线,我们也将率先达到10GW、100GW、1TW…”[57] * Satya Nadella(Microsoft):“我们今年将把AI总容量增加**80%以上**,并在未来两年内使数据中心总占地面积大致翻倍”[57]
Node.js之父官宣:人类手写代码时代真的结束了
36氪· 2026-01-21 15:52
行业核心观点 - Node.js创始人Ryan Dahl宣布人类手写代码时代终结,Stability AI创始人Emad Mostaque预测当前每月200美元的顶级AI编程体验成本将在两年内降至每月不到1美元,即成本暴跌200倍 [1][2] - AI编程正经历剧变,其成本正以远超摩尔定律的速度下降,预计将推动编程民主化和行业格局重塑 [3][7][34] AI编程成本结构与现状 - AI生成高质量代码时,“思考Tokens”(内部推理过程)与“代码Tokens”(最终输出)的消耗比例高达100:1至1000:1,即99%以上的算力消耗在思考过程 [4] - 当前顶级AI模型的API推理成本在几美元到几十美元每百万Tokens不等,例如Claude Opus 4.5为每百万输入Tokens 5美元,每百万输出Tokens 25美元 [22][26] - 代码质量或提示词质量差会显著增加Token消耗,影响使用成本 [5] AI编程成本下降趋势与预测 - AI推理成本正以每年超过10倍的速度下降,Epoch AI研究指出其中位下降速度为每年50倍,2024年1月后最快下降速度甚至达到每年900倍 [6][7] - 以GPT-3.5级别性能为例,从2022年11月到2024年10月,成本已下降超过280倍 [7] - 到2025年底,OpenAI已将推理成本降至每百万Tokens不到1美元,Claude 4.5系列相比上一代实现67%的成本下降 [28] - 预测未来AI编程将从需要大量“思考Tokens”的“思考型”进化为通过少量提示直接生成代码的“反射型”,从而驱动成本进一步暴跌 [6][7] AI编程对开发者效率的影响 - 使用AI编程工具可显著提升开发者效率,GitHub Copilot实验显示开发者完成任务速度提升55%,Amazon Code Whisperer用户报告任务完成速度平均提升57% [12] - Stack Overflow 2025年调查显示,84%的开发者正在使用或计划使用AI工具,其中51%的职业开发者每天使用 [12] - 麦肯锡研究指出,使用生成式AI工具的开发者可将任务完成速度提升2倍,且初级开发者获得的生产力提升最为显著 [33] - 同时存在“AI生产力悖论”,在部分受控实验中,资深开发者使用AI工具后的实际任务完成时间反而延长了19% [33] AI能力发展前景与行业影响 - Epoch AI 2025年影响力报告指出,AI推理成本正在飞速下降,且AI能力在2024年4月前后可能已出现加速拐点 [14][16][20] - AI能力的下一个加速点可能出现在DeepSeek-V4及2026年OpenAI和谷歌的新模型发布时 [20] - AI长程软件开发能力(完成完整软件项目)正在被测试评估,预示着AI能力爆发期可能更快到来 [21] - 随着AI编程成本趋近于零,编程能力将不再是少数人专利,软件开发门槛将大幅降低,2026年可能成为“编程平权之年” [34][35][36][37] - 程序员角色将从“编写代码”转向“理解需求、设计架构、指挥AI”,即成为AI编程的“指挥官” [29][30][31] - 行业下一阶段的竞争关键,在于谁能最早将“AI编程”转化为核心竞争力 [38]
速递 | 2.4万亿估值!Anthropic凭什么成AI圈第二?
未可知人工智能研究院· 2026-01-20 11:02
公司概况与市场地位 - 公司Anthropic在开年不到20天内完成了250亿美元融资,估值飙升至3500亿美元(约2.4万亿人民币),相比四个月前约1700亿美元的估值,实现了翻倍 [1][2] - 公司是OpenAI最大的竞争对手,在AI领域排名世界第二 [2] - 公司2024年全年营收不到4亿美元,但预计2025年营收将达到四五十亿美元,并设定了2028年700亿美元的营收目标,意味着三年内增长约15倍 [2][11] 创始人背景与公司理念 - 创始人Dario Amodei拥有斯坦福物理本科和普林斯顿生物物理博士学位,曾任职于百度硅谷AI实验室,后加入OpenAI并担任研究副总裁,是GPT-3论文的核心作者之一 [3][4] - 创始人于2020年底因“理念不合”从OpenAI离职,带领14名核心研究员创立Anthropic,核心理念是“AI安全第一” [4] - 公司提出了“宪法式AI”方法论,为模型设定伦理规则,让AI自我监督,这一理念在企业级市场,特别是对合规性要求高的领域,具有吸引力 [4] 核心产品与技术优势 - 公司核心模型Claude在编程领域市场份额达到42%,是OpenAI(21%)的两倍,显示出在开发者群体中的强大影响力 [6] - Claude模型具备自主编程能力,能够连续工作20到30分钟,独立完成写代码、测试和调试,其代码生成工具Claude Code改变了程序员的使用习惯 [6][7] - 公司于2025年1月为Claude推出了永久记忆功能,使其能够记住用户的对话历史、工作习惯和代码风格,提升了产品的个性化与协作能力 [7] 商业模式与财务表现 - 公司收入主要来自两大业务:API调用和企业订阅(包括定制化服务) [12] - API业务在2025年预计收入近40亿美元,增速超过600%,远超OpenAI同类业务的增速 [12] - 企业订阅服务中,定制化服务(如私有化部署、定制训练)单笔合同价值可达上千万甚至上亿美元,客户主要来自医疗、金融、法律等高合规要求行业,黏性极强 [12] - 公司还推出了专门处理机密文件的政务版,服务于美国政府机构 [12] 资本结构与战略合作 - 最新一轮250亿美元融资的主要投资方包括微软、英伟达、红杉、黑石和新加坡政府投资公司(GIC) [14] - 融资条款与采购承诺深度绑定:微软投资50亿美元,公司承诺从微软Azure购买300亿美元的云计算服务;英伟达投资100亿美元,公司承诺采购1GW的算力(全部使用英伟达GPU) [14][15] - 谷歌和亚马逊也是公司的重要股东,其投资同样伴随着在各自云平台(谷歌云、AWS)上的算力采购承诺,形成了一种“体系内循环”的资本游戏 [16] 行业竞争与市场洞察 - AI行业存在不同的技术路线:OpenAI走“快速迭代、消费者优先”路线,而Anthropic走“安全第一、企业优先”路线,两者目前均取得成功 [19] - 企业级市场被认为是AI真正的金矿,一个企业客户的年费价值可能相当于上万个个人用户 [19] - 编程能力被视为AI的“iPhone时刻”,工具如Claude Code正使AI从“对话助手”转变为“自主执行者”,显著提升生产力 [19] - AI赛道并非赢家通吃,除OpenAI和Anthropic外,谷歌、Meta、xAI等公司也都在寻找各自的生态位 [20]
“手写代码已不再必要,”Redis之父罕见表态:AI将永远改变编程,网友质疑:我怎么没遇到这么好用的AI
36氪· 2026-01-15 21:21
AI对编程行业的影响与变革 - 行业核心观点:AI正在永久性地改变编程行业,从“手写代码”转向与模型协作,编程工作的核心从“编写”转变为“理解问题与设计解决方案” [4][6][12] 行业效率的颠覆性提升案例 - Google团队耗时一年的攻坚成果,Anthropic的Claude Code仅用1小时就提供了方向高度一致的方案 [1] - Redis之父antirez通过向模型提示,在几小时内完成了原本需数周的工作:改进linenoise库以支持UTF-8并构建测试框架 [10] - 使用Claude Code在5分钟内构建了一个纯C实现的BERT推理库,约700行代码,输出结果与PyTorch一致,速度仅慢约15% [12] - 将Redis Streams的设计文档交给Claude Code,约20分钟内复现了全部实现,主要耗时在于人工检查结果 [13] 行业领军人物对AI编程的态度 - Google首席工程师Jaana Dogan通过对比凸显AI对工程效率与组织协作的挑战 [1] - Linux之父Linus Torvalds最初对“用AI写代码”兴趣不大,但更看重“用AI帮助维护代码”,其本人已体验Vibe coding并创建新开源项目 [1] - Redis之父antirez持颠覆性观点,认为在绝大多数情况下,写代码本身已非必要工作,开发者应拥抱变革以免错过行业变革 [2][4][8] AI编程当前的能力与适用范围 - AI已能在几乎无需人工干预下,独立完成中等规模的子任务甚至完整的中等体量项目,前提是开发者能给出清晰的目标描述 [6] - 模型表现取决于两点:任务类型(越独立、越易用文本描述越好,如系统编程)和开发者清晰描述问题的能力 [7] - 该技术被认为将帮助小团队拥有与大公司竞争的机会,类似90年代开源软件的影响 [12] 行业对AI编程的质疑与现存局限 - 部分开发者指出,AI在复杂系统设计、长期维护和边界条件处理上存在明显不足 [17] - 有经验开发者反馈,AI生成的代码在提交评审前常需重写约70%,因存在细节处理不到位或根本性架构问题 [18] - 模型存在错误率与响应速度的权衡:快速模型错误率高且严重,更慢、更“深思”的模型等待时间过长 [21] - 担忧过度依赖AI可能削弱工程师对系统的整体理解,认为其更适合原型或中小项目,而非严肃生产环境 [21] 行业未来发展趋势预测 - 预计未来一至两年内,Anthropic和OpenAI等公司可能将产品从“编码助手”升级为“工程团队替代方案”,直接客户可能是无深度技术经验的产品团队 [23] - 随着AI显著加快开发周期,微服务的并行开发优势减弱,单体架构可能回潮,因更便于AI整体分析和理解业务逻辑 [23] - 技术集中化是担忧,但开放模型(尤其中国的一些模型)仍在与封闭实验室的前沿模型竞争,AI民主化状态能否长期维持不确定 [14] 行业从业者建议与适应策略 - 建议开发者花几周时间谨慎深入地测试AI编程工具,如一开始不适合,可隔数月再尝试,跳过AI对职业生涯无帮助 [24] - 鼓励开发者将核心热情从“写代码”转向“创造”,AI能帮助更快更好地实现创造 [23] - 行业创新无法收回,应通过政治途径支持理解变革并为失业人群提供保障的政府政策 [15]
5行代码,逼疯整个硅谷,澳洲放羊大叔,捅开AI编程奇点
36氪· 2026-01-14 19:07
Ralph-Wiggum循环的诞生与核心机制 - 一位澳大利亚的养羊大叔Geoffrey Huntley在2025年底用5行Bash脚本创建了Ralph-Wiggum循环,其代码为 `while :; do cat PROMPT.md | claude-code ; done` [1][3] - 该循环的核心机制是让AI(如Claude Code)进入一个无限循环,基于编译或测试的报错信息不断重试和修改代码,直至任务完成,无需人类干预 [3][4] - 其核心思维是默认第一次写不对,将失败和报错视为有价值的数据,让AI进行持续迭代和自我参考学习,直至输出指定的完成标志 [4][12] 对Claude Code及开发流程的颠覆性影响 - Anthropic的Claude Code负责人Boris Cherny将五行脚本收编为官方Ralph-Wiggum插件,极大增强了Claude Code的能力 [10] - 使用该插件后,Boris Cherny在30天内提交了259个PR、497次提交,添加了40,000行代码并删除了38,000行代码,贡献100%由Claude Code + Opus 4.5完成 [10] - Claude Code可以持续运行几分钟、几小时甚至数天,标志着软件工程进入新时代,其中Claude Code最长会话记录为1天18小时50分钟,总消耗token达3.252亿 [11][14] - 该循环通过Stop Hook机制实现自反馈控制,拦截AI退出并验证完成标志,若未完成则格式化错误信息重新送入模型,形成自我反馈闭环 [15][31][35] 在开发者社区引发的效率革命与案例 - 在Y Combinator黑客马拉松中,有人用此方法一夜生成了6个完整代码仓库,另有人仅用297美元的API成本就完成了价值5万美元的合同 [21] - 有开发者在三个月内完全使用该方法开发出一门名为“cursed”的新编程语言 [21] - 开发者教育者Matt Pocock认为Ralph插件是其所用过最强的AI编程工具,能让长时间运行的智能体真正交付可用代码,接近“早上醒来代码已写好”的终极梦想 [23] - 区块链代币创建平台Tally的CEO Dennison Bertram认为,结合Claude的Ralph提示可能是其所见过最接近AGI(通用人工智能)的东西 [25] 行业范式转变与未来展望 - 开发者教育者Matt Pocock将这种转变形容为AI编程从“瀑布式开发”到真正意义上的“AI敏捷开发”的范式转变 [31] - 行业观点认为,AI编程的关键在于“流程”而非“模型”,一个中等模型搭配优秀流程,远强于顶级模型搭配混乱流程 [45][46] - 软件开发行业正经历深层转型,工程师的角色从“写代码的人”转变为“构建能写代码的系统”的人,个体生产力被极大增强,一个人可相当于过去一个团队 [53] - 未来两年,行业讨论将更多转向Lean、TLA+、Agentic Infrastructure等方向,软件开发已死,软件工程正在重生 [49][53]
深度解读 AGI-Next 2026:分化、新范式、Agent 与全球 AI 竞赛的 40 条重要判断
36氪· 2026-01-14 08:17
模型与行业发展趋势 - 模型分化已成为显性趋势,分化原因多元,包括To B与To C场景需求差异、对竞争格局的押注以及不同AI实验室的战略选择 [1] - 在To B领域,强模型与弱模型的分化会越来越明显,企业用户愿意为“最强模型”支付溢价,因为强模型(如Opus 4.5做10个任务能对8-9个)能减少错误监控成本,而弱模型(可能只对5-6个)即便更便宜也带来额外管理负担 [2][3] - 在To C场景,任务瓶颈往往不是模型不够大,而是上下文(Context)与环境(Environment)的缺失,例如回答“今天吃什么”需要个性化数据,因此利用好合规的上下文数据(如微信聊天记录)比盲目追求更强预训练模型能带来更大价值 [2] - To C场景适合模型与产品进行垂直整合的All-in-one路线,而To B(生产力应用)因涉及复杂生产环节,给了应用公司优化空间,出现了模型公司与应用公司之间的分层 [3] - 模型分化也是自然演化的结果,源于与客户的高频交流,例如Anthropic进入金融领域就是在交流中发现的机会 [3] - 模型分化的时机与竞争格局判断相关,例如智谱AI在DeepSeek出现后判断“Chatbot取代搜索”战局已定,从而选择押注编程(Coding)领域 [4] 技术新范式与自主学习 - Scaling(规模扩展)仍会继续,但需区分已知路径(通过增加数据和算力探索能力上限)与未知路径(寻找新范式,让AI系统自主定义奖励函数、交互方法和训练任务) [5][6] - Scaling Law的核心是将能源高效转化为智能,是技术、数据与品味(taste)共进的过程,探索前沿智能不会因潜在风险而停止 [8] - 自主学习是共识性极强的新范式,目标是让模型具备自反思与自学习能力,通过持续自我评估与批判来优化行为路径 [8] - 新范式的发生是一个“渐变”过程,已有信号显现,例如Cursor的Auto-complete模型每几小时用最新用户数据学习,ChatGPT拟合用户聊天风格,Claude Code编写了自己项目95%的代码 [8] - 新范式发展的最大瓶颈是想象力,即需要构想出证明其实现的具体任务,例如变成一个赚钱的交易系统或解决未解科学问题 [8] - 从实际角度看,强化学习(RL)的潜力尚未被充分挖掘,下一代范式包括自主学习以及AI具备更强的主动性,未来模型可能不再需要人类提示(Prompt),而是由环境直接触发 [9] - 主动学习(Active Learning)会带来严重的安全挑战,风险不在于“讲不该讲的话”,而在于“做不该做的事”,因此必须为其注入正确的方向 [9] - 持续学习(Continual Learning)中,对于多智能体(Agent)串联的长程任务,若单个智能体能力未达100%,后续能力会呈指数级下降,可能需要探索类似人类睡眠的“清噪”与新计算模式 [9] - 提出了“智能效率”(Intelligence Efficiency)概念,未来范式应关注“投入多少资源能获得多少智能增量”,以解决成本瓶颈 [10] - 大模型发展借鉴人脑认知,在多模态、记忆与持续学习、以及反思与自我认知这几类人类显著领先的能力上,可能是新的突破方向 [10] - 智谱AI参考人类认知提出AI系统三模块结构:系统1(模式匹配与知识提取,对应数据与模型规模的Scaling-up)、系统2(知识融合与推理,对应Reasoning的Scaling)、自主学习(对应Environment Scaling,让模型从与外界交互中获得反馈) [10] 多模态与感知能力 - 原生多模态模型与人类的“感统”相似,能汇集视觉、声音、触觉等信息进行综合感知,但当前模型的感统能力并不充分 [11] - 多模态感统是智谱AI今年的重点方向之一,具备此能力后,AI才能在真实工作环境中执行长链路、长时效任务,如在手机、电脑等设备上持续协作 [11] - 多模态同样是Qwen的持续发展方向,认为真正智能的东西天然应该是多模态的,但存在多模态能否驱动智能的争论 [11] - 从第一性原理出发,为模型提供更多生产力、更好地帮助人类,发展视觉、语音等多模态能力是自然而然的选择 [11] - 视频是更广义的表达,理解长视频是一个有意义的探索方向 [12] 智能体(Agent)的发展与产品化 - 编程(Coding)是通往智能体(Agent)的必经之路,例如智谱AI的GLM-4.5虽跑分高但写不出“植物大战僵尸”游戏,通过引入RLVR和大量真实编程环境训练,GLM-4.7才解决了该问题 [13] - 模型即智能体,智能体即产品,实现复杂任务对模型要求极高,因此做基础模型本身就是在做产品 [13] - 模型在To B和To C的分化同样体现在智能体上:To C产品的指标有时与模型智能不相关甚至相反;To B的智能体则更依赖模型智能提升来解决真实世界任务、创造价值 [14] - 生产力场景的智能体才刚开始,除了模型进步,环境与部署(deployment)同样重要,是创造价值的关键,即使模型不再变好,将现有模型部署到各公司也能带来10倍甚至100倍的收益,但目前AI对GDP的影响还远不到1% [14] - 未来的智能体将变成“托管式”,用户设定通用目标后,智能体在后台长时间独立运行直至完成任务,这需要自我进化(Self-evolution)与主动学习(Active Learning)能力支撑 [15] - 在通用智能体开发中,解决长尾任务更值得关注,用户感知AI的价值常因某个长尾任务被解决,今天的AGI本质上也在解决长尾问题 [15] - 通用智能体的开发见仁见智,若应用公司没有比模型公司做得更好的信息优势,那么“模型即产品”对模型公司是机会,因为许多工程问题可能只需“烧卡”即可解决 [15] - 智能体的发展可从两个维度划分四象限:目标定义(人为/自动)和任务规划(人为/自动),目前处于初级阶段(目标与规划皆由人定义),未来将发展为由大模型内生定义 [16] - 决定智能体未来走势的重要问题包括:能否真正解决人类任务并创造价值、成本有多大、以及应用公司的迭代速度是否能拉开时间窗口 [17][18] 全球AI竞赛与中美对比 - 对于中国AI在3-5年内进入全球第一梯队持乐观态度,因为中国在制造业、电动车等领域已证明,一旦某事可行,就能以极高效率复现甚至做到局部更好 [19] - 长期挑战在于文化差异,即“敢突破新范式、敢冒险的人不够多”,并面临两个现实瓶颈:光刻机突破决定的算力瓶颈,以及是否能诞生更成熟的To B市场并在国际竞争,应避免过分刷榜,更关注做“正确的事”和用户体验 [20] - 相对冷静的观点认为,中国AI超过美国的概率最乐观情况为20%,中美算力差异不仅是绝对量级(美国算力比中国大1-2个数量级),更是结构性的:美国将相当一部分算力投入下一代研究,而中国仍在解决任务交付爆发带来的算力瓶颈 [21] - 但“穷则生变”,作为“算力穷人”,中国团队更有紧迫感和动力去思考算法与基础设施(Infra)的联合优化,这可能倒逼创新发生 [21] - 面对光刻机瓶颈,有可能从软硬结合的角度,通过下一代模型结构和芯片实现端到端(End-to-End)的突破 [21]
分化、新范式、Agent 与全球 AI 竞赛,中国模型主力选手们的 2026 预测
Founder Park· 2026-01-13 22:55
文章核心观点 文章总结了AGI-Next 2026活动中的核心洞察,指出华人团队已成为AGI领域的核心玩家,中国开源模型位居全球第一梯队[6]。活动揭示了AI发展的几大关键趋势:模型在To B和To C场景需求下出现显著分化;自主学习成为行业共识的新范式;Scaling(规模扩展)将持续但需关注智能效率;模型即Agent,Agent即产品;中美AI竞赛在算力、市场和文化上存在结构性差异[7]。 模型分化趋势 - 分化体现在两个角度:To C与To B场景之间,以及“垂直整合”与“模型应用分层”两条技术路线之间[8] - To C场景的瓶颈往往不是模型不够强大,而是上下文(Context)和环境(Environment)信息的缺失,例如模型难以准确回答“今天吃什么”这类高度个性化的问题[8] - To C场景的解法在于利用真正的个性化数据(如在合规前提下使用微信聊天记录),这比盲目追求更强的预训练模型能带来更大价值[8] - To B市场内部将出现强模型与弱模型的分化,且差距会越来越大。企业用户愿意为“最强模型”支付溢价,因为即便弱模型更便宜,但其错误难以预测和监控,企业更倾向于选择高准确率的强模型(例如Opus 4.5做10个任务能对8-9个,而弱模型只能对5-6个)[9] - To C场景适合模型与产品进行All-in-one的垂直整合,而To B(生产力应用)因涉及复杂生产环节,为应用公司提供了优化空间,从而出现了模型公司与应用公司之间的分层[9] - 模型分化并非预设路线图,更多是自然演化的结果,源于与客户的高频交流[9] - 模型竞争的时机也影响分化,例如智谱AI在DeepSeek出现后判断“Chatbot取代搜索”的竞争已基本结束,从而选择押注Coding领域[10] 新范式:自主学习与Scaling演进 - Scaling(规模扩展)会继续,但需区分两种方向:一是沿已知路径增加数据和算力;二是探索未知的新范式,让AI系统自主定义奖励函数、交互方法和训练任务[12][13] - Scaling Law的核心是将能源高效转化为智能,是技术、数据与审美(taste)共进的过程,探索前沿智能不会因潜在风险而停止[13] - 自主学习的目标是让模型具备自反思与自学习能力,通过持续的自我评估与批判来优化行为[14] - 新范式是一个正在发生的“渐变”过程,2025年已出现信号,例如Cursor的Auto-complete模型每几小时就用最新用户数据学习,ChatGPT利用用户数据拟合聊天风格,Claude Code编写了自己项目95%的代码[15] - 思考新范式的最大瓶颈是想象力,需要构想出证明其实现的具体任务(如变成赚钱的交易系统或解决科学难题)[15] - 从实际角度,强化学习(RL)的潜力尚未被充分挖掘,下一代范式的两个维度是自主学习以及AI具备更强的主动性(无需人类Prompt,由环境触发)[15] - 主动学习(Active learning)会带来严重的安全挑战,风险在于“做不该做的事”,而非“讲不该讲的话”,因此必须为其注入正确的方向[16] - 持续学习在多Agent串联的长程任务中面临挑战,若单个Agent能力未达100%,后续能力会指数级下降,可能需要探索类似人类睡眠的“清噪”机制[16] - 提出了“智能效率”(Intelligence Efficiency)概念,未来范式应关注投入多少资源能获得多少智能增量,以解决成本瓶颈[16] - 大模型发展可借鉴人脑认知,在多模态、记忆与持续学习、反思与自我认知这几个人类领先的领域寻求突破[17] - 智谱AI参考人类认知提出AI系统三模块:系统一(模式匹配)、系统二(推理)、自学习,分别对应数据与模型规模Scaling、推理能力Scaling、以及环境Scaling(从与外界交互中获得反馈)[17][18] 原生多模态 - 原生多模态模型与人类的“感统”相似,能同时处理视觉、声音、触觉等信息,但当前模型的感统能力尚不充分[19] - 多模态感统是智谱AI今年的重点方向之一,具备此能力后,AI才能在真实环境中执行长链路、长时效任务[19] - 多模态是通向真正智能的天然路径,但存在“多模态能否驱动智能”的争论[19] - 从第一性原理出发,为模型增加视觉、语音等多模态能力是为了提供更多生产力和更好帮助人类,是自然而然的选择[20] - 视频是更广义的表达,理解长视频是一个有意义的探索方向[21] Agent(智能体)的发展 - 编程(Coding)是通往Agent的必经之路,智谱AI的实践表明,仅靠跑分高的模型(如GLM-4.5)写不出“植物大战僵尸”游戏,需引入RLVR和真实编程环境训练(如GLM-4.7)才能解决[22] - 模型即产品,Agent要实现复杂任务对模型要求极高,模型本身就是Agent,Agent就是产品,做基础模型就是在做产品[22] - Agent在To C和To B场景同样存在分化:To C产品的成功指标有时与模型智能不相关甚至相反;To B的Agent则更依赖模型智能提升来解决真实世界任务、创造价值[23][24] - 生产力场景的Agent才刚起步,除了模型进步,环境和部署(deployment)同样关键。即使模型不再变好,将现有模型部署到各公司也能带来10倍甚至100倍的收益,但目前AI对全球GDP的影响还远不到1%[24] - 未来的Agent将向“托管式”发展,用户设定通用目标后,Agent在后台长时间独立运行直至完成任务,这要求模型具备自我进化(Self-evolution)和主动学习能力[25] - 在开发通用Agent时,解决长尾任务更值得关注,用户感知到的AI价值往往源于某个特定长尾任务被解决[25] - 做通用Agent是见仁见智的问题,对于模型公司而言,许多工程问题可能“烧一烧卡”就可解决,因此“模型即产品”对它们而言是机会[25] - Agent发展可从两个维度划分四象限:目标定义(人为/自动)和任务规划(人为/自动)。当前处于初级阶段(两者皆人为定义),未来将发展为由大模型内生定义目标和规划的系统[26] - 决定Agent未来走势的关键问题包括:能否真正解决人类任务并创造价值、成本(Cost)大小、以及应用公司的迭代速度是否能拉开时间窗口[27][28] 全球AI竞赛:中美对比与展望 - 对于中国AI在3-5年内进入全球第一梯队持乐观态度,因为中国在制造业、电动车等领域已证明,一旦某事可行,便能以极高效率复现甚至做到局部更好[29] - 长期挑战在于文化差异(敢突破新范式、敢冒险的人不够多)和两个现实瓶颈:算力(核心在于光刻机是否有突破)以及是否能诞生更成熟的To B市场并在国际竞争[30] - 中美算力差异不仅是绝对量级上的(美国算力比中国大1-2个数量级),更是结构性的:美国将相当一部分算力投入下一代研究,而中国仍在解决任务交付爆发带来的算力瓶颈[30] - 相对冷静的观点认为,中国AI超过美国的概率最乐观情况为20%[30] - “穷则生变”,作为“算力穷人”,中国团队更有紧迫感和动力去思考算法与基础设施(Infra)的联合优化,这可能倒逼创新发生[30] - 面对光刻机瓶颈,需思考是否可能从软硬结合的角度,通过下一代模型结构和芯片实现端到端(End-to-End)的突破[31]
深度解读 AGI-Next 2026:分化、新范式、Agent 与全球 AI 竞赛的 40 条重要判断
海外独角兽· 2026-01-13 20:33
文章核心观点 - 华人已成为AGI领域的重要力量,中国开源模型是全球Tier 1,预计到2026年地位将更加牢固[1] - 大模型行业正经历显著分化,主要体现在To B与To C场景、以及垂直整合与分层路线上[3] - 自主学习是行业共识性极强的新范式,预计2026年将成为主要投入方向[1] - Scaling(规模扩展)将继续,是技术、数据与品味共进的结果,探索前沿智能不会停止[1] - 模型即Agent,Agent即产品,两者趋于一体化[1] - 中美AI竞赛存在结构性差异,美国算力比中国多1-2个数量级,且更多投入下一代技术探索[1] 模型分化趋势 - 分化趋势显性,原因多元,包括To B和To C场景需求差异、对竞争格局的思考以及不同AI实验室的战略选择[1] - To B领域会出现强模型与弱模型的分化,且会越来越大[1] - To C场景的任务瓶颈往往不是模型不够大,而是上下文(Context)和环境(Environment)的缺失[1] - 在To C逻辑下,大多数用户大多数时候不需要很强的智能,模型智能提升的体验不强烈[3] - To C问题的解法在于真正的个性化数据,例如在合规前提下利用微信聊天记录等上下文,比追求更强预训练模型带来更大价值[3] - 在To B市场,用户(企业)愿意为“最强模型”付出溢价,因此强模型与弱模型的分化会越来越明显[3] - 例如,Opus 4.5这类强模型做10个任务能对8-9个,而弱模型只能对5-6个,即使后者更便宜,但企业因监控错误成本高而更倾向于选择强模型[4] - To C场景中,模型做All-in-one的垂直整合成立,模型与产品可强耦合迭代;而To B(生产力应用)因涉及多生产环节,给了应用公司优化空间,出现了模型公司与应用之间的分层[4] - 模型分化并非预设路线图,更多是自然演化的结果,通常源于与客户的高频交流[4] - 分化与模型竞争的时机相关,例如智谱AI押注Coding是基于对当时模型竞争格局(如DeepSeek出现后Chatbot取代搜索之战基本结束)的判断[5] 新范式:自主学习 - Scaling会继续,但需区分两种方向:Scaling已知路径(增加数据和算力)和Scaling未知路径(寻找新范式,让AI系统自己定义奖励函数、交互方法等)[5] - 当下AI社区对新范式尚无统一定义,自主学习、主动学习、持续学习等概念本质都预期模型能在人类不介入下提升智能[6] - Scaling Law被总结为一种将能源转化为智能的视角,核心在于高效逼近智能上限,是技术、数据与审美的共进[6] - 自主学习的目标是让模型具备自反思与自学习能力,通过持续的自我评估与批判来优化行为路径[6] - 新范式的发生是一个正在发生的“渐变”过程,2025年已出现信号,例如Cursor的Auto-complete模型每几小时用最新用户数据学习,ChatGPT利用用户数据拟合聊天风格,Claude Code写了自身项目95%的代码[6] - 新范式的最大瓶颈是想象力,即需要构想出证明范式实现的具体任务(如赚钱的交易系统或解决未解科学问题)[7] - 从更实际角度看,强化学习(RL)的潜力尚未被充分挖掘;下一代范式存在两个维度:自主学习和AI具备更强的主动性(未来模型可能不再需要人类提示,而是环境本身就能提示它)[7] - 主动学习会带来严重的安全挑战,风险不在于“讲不该讲的话”,而在于“做不该做的事”,因此必须为其注入正确的方向[7] - 自主学习能体现到个性化上,但衡量其是否“变好”会变得困难,因为当AI覆盖生活方方面面后,评估指标变得极其模糊[7] - 对于多Agent串联的长程任务,一旦Agent能力未达100%,后续能力往往呈指数级下降;人类通过睡眠“清理噪音”,AI可能需要探索类似的清噪与新计算模式[8] - 提出了“智能效率”(Intelligence Efficiency)概念,即关注投入多少资源能获得多少智能增量,这是解决成本瓶颈的关键[8] - 大模型发展路径借鉴人脑认知学习过程,而在多模态、记忆与持续学习、反思与自我认知这几类能力上,人类显著领先于当前模型,这些可能是新的突破方向[8] - 智谱AI在2020年参考人类认知规划了AI系统结构图,包含三个模块:系统一(模式匹配与知识提取)、系统二(知识融合与推理机制)、自主学习,分别对应数据与模型规模的Scaling-up、推理的Scaling、以及环境Scaling(让模型从与外界交互中获得反馈)[9][10] 原生多模态 - 原生多模态模型和人的“感统”相似,能汇集视觉、声音、触觉等信息,但当前模型的感统能力并不充分[11] - 多模态感统是智谱AI今年的重点方向之一,具备此能力后,AI才能在真实工作环境中执行长链路、长时效任务[11] - 多模态同样是Qwen持续要做的事情,认为真正智能的东西天然应该是多模态的,但存在多模态能否驱动智能的争论[11] - 从第一性原理出发,为模型提供更多生产力、更好帮助人类,做视觉、语音等多模态能力是自然而然的选择[11] - 视频是更广义的表达,图片可理解为单帧视频,理解很长视频是很有意思的事情[11] Agent发展 - Coding是通往Agent的必经之路,例如智谱AI的实践中,GLM-4.5虽跑分高但写不出“植物大战僵尸”游戏,通过引入RLVR和大量真实编程环境训练,GLM-4.7才解决了该问题[11] - 模型即产品,Agent要实现复杂任务对模型要求相当高,模型就是Agent本身,Agent就是产品本身,做基础模型也就是在做产品[12] - 模型To B和To C的分化同样体现在Agent上:To C产品的指标有时与模型智能不相关甚至相反;To B的Agent甚至不需要做太多创新,模型智能提升、解决真实世界任务能力提高就能创造更多价值[12] - 生产力场景的Agent才刚开始,除了模型进步,环境和部署同样重要,是Agent创造价值的关键:即使模型不再变好,只要把现有模型部署到各公司,也能带来10倍甚至100倍的收益,但今天AI对GDP的影响还远不到1%[13] - 教育非常重要,会使用AI工具的人正在替代那些不会使用工具的人[13] - 未来的Agent将变成“托管式”,用户设定通用目标后,Agent在后台长时间独立运行直至完成任务[13] - Agent要做到这一点离不开前面提到的自我进化以及主动学习,在此逻辑下,“模型即Agent,Agent即产品”[13] - 做通用Agent过程中,长尾任务更值得关注,用户感受到AI的价值与魅力往往因为某个长尾任务被解决,今天的所谓AGI本质上也在解决长尾问题[13] - 做通用Agent是见仁见智的问题,如果作为“套壳”方没有比模型公司做得更好的信息,那么通用Agent就是“模型即产品”的机会,因为对模型公司来说,很多工程问题可能只是“烧一烧卡”就可解决[14] - Agent发展可划分为四个象限,从两个维度看:目标定义(人为/自动)和任务规划(人为/自动);今天处于初级状态(目标与规划皆由人定义),未来会出现大模型观察人的工作并使用人的流程数据,最终目标与规划皆可由大模型定义,Agent应是大模型内生的原生系统[14] - 决定Agent未来走势的几个重要问题:是否能真正解决人类任务并创造价值及价值大小;Agent成本有多大(成本过高是问题,若调用API就能解决,模型厂商意识到价值大时就会自然做进去,这是基座模型与应用之间的矛盾);应用公司的迭代速度(若Agent团队有能力拉开半年时间窗口满足用户需求,就有机会持续往前走)[14][15] 全球AI竞赛 - 对于中国AI在3-5年内进入全球第一梯队持乐观态度,因为中国最大的优势在于一旦证明某件事可行,就有能力以极高效率复现、甚至做到局部更好[17] - 但长期视角中更核心的问题在于“敢突破新范式、敢冒险的人不够多”的文化差异,此外还需面对两个现实瓶颈:算力瓶颈(核心在于光刻机是否有突破)和是否能诞生更成熟的To B市场并在国际市场竞争(应更关注“正确的事”和用户体验,而非过分刷榜)[17][18] - 另一种观点认为,中国AI超过美国的概率最乐观情况为20%[18] - 中美AI之间算力差异不只是绝对量级上的,还是结构性的:美国算力比中国大1-2个数量级,但最关键的差异在于,美国有相当一部分算力投入到了下一代的研究中,而中国今天还在解决任务交付爆发带来的算力瓶颈[1][18] - 但从历史经验看,“穷则生变”,作为“算力穷人”,中国团队更有紧迫感和动力去思考算法与基础设施的联合优化,这个出发点可以倒逼创新发生[18] - 面对光刻机的现实瓶颈,有可能在下一代的模型结构和芯片上从软硬结合的角度端到端地实现突破[18]
Linux祖师爷真香现场,曾嘲讽AI编程是垃圾,如今亲自下场氛围编程
36氪· 2026-01-12 15:43
行业趋势:AI编程工具的采纳与范式转变 - 编程行业正经历从“技能”到“工具”的范式级跃迁,未来的程序员角色将更偏向“代码架构师”和“AI驯养员”的结合体 [31] - 到2026年底,初创公司和新项目中90%的代码可能由AI生成,这被视为更高效的生产方式,标志着生产力革命的到来 [28] - 2025年底至2026年初,AI编程工具的能力被评估为比一年前强大了10倍,从“玩具”阶段进入“生产力革命”阶段 [25][29] 关键人物与标志性事件 - Linux之父Linus Torvalds在其个人GitHub项目“AudioNoise”中,公开使用Google Antigravity AI工具完成Python可视化代码,并承认其效果 [1][3][9][14] - 2026年初,数学界陶哲轩、编程界Linus Torvalds及Ruby on Rails创始人DHH三位领域领袖人物集体转向认可AI能力,被视为时代的强烈信号 [18][19] - 多位科技界知名人士态度转变:OpenAI前副总裁Andrej Karpathy提出“氛围编程”概念;DHH收回了此前认为AI不会编程的言论;前Google工程师Jaana Dogan用AI一小时完成原本需团队一周的工作 [11][18][25] 技术应用与影响 - “氛围编程”模式兴起,开发者只需向AI描述功能需求,即可生成代码,跳过了手动编写环节,显著提升效率 [11][14] - AI编程工具的应用已从辅助扩展到核心生产环节,例如Linus Torvalds跳过传统的“边搜索边模仿”模式,直接使用AI生成可用的项目代码 [9][15] - 行业观察指出,这场变革类似于印刷术和互联网,是软件开发范式的根本性变革,其影响不可逆 [32]
AI真的来了,经济扛得住吗?——“大空头”、“AI巨头”与“顶尖科技博主”的一场激辩
硬AI· 2026-01-11 19:12
AI技术发展路径与行业共识 - 行业认知在2017-2025年间发生重大纠偏,从押注“白板智能体”转向认可大规模预训练是AI爆发的核心路径,Transformer架构和Scaling Laws是关键驱动力 [5][6] - 当前AI能力被视为“地板”而非“天花板”,未来所有开发都将建立在现有强大的认知底座之上,不再需要从更差的基础开始 [7] - 技术发展出现回归,人们再次构建智能体,但新智能体是建立在庞大预训练模型能力之上的,例如DeepMind的SIMA 2和Claude Code [6] 投资热潮与资本周期特征 - ChatGPT作为一个聊天机器人,意外引爆了全球数万亿美元级别的硬件和基础设施投入,投资逻辑反常 [9] - 应用层收入尚未兑现,资本开支已全面爆炸,传统软件公司被迫转型为资本密集型的硬件企业 [3][9] - 当前AI投资热潮与以往不同,资本支出周期极短,芯片每年迭代,数据中心可能几年后就无法承载新芯片,资产折旧会计处理面临挑战 [31] - 大量“在建工程”可能被用作会计手段,延迟资产折旧以保护利润,存在搁浅资产风险 [32] - 私人信贷对这场热潮的融资力度巨大,但存在显著的期限错配风险 [31] 行业竞争格局与商业模式 - AI领域的领先优势并不持久,行业不像“赢家通吃”的平台经济,而更像“高竞争领域”,Google、OpenAI、Anthropic等巨头轮流领先,格局随时可能反转 [3][9] - 人才流动、生态扩散和逆向工程迅速削弱任何单一实验室可能建立的壁垒 [9] - 生成式AI和LLM的运行成本高昂,利润模式不清晰,Google可能凭借成为运行成本最低的一方而赢得最终可能商品化的战争 [15] - 基础模型公司维持高利润率的前提是技术进步持续飞快,并最终实现自我复利的递归改进 [15] - 价值可能不会积累在生产者手中,而是流向客户,如果产业链上无人能赚取疯狂利润,但AI仍然是件大事 [39] 生产力提升与就业影响 - AI是否提升生产力缺乏可靠、可量化的指标,现有数据互相冲突,例如Anthropic调研用户自述效率提升50%,而METR研究显示使用编码工具使效率下降约20% [3][12] - 自我感觉的“爽”不代表真正提效,行业迫切需要可靠的生产力量化体系和精细化的“过程仪表盘” [3][12] - 尽管当前模型能力远超2017年预期,但尚未引发白领岗位大规模替代,因模型错误率、自我纠错弱、责任链复杂,难以无缝接入真实工作流 [3][17] - 编程成为AI大规模工业应用的先锋,因其具有相对“闭环”的属性,易于验证和部署 [21] - 更多行业需要构建验证与自动化闭环,才能释放真正的生产力潜力,预计程序员身上发生的事即将在更广泛的知识工作者身上发生 [3][22] 财务指标与资本回报风险 - 核心担忧在于资本回报率是否撑得住,需关注投资资本回报率、折旧周期和搁浅资产等财务结构性风险 [3] - 若终端AI收入增速远低于基础设施投入,可能出现庞大“在建工程”滞留 [3] - 英伟达利润的大约一半被与股票挂钩的薪酬抵消,若准确计入股权激励成本,利润率会低得多 [27] - 大型软件公司正变成资本密集型硬件公司,其投资资本回报率正在飞速下滑,这种趋势可能持续到2035年,长远将压低股价 [27][28] - 投资资本回报率的趋势是衡量公司剩余机会的关键指标,AI建设的支出最终必须获得高于投资成本的回报,否则没有经济价值增量 [28][29] 能源与基础设施瓶颈 - AI革命的最终瓶颈不是算法,而是能源,算力需求持续攀升,电力供应成为绝对硬约束 [3][53] - 真正限制AI广泛进入实体经济的,不是模型,而是“电从哪里来”,AI革命可能写在电网里,而不是写在代码里 [3] - 小型核电、独立电网、能源基础设施将决定AI发展的上限 [3] - 大规模AI数据中心是新型能源技术有用的试验客户,AI能源需求与核能技术的融合值得期待 [53] 未来关键观察指标与潜在变数 - 判断AI是否健康发展需关注五个关键变量:能力、效率、资本回报、产业闭环与能源供给 [3] - 改变看法的关键指标包括:AI应用收入是否能突破5000亿美元、前沿实验室收入是否突破1000亿美元、芯片使用寿命是否延长、持续学习是否被攻克、规模化是否遇到瓶颈等 [3][42][43][45] - 若“缩放撞墙”,即能力进步遇到根本性瓶颈,将对研究范式及AI经济产生深远影响 [45] - 若出现能提高分布式训练效率的技术突破,使得训练前沿模型不再需要庞大单一实体,将改变AI的政治经济格局,引发重大政策影响 [46] - 若“持续学习”问题得到解决,使AI能像共事六个月的老员工一样理解上下文,将是能力的巨大释放 [45] - 自主AI智能体在大型公司中取代数百万工作岗位,或应用层收入达到5000亿美元或更多,将促使观点重大重新校准 [42]