全球AI竞赛
搜索文档
深度解读 AGI-Next 2026:分化、新范式、Agent 与全球 AI 竞赛的 40 条重要判断
36氪· 2026-01-14 08:17
模型与行业发展趋势 - 模型分化已成为显性趋势,分化原因多元,包括To B与To C场景需求差异、对竞争格局的押注以及不同AI实验室的战略选择 [1] - 在To B领域,强模型与弱模型的分化会越来越明显,企业用户愿意为“最强模型”支付溢价,因为强模型(如Opus 4.5做10个任务能对8-9个)能减少错误监控成本,而弱模型(可能只对5-6个)即便更便宜也带来额外管理负担 [2][3] - 在To C场景,任务瓶颈往往不是模型不够大,而是上下文(Context)与环境(Environment)的缺失,例如回答“今天吃什么”需要个性化数据,因此利用好合规的上下文数据(如微信聊天记录)比盲目追求更强预训练模型能带来更大价值 [2] - To C场景适合模型与产品进行垂直整合的All-in-one路线,而To B(生产力应用)因涉及复杂生产环节,给了应用公司优化空间,出现了模型公司与应用公司之间的分层 [3] - 模型分化也是自然演化的结果,源于与客户的高频交流,例如Anthropic进入金融领域就是在交流中发现的机会 [3] - 模型分化的时机与竞争格局判断相关,例如智谱AI在DeepSeek出现后判断“Chatbot取代搜索”战局已定,从而选择押注编程(Coding)领域 [4] 技术新范式与自主学习 - Scaling(规模扩展)仍会继续,但需区分已知路径(通过增加数据和算力探索能力上限)与未知路径(寻找新范式,让AI系统自主定义奖励函数、交互方法和训练任务) [5][6] - Scaling Law的核心是将能源高效转化为智能,是技术、数据与品味(taste)共进的过程,探索前沿智能不会因潜在风险而停止 [8] - 自主学习是共识性极强的新范式,目标是让模型具备自反思与自学习能力,通过持续自我评估与批判来优化行为路径 [8] - 新范式的发生是一个“渐变”过程,已有信号显现,例如Cursor的Auto-complete模型每几小时用最新用户数据学习,ChatGPT拟合用户聊天风格,Claude Code编写了自己项目95%的代码 [8] - 新范式发展的最大瓶颈是想象力,即需要构想出证明其实现的具体任务,例如变成一个赚钱的交易系统或解决未解科学问题 [8] - 从实际角度看,强化学习(RL)的潜力尚未被充分挖掘,下一代范式包括自主学习以及AI具备更强的主动性,未来模型可能不再需要人类提示(Prompt),而是由环境直接触发 [9] - 主动学习(Active Learning)会带来严重的安全挑战,风险不在于“讲不该讲的话”,而在于“做不该做的事”,因此必须为其注入正确的方向 [9] - 持续学习(Continual Learning)中,对于多智能体(Agent)串联的长程任务,若单个智能体能力未达100%,后续能力会呈指数级下降,可能需要探索类似人类睡眠的“清噪”与新计算模式 [9] - 提出了“智能效率”(Intelligence Efficiency)概念,未来范式应关注“投入多少资源能获得多少智能增量”,以解决成本瓶颈 [10] - 大模型发展借鉴人脑认知,在多模态、记忆与持续学习、以及反思与自我认知这几类人类显著领先的能力上,可能是新的突破方向 [10] - 智谱AI参考人类认知提出AI系统三模块结构:系统1(模式匹配与知识提取,对应数据与模型规模的Scaling-up)、系统2(知识融合与推理,对应Reasoning的Scaling)、自主学习(对应Environment Scaling,让模型从与外界交互中获得反馈) [10] 多模态与感知能力 - 原生多模态模型与人类的“感统”相似,能汇集视觉、声音、触觉等信息进行综合感知,但当前模型的感统能力并不充分 [11] - 多模态感统是智谱AI今年的重点方向之一,具备此能力后,AI才能在真实工作环境中执行长链路、长时效任务,如在手机、电脑等设备上持续协作 [11] - 多模态同样是Qwen的持续发展方向,认为真正智能的东西天然应该是多模态的,但存在多模态能否驱动智能的争论 [11] - 从第一性原理出发,为模型提供更多生产力、更好地帮助人类,发展视觉、语音等多模态能力是自然而然的选择 [11] - 视频是更广义的表达,理解长视频是一个有意义的探索方向 [12] 智能体(Agent)的发展与产品化 - 编程(Coding)是通往智能体(Agent)的必经之路,例如智谱AI的GLM-4.5虽跑分高但写不出“植物大战僵尸”游戏,通过引入RLVR和大量真实编程环境训练,GLM-4.7才解决了该问题 [13] - 模型即智能体,智能体即产品,实现复杂任务对模型要求极高,因此做基础模型本身就是在做产品 [13] - 模型在To B和To C的分化同样体现在智能体上:To C产品的指标有时与模型智能不相关甚至相反;To B的智能体则更依赖模型智能提升来解决真实世界任务、创造价值 [14] - 生产力场景的智能体才刚开始,除了模型进步,环境与部署(deployment)同样重要,是创造价值的关键,即使模型不再变好,将现有模型部署到各公司也能带来10倍甚至100倍的收益,但目前AI对GDP的影响还远不到1% [14] - 未来的智能体将变成“托管式”,用户设定通用目标后,智能体在后台长时间独立运行直至完成任务,这需要自我进化(Self-evolution)与主动学习(Active Learning)能力支撑 [15] - 在通用智能体开发中,解决长尾任务更值得关注,用户感知AI的价值常因某个长尾任务被解决,今天的AGI本质上也在解决长尾问题 [15] - 通用智能体的开发见仁见智,若应用公司没有比模型公司做得更好的信息优势,那么“模型即产品”对模型公司是机会,因为许多工程问题可能只需“烧卡”即可解决 [15] - 智能体的发展可从两个维度划分四象限:目标定义(人为/自动)和任务规划(人为/自动),目前处于初级阶段(目标与规划皆由人定义),未来将发展为由大模型内生定义 [16] - 决定智能体未来走势的重要问题包括:能否真正解决人类任务并创造价值、成本有多大、以及应用公司的迭代速度是否能拉开时间窗口 [17][18] 全球AI竞赛与中美对比 - 对于中国AI在3-5年内进入全球第一梯队持乐观态度,因为中国在制造业、电动车等领域已证明,一旦某事可行,就能以极高效率复现甚至做到局部更好 [19] - 长期挑战在于文化差异,即“敢突破新范式、敢冒险的人不够多”,并面临两个现实瓶颈:光刻机突破决定的算力瓶颈,以及是否能诞生更成熟的To B市场并在国际竞争,应避免过分刷榜,更关注做“正确的事”和用户体验 [20] - 相对冷静的观点认为,中国AI超过美国的概率最乐观情况为20%,中美算力差异不仅是绝对量级(美国算力比中国大1-2个数量级),更是结构性的:美国将相当一部分算力投入下一代研究,而中国仍在解决任务交付爆发带来的算力瓶颈 [21] - 但“穷则生变”,作为“算力穷人”,中国团队更有紧迫感和动力去思考算法与基础设施(Infra)的联合优化,这可能倒逼创新发生 [21] - 面对光刻机瓶颈,有可能从软硬结合的角度,通过下一代模型结构和芯片实现端到端(End-to-End)的突破 [21]
分化、新范式、Agent 与全球 AI 竞赛,中国模型主力选手们的 2026 预测
Founder Park· 2026-01-13 22:55
文章核心观点 文章总结了AGI-Next 2026活动中的核心洞察,指出华人团队已成为AGI领域的核心玩家,中国开源模型位居全球第一梯队[6]。活动揭示了AI发展的几大关键趋势:模型在To B和To C场景需求下出现显著分化;自主学习成为行业共识的新范式;Scaling(规模扩展)将持续但需关注智能效率;模型即Agent,Agent即产品;中美AI竞赛在算力、市场和文化上存在结构性差异[7]。 模型分化趋势 - 分化体现在两个角度:To C与To B场景之间,以及“垂直整合”与“模型应用分层”两条技术路线之间[8] - To C场景的瓶颈往往不是模型不够强大,而是上下文(Context)和环境(Environment)信息的缺失,例如模型难以准确回答“今天吃什么”这类高度个性化的问题[8] - To C场景的解法在于利用真正的个性化数据(如在合规前提下使用微信聊天记录),这比盲目追求更强的预训练模型能带来更大价值[8] - To B市场内部将出现强模型与弱模型的分化,且差距会越来越大。企业用户愿意为“最强模型”支付溢价,因为即便弱模型更便宜,但其错误难以预测和监控,企业更倾向于选择高准确率的强模型(例如Opus 4.5做10个任务能对8-9个,而弱模型只能对5-6个)[9] - To C场景适合模型与产品进行All-in-one的垂直整合,而To B(生产力应用)因涉及复杂生产环节,为应用公司提供了优化空间,从而出现了模型公司与应用公司之间的分层[9] - 模型分化并非预设路线图,更多是自然演化的结果,源于与客户的高频交流[9] - 模型竞争的时机也影响分化,例如智谱AI在DeepSeek出现后判断“Chatbot取代搜索”的竞争已基本结束,从而选择押注Coding领域[10] 新范式:自主学习与Scaling演进 - Scaling(规模扩展)会继续,但需区分两种方向:一是沿已知路径增加数据和算力;二是探索未知的新范式,让AI系统自主定义奖励函数、交互方法和训练任务[12][13] - Scaling Law的核心是将能源高效转化为智能,是技术、数据与审美(taste)共进的过程,探索前沿智能不会因潜在风险而停止[13] - 自主学习的目标是让模型具备自反思与自学习能力,通过持续的自我评估与批判来优化行为[14] - 新范式是一个正在发生的“渐变”过程,2025年已出现信号,例如Cursor的Auto-complete模型每几小时就用最新用户数据学习,ChatGPT利用用户数据拟合聊天风格,Claude Code编写了自己项目95%的代码[15] - 思考新范式的最大瓶颈是想象力,需要构想出证明其实现的具体任务(如变成赚钱的交易系统或解决科学难题)[15] - 从实际角度,强化学习(RL)的潜力尚未被充分挖掘,下一代范式的两个维度是自主学习以及AI具备更强的主动性(无需人类Prompt,由环境触发)[15] - 主动学习(Active learning)会带来严重的安全挑战,风险在于“做不该做的事”,而非“讲不该讲的话”,因此必须为其注入正确的方向[16] - 持续学习在多Agent串联的长程任务中面临挑战,若单个Agent能力未达100%,后续能力会指数级下降,可能需要探索类似人类睡眠的“清噪”机制[16] - 提出了“智能效率”(Intelligence Efficiency)概念,未来范式应关注投入多少资源能获得多少智能增量,以解决成本瓶颈[16] - 大模型发展可借鉴人脑认知,在多模态、记忆与持续学习、反思与自我认知这几个人类领先的领域寻求突破[17] - 智谱AI参考人类认知提出AI系统三模块:系统一(模式匹配)、系统二(推理)、自学习,分别对应数据与模型规模Scaling、推理能力Scaling、以及环境Scaling(从与外界交互中获得反馈)[17][18] 原生多模态 - 原生多模态模型与人类的“感统”相似,能同时处理视觉、声音、触觉等信息,但当前模型的感统能力尚不充分[19] - 多模态感统是智谱AI今年的重点方向之一,具备此能力后,AI才能在真实环境中执行长链路、长时效任务[19] - 多模态是通向真正智能的天然路径,但存在“多模态能否驱动智能”的争论[19] - 从第一性原理出发,为模型增加视觉、语音等多模态能力是为了提供更多生产力和更好帮助人类,是自然而然的选择[20] - 视频是更广义的表达,理解长视频是一个有意义的探索方向[21] Agent(智能体)的发展 - 编程(Coding)是通往Agent的必经之路,智谱AI的实践表明,仅靠跑分高的模型(如GLM-4.5)写不出“植物大战僵尸”游戏,需引入RLVR和真实编程环境训练(如GLM-4.7)才能解决[22] - 模型即产品,Agent要实现复杂任务对模型要求极高,模型本身就是Agent,Agent就是产品,做基础模型就是在做产品[22] - Agent在To C和To B场景同样存在分化:To C产品的成功指标有时与模型智能不相关甚至相反;To B的Agent则更依赖模型智能提升来解决真实世界任务、创造价值[23][24] - 生产力场景的Agent才刚起步,除了模型进步,环境和部署(deployment)同样关键。即使模型不再变好,将现有模型部署到各公司也能带来10倍甚至100倍的收益,但目前AI对全球GDP的影响还远不到1%[24] - 未来的Agent将向“托管式”发展,用户设定通用目标后,Agent在后台长时间独立运行直至完成任务,这要求模型具备自我进化(Self-evolution)和主动学习能力[25] - 在开发通用Agent时,解决长尾任务更值得关注,用户感知到的AI价值往往源于某个特定长尾任务被解决[25] - 做通用Agent是见仁见智的问题,对于模型公司而言,许多工程问题可能“烧一烧卡”就可解决,因此“模型即产品”对它们而言是机会[25] - Agent发展可从两个维度划分四象限:目标定义(人为/自动)和任务规划(人为/自动)。当前处于初级阶段(两者皆人为定义),未来将发展为由大模型内生定义目标和规划的系统[26] - 决定Agent未来走势的关键问题包括:能否真正解决人类任务并创造价值、成本(Cost)大小、以及应用公司的迭代速度是否能拉开时间窗口[27][28] 全球AI竞赛:中美对比与展望 - 对于中国AI在3-5年内进入全球第一梯队持乐观态度,因为中国在制造业、电动车等领域已证明,一旦某事可行,便能以极高效率复现甚至做到局部更好[29] - 长期挑战在于文化差异(敢突破新范式、敢冒险的人不够多)和两个现实瓶颈:算力(核心在于光刻机是否有突破)以及是否能诞生更成熟的To B市场并在国际竞争[30] - 中美算力差异不仅是绝对量级上的(美国算力比中国大1-2个数量级),更是结构性的:美国将相当一部分算力投入下一代研究,而中国仍在解决任务交付爆发带来的算力瓶颈[30] - 相对冷静的观点认为,中国AI超过美国的概率最乐观情况为20%[30] - “穷则生变”,作为“算力穷人”,中国团队更有紧迫感和动力去思考算法与基础设施(Infra)的联合优化,这可能倒逼创新发生[30] - 面对光刻机瓶颈,需思考是否可能从软硬结合的角度,通过下一代模型结构和芯片实现端到端(End-to-End)的突破[31]