自主学习
搜索文档
特斯拉称其人形机器人将能在任何宜居星球上独立建立文明
凤凰网· 2026-02-05 16:11
公司产品发布 - 特斯拉CEO埃隆·马斯克通过官方微博预告视频正式宣布 第三代特斯拉人形机器人即将与公众见面 [2] - 第三代特斯拉人形机器人的最大突破在于其自主学习能力 [2] 产品技术特性 - 该机器人无需复杂编程 仅通过观察人类行为 接收口头描述或观看演示视频 就能快速掌握新技能并执行各类任务 [2] - 该技术实现了人机交互的高度便捷化 [2] - 马斯克称 它将是一款通用人形机器人 能够通过观察人类的行为学习新技能 [2] - 用户可以通过演示 口头描述 甚至展示一段视频来教导机器人执行任务 [2] - 马斯克认为 它的表现将令所有人大吃一惊 [2]
Skills刚火,就有零Skill的Agent来了…
量子位· 2026-01-26 18:14
文章核心观点 - 介绍了一种名为“原位自进化”的新型AI智能体(Agent)范式,该智能体能够在执行任务的过程中,自主创造并积累可复用的工具,从而在无需预先定义技能(Skills)或依赖大量人类标注的情况下,动态扩展其能力边界,并在多个高难度基准测试中取得领先性能 [1][3][45][52] - 该研究由中国公司云玦科技的团队完成,其核心是“工具优先”的理念,通过一个包含管理者、工匠、执行者和整合者的多角色系统实现智能体的自我进化,且该框架已开源 [60][68][88][90] - 该技术被视为解决AI在开放性、可控性与经济性之间“不可能三角”的一种潜在方案,通过让智能体在推理阶段“边做边学”,有望使开源模型获得动态优势,从而与闭源模型竞争 [106][114][115][128] 技术原理与框架:原位自进化 - 核心概念是“原位自进化”,这是一种发生在模型推理阶段的自进化过程,区别于传统在训练阶段依赖外部监督信号的自进化 [45][52] - 该框架无需外部监督或真值标注,仅依靠模型推理时的内部反馈和过往交互经验,就能提炼出可复用的通用技能,实现“边做边学” [53][54] - 团队选择了“工具优先”的进化路径,认为工具直接决定了智能体的能力边界,且工具执行产生的代码报错等二元判别信号是天然的高质量监督信号,无需人类标注 [61][62][65][66] - 智能体系统由四个角色协同工作:管理者负责任务分析与规划;工匠负责按需创建新工具;执行者使用工具执行任务;整合者生成最终答案 [68][69][70][71][74] - 任务完成后,系统会进行复盘,将迭代过程沉淀为可复用的方法论并更新工具库,同时引入“并行批处理”机制,通过批量处理相似任务来大幅提升进化效率 [77][83][84][85] 性能表现与实验结果 - 以Gemini 3 Pro为后端模型的该智能体,在被称为“地狱级评测”的HLE基准测试中表现出色,成绩仅次于GPT-5.2-Pro智能体 [4] - 在多个高难度评测集(HLE, DeepSearchQA, FinSearchComp, XBench)中,该智能体的性能超越了官方未披露方法的含工具使用的结果,高出近20分 [5] - 在总计处理近4000道题目的过程中,智能体从零开始自主创造了128个工具,其中在HLE的2000多道题上就创造了97个工具 [19][24] - 工具创造呈现边际效应递减并最终收敛于128个,表明所造工具具备高度的可复用性,能够覆盖后续绝大多数新任务,无需继续扩张 [27][28][29][32][33] - 在知识迁移策略下,旧工具库能有效减少新工具的创造需求,例如在XBench的两个阶段,新工具创造数量直接降为0 [35] - 智能体最常使用的工具与人类工作习惯高度一致,如网页搜索、内容获取、计算器、文件下载等,且工具使用频率呈现明显的马太效应 [38][39] 行业背景与意义 - 行业普遍认为,实现人工超级智能的关键节点之一是AI能够自进化,但传统讨论多集中于参数层面的进化 [56] - 该研究关注的是工作流、记忆和工具层面的进化,被视为更现实可行、能立即落地的解决方案 [57][58] - 该技术有望破解AI在To C场景下面临的“开放性、可控性、经济性”不可能三角:通过工具集解决能力边界问题,通过代码执行反馈保障可控性,并通过自进化处理开放需求同时控制成本 [106][114][115][116] - 对于开源生态而言,该技术可能改变游戏规则,若能赋予开源模型“越用越好用”的动态自进化能力,将有助于其与闭源模型竞争 [118][120][128] 研究团队与项目细节 - 该研究由云玦科技的团队完成,该公司由前阿里巴巴集团副总裁彭超创办,旨在开发可穿戴通用智能体 [91] - 论文通讯作者是云玦科技联合创始人兼CTO齐炜祯,他是多词元预测架构ProphetNet的第一作者,该架构被DeepSeek V3、Qwen-3-Next等多款主流大模型采用为核心预训练方法 [92][94][95] - 论文第一作者是李昊天(哈工大博士生)和杨释钧(中科大硕士生),他们在云玦科技实习期间完成了此项工作 [103] - 该研究实验经费仅为15万元,所有数据集和实验结果均为“一次通过”,没有资源进行反复调参,凸显了方法的稳健性 [104] - 该项目已完全开源,包括实验的所有日志数据、评测脚本和结果 [88]
智商155的马斯克为何能跨界颠覆?秘密藏在“卓越型脑能结构”里
搜狐财经· 2026-01-26 16:59
行业核心观点 - 文章核心观点认为,在AI技术飞速迭代的背景下,传统教育模式面临挑战,培养孩子未来竞争力的关键在于构建“卓越型脑能结构”,而非单纯依赖智商或重复学习[1][8] - 行业观点指出,未来社会真正稀缺的是跨域迁移、结构建模、稳定推进等核心能力,这些能力全部源于卓越型脑能结构,与《教育强国建设规划纲要(2024–2035)》中提升学生核心思维能力的政策方向高度一致[8] 教育市场痛点与现状 - 多数孩子面临拖拉磨蹭、注意力不集中、成绩不稳定等问题,根源在于其脑能结构长期停留在“发展型”或“重构型”,未能进入“卓越型”状态[2] - 普通孩子的脑能链路常出现“卡壳”,表现为自主启动难、推进易受阻、注意力不持久、情绪易夺权、学完不会用等问题,这与智商无关,而是脑能思维链断裂所致[2] - 研究数据显示,中国家庭中仅2%的孩子能进入“卓越型脑能”状态,显示出该能力的稀缺性[6] 脑能结构模型与科学拆解 - “卓越型脑能结构”的核心优势在于“六链闭环”的完整协同运转,包括:开始链、推进链、持续链、情绪链、反思链、结构链[9] - 这六条链路的协同构成了“结构级优势”,使个体能够快速理解、构建并实现跨领域突破[6] - NeuroPro的脑能三型结构模型揭示了普通孩子与卓越孩子之间差距的本质在于大脑能力链条是否完整运转[2] 公司产品与解决方案 - NeuroPro通过四大核心体系,使卓越型脑能结构变得可测试、可塑造、可验证、可复制[7] - 核心技术基座包括:脑能三型结构模型、四大模块·43项能力量化指标、24项可观察指标、脑能深度构建4S体系[9] - 公司的脑能家庭教育陪跑机制能帮助父母在家庭场景中精准导入卓越型脑能思维链,促使孩子形成自主学习能力,而非依赖外力催促[7] 行业趋势与政策支持 - AI时代将替代大量重复型任务,未来核心竞争力转向跨域迁移、结构建模、稳定推进、情绪调控、自主执行、深度反思等能力,这些均源于卓越型脑能结构[8] - 《教育强国建设规划纲要(2024–2035)》明确提出要“强化科学教育与素质培养,提升学生核心思维能力”,与脑能深度教育科技的理念高度一致[8] - 行业实践表明,家庭教育的关键在于精准识别孩子的脑能结构,通过科学方式修复断裂链路,构建完整的脑能思维链闭环,而非盲目补课或施压[8]
猿编程的火箭男孩 逐梦航天的科技少年
证券日报网· 2026-01-14 18:48
公司业务与教育模式 - 公司为一位12岁的小学员提供了系统化的编程能力培养与认知重塑服务,帮助其将航天兴趣转化为实际能力 [4] - 公司的教学体系(文中称为“4C体系”)帮助学员将编程从一项技能提升为认识世界、解决问题的思维方式,并建立跨学科视角 [16] - 学员通过公司的课程体系化学习了C++语言,为其火箭项目提供了关键的编程控制能力 [10] - 学员的学习模式是项目驱动式学习,以造火箭为目标,自然驱动其学习编程、建模等知识,公司课程为其提供了系统化的知识注入 [10] 客户案例与成果展示 - 一位12岁的学员在过去四年中,于家庭工作室设计、测试并发射了两枚自制的固体燃料火箭 [1] - 该学员在9岁时自制火箭发射成功,被称为中国自制固体燃料火箭最小研发者 [4] - 学员的第一代火箭于2023年6月成功发射,但升空后因隔热问题失控,随后他像程序员审视错误日志一样分析残骸 [11] - 学员为第二代火箭“森行号”亲手编写了超过六百行代码,并为其加入了更强的控制系统 [12] - 在一位前长征火箭工程师的远程协助下,学员解决了第二代火箭代码调试中的问题,例如为控制系统加入滤波算法以排除传感器信号噪声 [15] - 第二代火箭最终成功发射,实现了自动采集飞行数据并成功开伞,证明了其技术的成功 [18][19] - 学员目前正全心投入设计第三代火箭,目标是从“实现功能”转向“构建系统”,计划将所有功能集成到自己设计的三块电路板中 [20] 行业趋势与教育理念 - 该案例展现了当代教育的一种新可能:当孩子的兴趣被认真对待并获得适宜的学习工具和实践机会,能展现出惊人的学习深度和创造潜力 [20] - 以真实问题为导向的系统思维、项目管理能力及在挫折中持续迭代的韧性,被认为是未来世界最为看重的素养 [19] - 青少年用编程能力去创造真实世界,不仅是在创造作品,更是在构建面向未来的关键能力,包括认知能力、思维模式、内心动力以及跨学科的实践能力 [20]
深度解读 AGI-Next 2026:分化、新范式、Agent 与全球 AI 竞赛的 40 条重要判断
36氪· 2026-01-14 08:17
模型与行业发展趋势 - 模型分化已成为显性趋势,分化原因多元,包括To B与To C场景需求差异、对竞争格局的押注以及不同AI实验室的战略选择 [1] - 在To B领域,强模型与弱模型的分化会越来越明显,企业用户愿意为“最强模型”支付溢价,因为强模型(如Opus 4.5做10个任务能对8-9个)能减少错误监控成本,而弱模型(可能只对5-6个)即便更便宜也带来额外管理负担 [2][3] - 在To C场景,任务瓶颈往往不是模型不够大,而是上下文(Context)与环境(Environment)的缺失,例如回答“今天吃什么”需要个性化数据,因此利用好合规的上下文数据(如微信聊天记录)比盲目追求更强预训练模型能带来更大价值 [2] - To C场景适合模型与产品进行垂直整合的All-in-one路线,而To B(生产力应用)因涉及复杂生产环节,给了应用公司优化空间,出现了模型公司与应用公司之间的分层 [3] - 模型分化也是自然演化的结果,源于与客户的高频交流,例如Anthropic进入金融领域就是在交流中发现的机会 [3] - 模型分化的时机与竞争格局判断相关,例如智谱AI在DeepSeek出现后判断“Chatbot取代搜索”战局已定,从而选择押注编程(Coding)领域 [4] 技术新范式与自主学习 - Scaling(规模扩展)仍会继续,但需区分已知路径(通过增加数据和算力探索能力上限)与未知路径(寻找新范式,让AI系统自主定义奖励函数、交互方法和训练任务) [5][6] - Scaling Law的核心是将能源高效转化为智能,是技术、数据与品味(taste)共进的过程,探索前沿智能不会因潜在风险而停止 [8] - 自主学习是共识性极强的新范式,目标是让模型具备自反思与自学习能力,通过持续自我评估与批判来优化行为路径 [8] - 新范式的发生是一个“渐变”过程,已有信号显现,例如Cursor的Auto-complete模型每几小时用最新用户数据学习,ChatGPT拟合用户聊天风格,Claude Code编写了自己项目95%的代码 [8] - 新范式发展的最大瓶颈是想象力,即需要构想出证明其实现的具体任务,例如变成一个赚钱的交易系统或解决未解科学问题 [8] - 从实际角度看,强化学习(RL)的潜力尚未被充分挖掘,下一代范式包括自主学习以及AI具备更强的主动性,未来模型可能不再需要人类提示(Prompt),而是由环境直接触发 [9] - 主动学习(Active Learning)会带来严重的安全挑战,风险不在于“讲不该讲的话”,而在于“做不该做的事”,因此必须为其注入正确的方向 [9] - 持续学习(Continual Learning)中,对于多智能体(Agent)串联的长程任务,若单个智能体能力未达100%,后续能力会呈指数级下降,可能需要探索类似人类睡眠的“清噪”与新计算模式 [9] - 提出了“智能效率”(Intelligence Efficiency)概念,未来范式应关注“投入多少资源能获得多少智能增量”,以解决成本瓶颈 [10] - 大模型发展借鉴人脑认知,在多模态、记忆与持续学习、以及反思与自我认知这几类人类显著领先的能力上,可能是新的突破方向 [10] - 智谱AI参考人类认知提出AI系统三模块结构:系统1(模式匹配与知识提取,对应数据与模型规模的Scaling-up)、系统2(知识融合与推理,对应Reasoning的Scaling)、自主学习(对应Environment Scaling,让模型从与外界交互中获得反馈) [10] 多模态与感知能力 - 原生多模态模型与人类的“感统”相似,能汇集视觉、声音、触觉等信息进行综合感知,但当前模型的感统能力并不充分 [11] - 多模态感统是智谱AI今年的重点方向之一,具备此能力后,AI才能在真实工作环境中执行长链路、长时效任务,如在手机、电脑等设备上持续协作 [11] - 多模态同样是Qwen的持续发展方向,认为真正智能的东西天然应该是多模态的,但存在多模态能否驱动智能的争论 [11] - 从第一性原理出发,为模型提供更多生产力、更好地帮助人类,发展视觉、语音等多模态能力是自然而然的选择 [11] - 视频是更广义的表达,理解长视频是一个有意义的探索方向 [12] 智能体(Agent)的发展与产品化 - 编程(Coding)是通往智能体(Agent)的必经之路,例如智谱AI的GLM-4.5虽跑分高但写不出“植物大战僵尸”游戏,通过引入RLVR和大量真实编程环境训练,GLM-4.7才解决了该问题 [13] - 模型即智能体,智能体即产品,实现复杂任务对模型要求极高,因此做基础模型本身就是在做产品 [13] - 模型在To B和To C的分化同样体现在智能体上:To C产品的指标有时与模型智能不相关甚至相反;To B的智能体则更依赖模型智能提升来解决真实世界任务、创造价值 [14] - 生产力场景的智能体才刚开始,除了模型进步,环境与部署(deployment)同样重要,是创造价值的关键,即使模型不再变好,将现有模型部署到各公司也能带来10倍甚至100倍的收益,但目前AI对GDP的影响还远不到1% [14] - 未来的智能体将变成“托管式”,用户设定通用目标后,智能体在后台长时间独立运行直至完成任务,这需要自我进化(Self-evolution)与主动学习(Active Learning)能力支撑 [15] - 在通用智能体开发中,解决长尾任务更值得关注,用户感知AI的价值常因某个长尾任务被解决,今天的AGI本质上也在解决长尾问题 [15] - 通用智能体的开发见仁见智,若应用公司没有比模型公司做得更好的信息优势,那么“模型即产品”对模型公司是机会,因为许多工程问题可能只需“烧卡”即可解决 [15] - 智能体的发展可从两个维度划分四象限:目标定义(人为/自动)和任务规划(人为/自动),目前处于初级阶段(目标与规划皆由人定义),未来将发展为由大模型内生定义 [16] - 决定智能体未来走势的重要问题包括:能否真正解决人类任务并创造价值、成本有多大、以及应用公司的迭代速度是否能拉开时间窗口 [17][18] 全球AI竞赛与中美对比 - 对于中国AI在3-5年内进入全球第一梯队持乐观态度,因为中国在制造业、电动车等领域已证明,一旦某事可行,就能以极高效率复现甚至做到局部更好 [19] - 长期挑战在于文化差异,即“敢突破新范式、敢冒险的人不够多”,并面临两个现实瓶颈:光刻机突破决定的算力瓶颈,以及是否能诞生更成熟的To B市场并在国际竞争,应避免过分刷榜,更关注做“正确的事”和用户体验 [20] - 相对冷静的观点认为,中国AI超过美国的概率最乐观情况为20%,中美算力差异不仅是绝对量级(美国算力比中国大1-2个数量级),更是结构性的:美国将相当一部分算力投入下一代研究,而中国仍在解决任务交付爆发带来的算力瓶颈 [21] - 但“穷则生变”,作为“算力穷人”,中国团队更有紧迫感和动力去思考算法与基础设施(Infra)的联合优化,这可能倒逼创新发生 [21] - 面对光刻机瓶颈,有可能从软硬结合的角度,通过下一代模型结构和芯片实现端到端(End-to-End)的突破 [21]
深度解读 AGI-Next 2026:分化、新范式、Agent 与全球 AI 竞赛的 40 条重要判断
海外独角兽· 2026-01-13 20:33
文章核心观点 - 华人已成为AGI领域的重要力量,中国开源模型是全球Tier 1,预计到2026年地位将更加牢固[1] - 大模型行业正经历显著分化,主要体现在To B与To C场景、以及垂直整合与分层路线上[3] - 自主学习是行业共识性极强的新范式,预计2026年将成为主要投入方向[1] - Scaling(规模扩展)将继续,是技术、数据与品味共进的结果,探索前沿智能不会停止[1] - 模型即Agent,Agent即产品,两者趋于一体化[1] - 中美AI竞赛存在结构性差异,美国算力比中国多1-2个数量级,且更多投入下一代技术探索[1] 模型分化趋势 - 分化趋势显性,原因多元,包括To B和To C场景需求差异、对竞争格局的思考以及不同AI实验室的战略选择[1] - To B领域会出现强模型与弱模型的分化,且会越来越大[1] - To C场景的任务瓶颈往往不是模型不够大,而是上下文(Context)和环境(Environment)的缺失[1] - 在To C逻辑下,大多数用户大多数时候不需要很强的智能,模型智能提升的体验不强烈[3] - To C问题的解法在于真正的个性化数据,例如在合规前提下利用微信聊天记录等上下文,比追求更强预训练模型带来更大价值[3] - 在To B市场,用户(企业)愿意为“最强模型”付出溢价,因此强模型与弱模型的分化会越来越明显[3] - 例如,Opus 4.5这类强模型做10个任务能对8-9个,而弱模型只能对5-6个,即使后者更便宜,但企业因监控错误成本高而更倾向于选择强模型[4] - To C场景中,模型做All-in-one的垂直整合成立,模型与产品可强耦合迭代;而To B(生产力应用)因涉及多生产环节,给了应用公司优化空间,出现了模型公司与应用之间的分层[4] - 模型分化并非预设路线图,更多是自然演化的结果,通常源于与客户的高频交流[4] - 分化与模型竞争的时机相关,例如智谱AI押注Coding是基于对当时模型竞争格局(如DeepSeek出现后Chatbot取代搜索之战基本结束)的判断[5] 新范式:自主学习 - Scaling会继续,但需区分两种方向:Scaling已知路径(增加数据和算力)和Scaling未知路径(寻找新范式,让AI系统自己定义奖励函数、交互方法等)[5] - 当下AI社区对新范式尚无统一定义,自主学习、主动学习、持续学习等概念本质都预期模型能在人类不介入下提升智能[6] - Scaling Law被总结为一种将能源转化为智能的视角,核心在于高效逼近智能上限,是技术、数据与审美的共进[6] - 自主学习的目标是让模型具备自反思与自学习能力,通过持续的自我评估与批判来优化行为路径[6] - 新范式的发生是一个正在发生的“渐变”过程,2025年已出现信号,例如Cursor的Auto-complete模型每几小时用最新用户数据学习,ChatGPT利用用户数据拟合聊天风格,Claude Code写了自身项目95%的代码[6] - 新范式的最大瓶颈是想象力,即需要构想出证明范式实现的具体任务(如赚钱的交易系统或解决未解科学问题)[7] - 从更实际角度看,强化学习(RL)的潜力尚未被充分挖掘;下一代范式存在两个维度:自主学习和AI具备更强的主动性(未来模型可能不再需要人类提示,而是环境本身就能提示它)[7] - 主动学习会带来严重的安全挑战,风险不在于“讲不该讲的话”,而在于“做不该做的事”,因此必须为其注入正确的方向[7] - 自主学习能体现到个性化上,但衡量其是否“变好”会变得困难,因为当AI覆盖生活方方面面后,评估指标变得极其模糊[7] - 对于多Agent串联的长程任务,一旦Agent能力未达100%,后续能力往往呈指数级下降;人类通过睡眠“清理噪音”,AI可能需要探索类似的清噪与新计算模式[8] - 提出了“智能效率”(Intelligence Efficiency)概念,即关注投入多少资源能获得多少智能增量,这是解决成本瓶颈的关键[8] - 大模型发展路径借鉴人脑认知学习过程,而在多模态、记忆与持续学习、反思与自我认知这几类能力上,人类显著领先于当前模型,这些可能是新的突破方向[8] - 智谱AI在2020年参考人类认知规划了AI系统结构图,包含三个模块:系统一(模式匹配与知识提取)、系统二(知识融合与推理机制)、自主学习,分别对应数据与模型规模的Scaling-up、推理的Scaling、以及环境Scaling(让模型从与外界交互中获得反馈)[9][10] 原生多模态 - 原生多模态模型和人的“感统”相似,能汇集视觉、声音、触觉等信息,但当前模型的感统能力并不充分[11] - 多模态感统是智谱AI今年的重点方向之一,具备此能力后,AI才能在真实工作环境中执行长链路、长时效任务[11] - 多模态同样是Qwen持续要做的事情,认为真正智能的东西天然应该是多模态的,但存在多模态能否驱动智能的争论[11] - 从第一性原理出发,为模型提供更多生产力、更好帮助人类,做视觉、语音等多模态能力是自然而然的选择[11] - 视频是更广义的表达,图片可理解为单帧视频,理解很长视频是很有意思的事情[11] Agent发展 - Coding是通往Agent的必经之路,例如智谱AI的实践中,GLM-4.5虽跑分高但写不出“植物大战僵尸”游戏,通过引入RLVR和大量真实编程环境训练,GLM-4.7才解决了该问题[11] - 模型即产品,Agent要实现复杂任务对模型要求相当高,模型就是Agent本身,Agent就是产品本身,做基础模型也就是在做产品[12] - 模型To B和To C的分化同样体现在Agent上:To C产品的指标有时与模型智能不相关甚至相反;To B的Agent甚至不需要做太多创新,模型智能提升、解决真实世界任务能力提高就能创造更多价值[12] - 生产力场景的Agent才刚开始,除了模型进步,环境和部署同样重要,是Agent创造价值的关键:即使模型不再变好,只要把现有模型部署到各公司,也能带来10倍甚至100倍的收益,但今天AI对GDP的影响还远不到1%[13] - 教育非常重要,会使用AI工具的人正在替代那些不会使用工具的人[13] - 未来的Agent将变成“托管式”,用户设定通用目标后,Agent在后台长时间独立运行直至完成任务[13] - Agent要做到这一点离不开前面提到的自我进化以及主动学习,在此逻辑下,“模型即Agent,Agent即产品”[13] - 做通用Agent过程中,长尾任务更值得关注,用户感受到AI的价值与魅力往往因为某个长尾任务被解决,今天的所谓AGI本质上也在解决长尾问题[13] - 做通用Agent是见仁见智的问题,如果作为“套壳”方没有比模型公司做得更好的信息,那么通用Agent就是“模型即产品”的机会,因为对模型公司来说,很多工程问题可能只是“烧一烧卡”就可解决[14] - Agent发展可划分为四个象限,从两个维度看:目标定义(人为/自动)和任务规划(人为/自动);今天处于初级状态(目标与规划皆由人定义),未来会出现大模型观察人的工作并使用人的流程数据,最终目标与规划皆可由大模型定义,Agent应是大模型内生的原生系统[14] - 决定Agent未来走势的几个重要问题:是否能真正解决人类任务并创造价值及价值大小;Agent成本有多大(成本过高是问题,若调用API就能解决,模型厂商意识到价值大时就会自然做进去,这是基座模型与应用之间的矛盾);应用公司的迭代速度(若Agent团队有能力拉开半年时间窗口满足用户需求,就有机会持续往前走)[14][15] 全球AI竞赛 - 对于中国AI在3-5年内进入全球第一梯队持乐观态度,因为中国最大的优势在于一旦证明某件事可行,就有能力以极高效率复现、甚至做到局部更好[17] - 但长期视角中更核心的问题在于“敢突破新范式、敢冒险的人不够多”的文化差异,此外还需面对两个现实瓶颈:算力瓶颈(核心在于光刻机是否有突破)和是否能诞生更成熟的To B市场并在国际市场竞争(应更关注“正确的事”和用户体验,而非过分刷榜)[17][18] - 另一种观点认为,中国AI超过美国的概率最乐观情况为20%[18] - 中美AI之间算力差异不只是绝对量级上的,还是结构性的:美国算力比中国大1-2个数量级,但最关键的差异在于,美国有相当一部分算力投入到了下一代的研究中,而中国今天还在解决任务交付爆发带来的算力瓶颈[1][18] - 但从历史经验看,“穷则生变”,作为“算力穷人”,中国团队更有紧迫感和动力去思考算法与基础设施的联合优化,这个出发点可以倒逼创新发生[18] - 面对光刻机的现实瓶颈,有可能在下一代的模型结构和芯片上从软硬结合的角度端到端地实现突破[18]
月之暗面,豪赌下一代AI范式
36氪· 2026-01-13 20:04
文章核心观点 - 月之暗面(Kimi)作为独立大模型创业公司,正将资源集中投入于抢夺下一代AI技术范式(如自主学习、Token效率)的领先地位,但其面向消费者的AI应用助手Kimi因市场竞争加剧和资源倾斜,月活用户已大幅下滑,面临掉队风险 [1][2][4] - 公司选择暂不上市,依靠充足的现金储备(超100亿人民币)专注于长周期研发,但面临技术领先窗口期短、大厂资本碾压以及需尽快建立清晰商业模式的生存挑战 [5][10][11] 公司战略与融资状况 - 月之暗面创始人杨植麟表示“不急于上市”,因刚完成5亿美元C轮融资,公司拥有超过100亿人民币的现金储备,相当于友商IPO的融资规模 [5] - 公司将资源集中投入到大模型底层技术,延续2025年以来的策略,主要任务是ALL in模型能力和Agent [2][9] - 公司战略是典型的“长线豪赌”,其成功取决于未来2-3年内能否实现技术里程碑、在垂直领域建立不可替代性以及资本市场耐心是否匹配研发周期 [11] 技术路线与进展 - 技术重点压在提升Token效率上,目标是用更少的Token达到更低的损耗,在Kimi K2模型中尝试通过提升Token效率实现“用一半数据达到相同效果” [7] - 同时优化效率与长上下文能力,以在模型训练策略上达到最优的Agent效果 [7] - Kimi K2模型在基准测试中超越GPT-5、Sonnet 4.5等顶尖闭源模型,刷新SOTA,支持长链路、多步骤任务执行 [9] - 推出Agent模式OK Computer,已支持包括图片生成、音频生成在内的20多种工具 [9] 产品表现与市场挑战 - C端产品Kimi助手曾凭借长文本能力获得早期市场红利,投流最激进时单月投放超亿元 [1][12] - 随着DeepSeek、豆包等大厂产品的冲击,Kimi在2025年减少投流后月活明显下降 [2][12] - 据QuestMobile 2025年周活跃用户规模TOP10榜单,Kimi以450万的周活跃用户数仅排第7位,豆包周活跃数是其34倍(约1.53亿) [12] - Kimi的Web端流量从2025年6月开始反弹,访问量环比增长30%;2025年9-11月,其海外API收入增长4倍 [9] - 产品优势在于深度文本理解和分析,适合专业场景;不足在于功能相对单一,缺乏视觉、语音等交互方式 [14] 行业竞争格局 - 大模型技术领先优势窗口期越来越短,最先进的闭源模型可能只比同性能开源模型领先6个月 [10] - 中国大厂在AI领域投入巨大:百度2025年资本开支计划300至500亿元,腾讯700至1000亿元,阿里投入1200亿元,字节投入1600亿元 [14] - 行业共识是,单纯扩大模型规模(Scaling)的边际效益递减,自主学习被认为是下一阶段的技术范式 [6] - 行业正从技术叙事转向结果叙事,应用层被强调为价值创造的核心,其创造的价值可能达到芯片层的100倍 [11] - C端AI助手竞争激烈,豆包、通义、文心等大厂产品基本免费且大力推广,DAU和MAU逐步拉高 [12]
【全网无错版】上周末,唐杰、杨强、林俊旸、姚顺雨真正说了什么?
机器人圈· 2026-01-13 17:41
文章核心观点 文章记录了2026年初中国AI领域一场汇聚顶尖学者与产业界核心人物的圆桌讨论,探讨了中国大模型行业的发展分化、AGI的下一个技术范式、Agent战略以及中国AI的未来前景[1][6]。核心观点认为,中国AI行业在经历了2025年开源模型的爆发式增长后,正进入一个关键的分化与战略选择期,行业需从追随转向引领,通过聚焦特定方向、探索新范式、发展Agent应用并改善创新环境,以在全球竞争中占据领先地位[6][22][57][70]。 话题1:中国大模型将如何分化? - **市场出现To C与To B的明显分化**:ChatGPT和Claude Code分别被视为To C和To B的典范。To C应用对智能强度的需求增长放缓,而To B应用则因智能直接关联生产力,对最强模型有明确的付费意愿溢价[8][9][10][11]。 - **技术路径出现垂直整合与模型应用分层分化**:在To C场景,模型与产品强耦合的垂直整合模式依然有效(如ChatGPT、豆包)。但在To B生产力场景,趋势是模型层与应用层分离,强大的基座模型被多样化的应用层产品所利用[12]。 - **企业战略分化基于自身基因与数据优势**:腾讯作为To C基因强的公司,其瓶颈在于为模型提供更多上下文(Context)和环境(Environment),而非单纯追求模型规模[13][14]。大公司可利用其内部多样化的真实场景数据来训练模型,这相比依赖外部数据标注商能获得独特优势[15]。 - **分化是自然演进与客户需求驱动的结果**:行业分化并非完全预设,而是在与客户频繁交流中自然发现机会(如Anthropic聚焦Coding和Finance),中国SaaS市场环境与美国不同也影响了分化路径[17][18]。 - **学术界与工业界的分化与协作**:工业界在资源投入上主导发展,学术界应跟进解决基础科学问题,如智能上界、资源分配效率、哥德尔不完备定理下的幻觉消除极限等[19][20]。 话题2:AGI的下一个范式 - **自主学习(Self-learning)成为硅谷共识与热点方向**:该方向已被广泛讨论,但其具体形态因场景和奖励函数不同而多样,例如聊天个性化、编码环境适应、科学探索等[23]。 - **自主学习已在特定场景下以渐变形式发生**:例如ChatGPT利用用户数据优化聊天风格,Claude Code项目95%的代码由自身编写以实现自我改进,这被视为一种特定场景下的AGI体现[24]。 - **新范式的瓶颈在于想象力与评估标准**:实现突破的关键条件可能已部分具备(如Cursor的模型利用实时用户数据更新),但更大的挑战是如何定义和验证“实现了自我学习”的成功标准[25][26]。 - **OpenAI仍被视为最有可能引领新范式的公司**,尽管其商业化可能削弱了部分创新基因[26]。 - **强化学习(RL)的潜力尚未充分释放**:RL的计算规模(Compute)尚未充分扩展,仍存在基础设施(Infra)问题,其潜力有待进一步挖掘[27]。 - **Task-time Scaling(任务时间缩放)与主动性(Active Learning)是关键探索方向**:让AI在单次任务中通过消耗更多计算时间(Token)变得更强,以及让AI能根据环境信号自主启动并规划任务,是重要的范式候选,但伴随安全担忧[27][28]。 - **个性化(Personalization)可能是自主学习早期落地的场景**,但如何衡量AI时代的个性化效果成为新的技术挑战[29][30]。 - **记忆(Memory)技术的突破可能是线性发展后的感知临界点**:技术本身线性发展,但当记忆能力达到某个临界点,用户体验可能发生跃迁,类似电影《Her》中的效果,这可能需要一年左右时间[31]。 - **联邦学习(Federated Learning)代表的协作范式前景广阔**:通过“多个中心协作”模式,能结合通用大模型与本地专业化模型,在医疗、金融等隐私要求高的领域具有应用潜力[34]。 - **2026年出现新范式变革的驱动力增强**:学术界算力资源提升使其具备创新基础;工业界持续投入的边际效率下降,催生对“智能效率”(Intelligence Efficiency)提升新范式的需求[35][36][37]。 话题3:Agent战略 - **To B的Agent已进入价值上升曲线**:Anthropic的路径表明,在To B领域,模型智能提升与解决任务数量、商业收入增长高度一致,使得生产力Agent的发展势头强劲[41]。 - **当前Agent发展的两大瓶颈是环境部署与用户教育**:即使模型能力停滞,通过更好部署到各行业也能带来巨大经济收益(潜在影响GDP 5%~10%,目前远低于1%)。同时,会使用AI工具的人与不会使用的人之间的能力差距正在拉大,教育至关重要[41][42]。 - **产品哲学趋向“模型即产品”(Model as a Product)或“研究即产品”(Research as a Product)**:成功的Agent产品(如Manus)以及OpenAI的模式显示,研究员端到端地将研究转化为产品是重要趋势[43]。 - **未来的Agent将是“托管式”且与自我进化、主动学习强相关**:能够执行长时间、通用任务的Agent,需要在任务过程中自我进化并主动决策,这对模型能力提出更高要求[44]。 - **Agent的终极潜力在于与复杂物理环境交互**:超越电脑环境,指挥机器人进行湿实验等操作,才能实现自动化人类更长时间工作流的愿景,这可能需3-5年并与具身智能结合[45][46]。 - **通用Agent的机会在于解决长尾需求**:与推荐系统类似,解决海量个性化、非标的长尾问题是AI和通用Agent的核心魅力与挑战所在[46][47]。 - **强化学习(RL)降低了修复模型问题的难度**:相比以前,现在只需少量查询(Query)和奖励(Reward)数据,就能通过RL快速优化模型在特定问题上的表现[48][49]。 - **Agent将经历从人工定义到内生自动化的四个阶段**:从当前目标与规划皆由人定义,最终发展为目标和规划均由大模型自主定义的内生(Native)系统[51][52]。 - **Agent成功的三要素是价值、成本与速度**:需解决有真实价值的问题、控制实现成本,并在快速迭代的时间窗口内建立优势[54][55]。 话题4:中国AI的未来 - **中国在技术追赶和工程复现方面具备强大能力**:一旦技术路径被证明可行,中国团队能快速跟进并在局部做到更好,制造业和电动车已有先例[57]。 - **突破新范式需要更多冒险精神与前沿探索**:中国拥有大量顶尖人才,但相较于美国,愿意从事高风险、探索性前沿研究的人可能还不够多,这受经济、商业环境和文化因素影响[58]。 - **研究文化更倾向于做确定性高和看重榜单排名**:国内研究更聚焦已被验证的路径(如预训练),对探索性方向(如长期记忆)相对谨慎。同时,相较于海外更注重实际体验(如Claude的实用性),国内有时对刷榜数字看得更重[60][61]。 - **算力资源分配存在差距,但可能催生“穷则思变”的创新**:美国在用于下一代研究的计算资源上领先中国1-2个数量级,中国大量算力用于产品交付。资源紧张可能反而激励算法与基础设施的联合优化等效率创新[62][63][64]。 - **年轻一代冒险精神增强与营商环境改善是积极信号**:90后、00后的冒险精神更强,结合中国营商环境的持续改善,为创新提供了可能[65][70]。 - **对中国团队3-5年内成为全球AI领导者的概率判断存在分歧**:林俊旸认为概率低于20%,主要因历史积淀和算力差距[66]。姚顺雨表示乐观,认为关键在于能否引领新范式[57][58]。杨强回顾互联网发展,认为中国在应用层面,尤其是To C领域,有望百花齐放并领先[66][68]。 - **成功的关键条件包括人才、环境与坚持**:需要敢于冒险的聪明人、更有利于创新的营商环境(减少交付压力、鼓励竞争),以及从业者在选定的道路上笨拙而持久的坚持[69][70][71]。
马斯克的跨界秘诀:“卓越型脑能结构”,普通孩子也能拥有
搜狐财经· 2026-01-13 15:32
教育痛点剖析:多数孩子未进入“卓越型脑能”状态 - 核心问题在于孩子的“脑能结构”长期处于“发展型”或“重构型”状态,而非努力不足[2] - 普通孩子脑能链路常出现“卡壳”,表现为自主启动难、推进易受阻、注意力不持久、情绪易夺权、学完不会用、知识无法迁移[2] - 问题的根源是“脑能思维链”的断裂,与智商无关[2] 科学解码:卓越型脑能结构的“六链闭环”核心 - 卓越型脑能结构不等于聪明,而是六条关键链路的完整闭环运行[4] - 这六条链路包括:开始链、推进链、持续链、情绪链、反思链、结构链[5] - 这种“结构级优势”能让个体快速理解、构建并突破不同领域[4] - 研究显示,中国家庭中仅 **2%** 的孩子能进入“卓越型脑能”状态[4] 核心突破:NeuroPro让“卓越型脑能”可复制 - 通过四大核心体系,使卓越型脑能结构变得可测试、可塑造、可验证、可复制[8] - 四大体系包括:脑能三型结构模型、四大模块·43项能力量化指标、24项可观察指标、脑能深度构建4S体系[11] - 核心技术基座之一是“脑能家庭教育陪跑机制”,帮助父母在家庭场景中精准导入思维链,让孩子形成自主学习能力[8] 未来趋势:AI时代,脑能是核心竞争力 - AI技术将替代大量重复型任务,未来社会真正稀缺的是跨域迁移、结构建模、稳定推进、情绪调控、自主执行、深度反思等核心能力[13] - 这些核心能力全部源于卓越型脑能结构[13] - 公司的理念与《教育强国建设规划纲要(2024–2035)》中“强化科学教育与素质培养,提升学生核心思维能力”的要求高度一致[13] - 家庭教育的关键是精准识别孩子的脑能结构,通过科学方式修复断裂链路,构建完整的脑能思维链闭环[13]
“基模四杰”齐聚清华AI峰会 共话AI产业未来发展
21世纪经济报道· 2026-01-13 07:12
文章核心观点 - 中国AI行业领军人物在AGI-Next前沿峰会上,围绕下一代AI范式、Agent发展、大模型技术演进及市场分化等核心议题展开深度讨论,揭示了行业当前的技术重点与未来发展方向 [1] 大模型市场分化与商业模式 - 中美大模型市场均呈现明显分化,To C与To B市场的底层逻辑截然不同 [2] - 在To C市场,大部分用户大部分时间不需要极强的智能,应用更像是“搜索引擎的加强版”,厂商倾向于走“垂直整合”路线,即模型层与应用层紧密耦合、快速迭代 [2] - 在To B市场,智能越高代表生产力越高,溢价空间越大,企业付费意愿呈现极端头部效应,市场愿为顶级模型支付200美元/月订阅费,对50美元或20美元/月的次级模型兴趣寥寥 [3] - 在编程等严肃生产力场景中,较弱模型产生的错误带来的隐性成本远超模型差价,因此To B市场正走向分化,强模型与较弱模型的差距将更加明显 [3] 大模型技术演进重点 - 月之暗面(Kimi)2025年的两个技术进化主线是提升“Token Efficiency”(在有限数据下冲击更高智能上限)和扩展“长上下文”能力(满足Agentic时代的长程任务记忆需求) [1] - 未来To C产品的核心竞争力在于对“语境”(Context)的捕捉,如用户的实时状态、位置、历史偏好等,而不仅是推理能力 [3] - 鉴于国内企业软件市场付费意愿较弱,大型科技公司应利用自身庞大的内部场景(如拥有10万员工的大厂)进行模型验证,而非仅依赖外部标注商 [4] - 大模型发展面临效率瓶颈,数据规模从2025年初的10TB增长至当前30TB,未来可能扩展到100TB,但规模扩张带来的收益与高昂计算成本不成正比 [7] - 未来需明确“智能效率”(Intelligence efficiency)的核心地位,即在更少投入下实现更大的智能增量,这种对效率的追求将倒逼新范式诞生 [7] 下一代AI范式探讨 - 部分团队在2025年已尝试采用最新用户数据进行实时学习,但因其缺乏预训练能力,模型表现暂时不及OpenAI等头部产品 [4] - 自主学习发展面临的最大问题并非技术本身,而是“想象力”的缺失,行业尚未对自主学习实现时应呈现的具体任务与效果形成清晰认知 [4] - OpenAI依然是全球范围内最有可能在2027年实现新范式创新的企业,尽管其商业化因素已在一定程度上削弱了创新基因 [5] - 下一代AI范式的两个核心方向是:AI的自主进化(需解决上下文拉长导致AI“变笨”的问题)和AI的主动性提升(实现自主思考与行动,但伴随严峻安全风险) [5] - 持续理解用户需求、实现个性化交互,更有可能成为自主学习的首个突破口,而自动化AI研究员的实现或许无需依赖自主学习 [6] - 学术界与工业界的创新差距显著缩小,从2023-2024年算力差距高达万倍,到2025年底至2026年初差距缩小至约10倍,学术界已具备突破潜力 [7] AI Agent(智能体)发展 - AI Agent发展被视为2026年AI产业的关键变化 [8] - Agent发展分为四阶段:从目标和规划均由人类定义,过渡到AI自动定义,当前系统仍处于依赖人工设定的初级阶段 [8] - 未来将出现原生系统,即大模型能够观察人类工作,自主利用数据,内生地定义目标与规划路径 [8] - 通用Agent的核心能力在于解决长尾问题,其价值在于能解决用户“到处找不到答案”的难题 [8] - 创业者若“善于套壳”,在产品化上能做得比模型公司更好,仍有创业机会;模型公司的优势在于践行模型即产品原则,可通过重训模型从底层解决问题 [9] - Agent商业化落地的核心要素是价值、成本与速度,需解决真正有价值的人类事务,且成本不能过高 [9] Memory(记忆)技术展望 - Memory技术目前仅能让AI记住过往信息,但无法像人类一样深度理解运用 [6] - Memory技术可能还需一年左右发展,当算法与基础设施实现更好融合时,或许能达到让人类感受到类似人与人之间记忆理解能力的“临界点” [6]