持续学习
搜索文档
在被速度统治的时代,我们需要一份“慢”书单
财富FORTUNE· 2026-03-08 21:32
文章核心观点 - 文章通过汇集12位商界女性领导者推荐的16本书单,探讨了在快速变化和高度竞争的时代背景下,领导者如何通过阅读建立更宏大的思维尺度、内在秩序和行动智慧,从而超越对短期绩效和有限游戏的追逐,实现长期、可持续的个人成长与事业发展 [2][3] 书籍推荐与商业洞察 - **《文明论》**:在AI急速迭代和地缘政治多变的时代,该书引导读者从八千年的文明长河中寻找立身根基,将个体生命链接于更永恒的存在,从而获得内心的安定感,这种源自生命底色体认的自信,反而能让人在学习新事物时更加专注和高效 [5][6][7] - **《宇宙》**:提供了一种将个体置于浩瀚时间与空间中的视角,帮助读者认识到日常焦虑的相对性,从而在理性中保持诗意,在敬畏中坚持好奇,既承认局限也不放弃追问 [12][13] - **《原子习惯》**:强调真正的进步源于细微但持续的改变,1%的改进会在时间中产生惊人的复利,对于承担多重角色的女性而言,建立清晰方向、稳定节奏的可重复小行动,是可持续的自律方式 [13] - **《费曼经典:一个好奇者的探险人生》**:展示了好奇心作为一种力量的价值,它让人不急于下结论或站队,而是愿意多问多想,在强调效率和结果的时代,这种持续探索和更新自我的气质尤为珍贵 [12][14] - **《你当像鸟飞往你的山》**:重新定义了学习的意义,学习不仅是获取知识,更是不断突破认知边界、重塑自我的能力,这种能力是应对新市场、新挑战和艰难决策的重要底层能力 [16][17] - **《当呼吸化为空气》**:深化了对生命与勇气的理解,勇气是在恐惧中依然选择去做正确的事,这本书提醒人们保持对生命与责任的敬畏 [16][17] - **《心若菩提》**:通过曹德旺的真实经历,展示了创业者在面对拒绝、误解和质疑时应有的态度,创业的本质不分男女,真正的强大在于做人底线、做事格局以及历经艰险后心向光明的信念 [18][19] - **《超越百岁》**:阐述了健康的可塑性,健康是人生与事业的基石,在快速多变的时代,了解和保护好自己的身心是成功和幸福的基础 [21] - **《有限与无限的游戏》**:提供了重新理解事业边界、人际关系与自我价值的思维框架,商业中的多数任务是追求胜利的有限游戏,但行业的本质使命应是科技探索延续、精神传承和生态共生的无限游戏,最成功的实践者是能利用有限游戏的成果为无限游戏服务 [22][23][24] - **《每日斯多葛》**:通过每日短文的形式,将古典斯多葛哲学与现代职业生活结合,提供了关于掌控(区分可控与不可控)、逆境(以理性韧性回应)和自律(成功时谦逊、压力下镇定)的思考框架,帮助在不确定性中培养内在稳定 [26][29][32] - **《创业无畏》**:围绕互联网、大数据、AI、机器人、基因组学与合成生物学等指数型技术,回答了在指数级增长时代如何创造真实增量、推动组织升级的核心问题,认为在AI与能源革命并行的当下,每个人都可以成为内部创业者与创造者 [30][31][33] - **《无人之境:为何成长中的公司会失败》**:探讨了企业发展到中等规模后所面临的“无人之境”困境,指出决定走向的关键是组织能力,强调需要纪律、透明与高频沟通的团队,简化管理流程,聚焦可衡量的附加值,并确保1%的愿景有99%的执行一致性 [34][35] - **《人类存在的意义》**:从人类起源出发,结合人文与自然科学,思索人类存在的意义以及与自然的关系,唤起人们对创造更美好世界的向往 [36][38] - **《持续的幸福》**:提出幸福是可被系统性培养的能力,其PERMA模型与当前教育目标从“人力资本”转向“绽放的人生”的趋势相契合,关注个体福祉、意义与社会连结 [39][40][41] - **《第一选择》**:打破了“平衡神话”,强调每个阶段都要选择最重要的事,展现了在战略决策(如重塑百事业务版图)与个人生活(如家庭角色)间清醒取舍的领导哲学,变革始于对“人”的深刻共情 [42][43] - **《哈萨比斯:谷歌AI之脑》**:揭示了DeepMind创始人在资本、科技竞赛与伦理困境中保持初心的历程,展现了对跨界思维、长期主义和对“正确之事”的坚持,这些品质在AI重塑世界的当下尤为珍贵 [42][44][45] 行业趋势与领导力反思 - 在2026年这个以速度为底色的时代,商业领导者普遍面临被效率驱动、被迫更快决策迭代的压力,容易丢失更宏大的尺度 [2] - 科技行业亲历者指出,技术的快速迭代(如AI)虽能提升大脑的竞争适应力,但无法直接兑换为生命的安定感与幸福感,这催生了从古老智慧中寻找根基的需求 [5] - 商业航天领域的创业者反思,行业已习惯于用确定性和成绩定义价值,但行业的本质使命应是超越企业胜负的无限游戏,例如SpaceX实现了从追求单次任务胜利的有限思维,向以协同共生、长期主义、拓展人类文明边界为目标的无限游戏的范式转移 [23][24] - 在工程等行业面临前所未有的不确定性时,培养内在的稳定与清醒变得愈发重要,领导者不仅需要出色表现,更需在纷扰中保持真我 [29] - 面对平台力量崛起、商业逻辑重构和不确定性加剧的环境,指数型技术为创造真实增量、推动组织配套升级提供了清晰且可落地的思路 [31] - 未来教育的目标正从以技能、生产率与经济回报为中心(人力资本),转向关注个体福祉、意义、能动性与社会连结(绽放的人生),这一转变在瞬息万变的AI时代尤为迫切 [40][41] - 女性领导者在技术、伦理与人文之间寻找平衡时,需要汲取跨界思维、长期主义和对“正确之事”的坚持 [44]
“AI 2028危机”,究竟有多少已然发生
犀牛财经· 2026-02-26 14:57
AI技术发展对资本市场的影响 - 资本市场正提前交易AI引发的结构性变化叙事 导致市场情绪紧张 美国股市道琼斯指数单日下跌800点 金融蓝筹股如黑石和万事达也未能幸免[1] - 独立研究机构Citrini通过数据化、时间线化的推演 描绘了从AI替代软件、白领失业到宏观经济恶化的递归链条 使系统性风险叙事显得更为逼真[1][3] AI对软件行业(SaaS)的颠覆 - “AI吃掉软件”正成为市场共识 AI代理能自动化企业工具和流程 直接替代操作软件的白领员工 对传统SaaS公司的订阅收费模式构成根本性威胁[3][4] - SaaS公司面临分化 行动快者将转型为AI原生企业并利用AI 行动慢者可能被AI替代或沦为智能体的基础设施[4] - Anthropic的Claude Code宣布可协助现代化COBOL代码库后 市场对遗留系统维护和企业IT服务的长期价值产生质疑 导致IBM股价单日暴跌13%[5] AI智能体的能力扩展与行业渗透 - AI智能体的自主性和与人类协作的流畅性持续提升 Claude Code不间断自动执行任务的时长已超过45分钟 是三个月前的两倍[8] - 编程被视为AI能力“自我递归改善”的起点 模型厂商正探索通过AI生成下一代AI模型以加速开发循环[8] - Anthropic正通过投资与合作向医疗、法律、金融等16个垂直行业扩展 智能体生态开始形成 尽管当前渗透率仍低于编程领域[5] 中介经济与商业模式的变革 - 谷歌推出AP2允许智能体间直接支付与结算 标志着从传统电子商务向“AI商务”过渡的可能 可能削弱传统平台的撮合与流量分发价值[8][9] - 阿里巴巴的千问App通过一句话完成购买 将电商、支付等核心流程“插件化” 实现流量在应用内闭环 对依赖流量分发和广告的商业模式构成结构性挑战[9] - 传统业务逻辑层正被“agent tier”取代 其边际价值正被智能体吞噬[9] Token消耗与算力需求激增 - 据推算 到2027年3月 全球日均token消耗量可能超过1600万亿 美国人均日消耗量预计达到40万token[9][10] - 2025年10月 谷歌模型日均消耗43万亿token 约占OpenRouter市场的25% 推算出当时全球日均消耗约170万亿token[10] - 大型事件如春节会推动token消耗脉冲式增长 期间全球日均消耗已超300万亿token 其中字节跳动贡献约90万亿token[10] - 英伟达CEO预计全球token消耗量每年增长5倍[10] AI对就业市场的冲击与高管预期 - 美国国家经济研究局调查显示 企业高管预计未来三年AI将使生产率提高1.4% 但同时导致所有企业就业人数减少0.7% 而员工则预计生产率提高0.9%并增加0.5%的就业[11] - 自动驾驶领域岗位替代明显 Waymo约70名远程协助人员管理着约3000辆自动驾驶汽车 平均1人负责40余辆 小马智行在2025年一季度实现1人负责20辆车 并预计年底提升至30辆[14] - 被AI挤出的白领可能流向蓝领或低薪服务岗位 但自动驾驶等AI应用正在持续蚕食这些市场[14] 企业战略与行业准备 - 阿里巴巴在2025年下半年正式确立以千问为核心的集团级战略 以应对AI带来的交互方式变革[9] - Anthropic在2025年4月建立了经济顾问委员会 DeepMind在2026年1月开始招聘首席经济学家 以应对AI带来的经济和社会影响[11] - 尽管存在风险 但目前(2026年2月)企业家、就业者与监管层仍有时间建立新的均衡框架[14]
中金 _ AI主线开年布局展望:MiniMax首次覆盖
中金· 2026-02-25 12:08
报告投资评级与核心观点 * 首次覆盖MiniMax-WP(00100),公司是当前国内少数在基础模型能力与全球化AI原生应用商业化两端同时跑通的公司,在AI赛道中具备稀缺性 [2] 公司概况与稀缺性 * **业务布局**:公司以全模态融合技术模型为核心,向上构建AI原生应用与平台,形成了从模型到应用的全栈布局 [10][11] * **战略定位**:公司是国内最早押注原生全模态融合路线的基模厂商之一,从成立初期即同步推进文本、语音、视频模型研发 [2] * **全球化验证**:2025年前三季度,公司海外收入占比超过73%,覆盖超过200个国家及地区,是国内少有的已验证海外市场规模化变现能力的基模厂商 [2] * **商业模式**:公司坚定执行“技术即产品”路线,采用“前店后厂”模式加速模型与产品的拟合迭代 [2][16] * **组织效率**:公司为AI原生组织,秉持高效组织理念,截至2025年第三季度末,公司仅385名全职员工,其中研发人员占比73.8%,CEO以下设立不超过三层职级 [2][15][16] 行业趋势与竞争格局 * **市场规模**:全球生成式AI收入总市场规模预计将从2023年的929亿美元增长至2032年的16,198亿美元,年复合增长率约37% [25] * **竞争态势**:大模型行业从“百模大战”逐渐收敛至头部厂商,全球头部厂商表现出“竞相迭代、轮番领跑”的竞争态势 [26] * **取胜关键**:大模型研发遵循A=V*D的动力学模型,其中A代表模型能力进化加速度,V代表训练速度(含计算资源、组织能力等),D代表战略投入方向 [38] * **先发优势维持**:实现好的“工作负载-模型匹配”(WMF)有助于把握先发优势、提升用户留存率,形成“水晶鞋效应” [47] 公司多模态战略与技术优势 * **文本模型能力领先**:公司文本模型能力被市场低估,其M2模型发布后不久在Artificial Analysis智能指数榜单位列第五名 [30][31][50] * **文本模型迭代与性能**:M1模型在长上下文场景下具备极致性价比,原生支持100万Token上下文长度;M2模型采用交错思维链技术,具备反思能力;M2.5模型在编程、工具调用等场景达到或刷新行业SOTA水平,且价格仅为Opus、GPT-5等模型的5%-10% [50][54][67] * **视频模型全球领先**:公司Hailuo-02视频模型发布后在Artificial Analysis榜单排名全球第二 [30][31][81] * **音频模型全球领跑**:公司Speech 2.6模型在Artificial Analysis全球文生音频榜单中位列首位 [91][92] * **统一多模态竞争优势**:公司认为统一多模态是未来技术趋势,其在文本、图像、视频和音频等模态均拥有行业领先的自研模型,具备“全模态自研闭环”的技术积累,在统一多模态演进方向上有显著优势 [68][75] 产品矩阵与市场空间 * **AI Agent产品**:公司于2026年1月发布MiniMax Agent 2.0桌面端,定位从“对话助手”升级为“AI原生工作台”,采用模块化专家体系,支持与本地环境深度耦合 [99][105][107] * **Agent市场空间**:根据ARK研究测算,在乐观假设下,全球软件支出有望从2025年的1.43万亿美元增长至2030年的13万亿美元,年复合增长率56%,AI生产力具备十万亿美元级市场想象空间 [113] * **音视频产品**:公司音视频产品包括海螺AI(视频生成)与MiniMax语音(语音合成),其中海螺AI在全球头部视频生成产品中具备“物理一致性强”与“可控性高”的突出优势 [118][127] * **音视频市场竞争**:在语音生成领域,与ElevenLabs相比,MiniMax语音在长文本处理能力(单次最高20万字符)、延迟稳定性(端到端延迟低于250毫秒)和定价上具有优势 [130][136] * **音视频市场空间**:音视频生成市场面向专业创作者(P端)、企业客户(B端)和大众用户(C端),报告测算中性假设下,P端市场空间为32亿美元,B端为94亿美元,C端(社交平台)为917亿美元 [143][147][149] * **AI陪伴产品**:公司拥有Talkie/星野等全球头部AI陪伴与互动产品,据ARK Invest测算,AI陪伴软件市场规模在2030年可能达到700-1,500亿美元 [152][155]
AI主线开年布局-春节期间海内外大模型产业动态
2026-02-24 22:15
行业与公司 * **涉及的行业**:人工智能 (AI)、大模型、多模态生成与理解、Agent AI、AI基础设施、AI for Science、广告科技 (AdTech/MarTech) [1][3][9][18][21][25] * **涉及的公司**: * **国内**:智谱 (GLM)、Minimax、字节跳动 (C-DOS, C-Dance, 豆包)、阿里巴巴 (千问)、Kimi (月之暗面)、网宿科技、优克金山、石油股份、广联达、合合信息、海天瑞声、万兴科技、税友、硅基流动 (Circon Flow) [1][2][4][5][11][12][23] * **海外**:OpenAI、谷歌 (Gemini)、Anthropic (Claude)、Meta、Janice、Oasis、DeepMind、Sora、VEED、LLaMA、Mistral [1][6][7][13][16] 核心观点与论据 * **国产模型在中腰部市场凭借性价比优势崛起**:国产模型如智谱和Minimax在Agent AI和成本优化方面表现突出,在Open Router等第三方平台的调用量排名中占据领先地位,显示出在中腰部市场的优势 [1][2] * **Agent AI驱动Token需求显著增长,国产模型承接外溢需求**:Agent AI带来的Token需求增长显著,全球开发者对价格敏感度提升,国产模型凭借高性价比承接大量需求,例如智谱API价格虽上涨但仍具优势 [1][2] * **Kimi商业化表现亮眼**:Kimi K2.5发布后20天收入已超去年全年,其中海外收入占比更高 [1][4] * **字节跳动在多模态生成领域领先**:字节跳动C-DOS 2.0在视频生成领域效果、性价比和可用度均超越竞争对手Sora 2和VEED 3.1,春节期间用户量激增 [1][5] * **国内大厂模型具备成本优势**:字节跳动、阿里巴巴等国内大厂模型参数量不大但效果良好,具备成本优势,能够以较低成本提供高质量服务 [1][5] * **海外巨头明确长期目标与持续迭代**:OpenAI设定2030年收入目标为2,800亿美元,计划投入6,650亿美元算力;谷歌发布综合能力全球领先的Gemini 3.1;Anthropic推出性价比更高的Claude 4.6 Sonnet [1][6][7] * **AI行业未来三大发展趋势**:Agent带来的Token增长(可能带来10倍甚至百倍提升)、推理成本优化、多模态生成与理解 [3][9][10] * **Unified Model(统一模型)是重要技术趋势**:能够理解并生成内容,实现从图片到视频生成的一体化体验,预计将推动视频生成市场从目前全球10亿美金增长至260亿美金 [3][13] * **AI模型留存率低,企业自研需谨慎**:即使是领先的LLM(如GPT-4),6个月后留存率仅为30%,12个月后降至20%,企业自行训练和维护模型可能不划算 [16] * **Multi-Agent协作提升效能**:多代理协同工作可以产生涌现效应,Kimi K2.5通过统帅100个Agent分工合作,效果优于单个Agent [17] * **AI基础设施需求稳健**:尽管SaaS模式面临挑战,但对AI基础设施(算力、AIDC、CDN、云计算)的需求仍然是全面利好 [11] * **AI应用层存在长期投资机会**:尽管短期承压,但在行业know-how、数据和客户方面有深厚积累的公司(如广联达、合合信息等)长期有望证明价值 [12] 其他重要内容 * **技术发展方向**:未来AI模型将向“千人千面”(个性化)、“活在当下”(实时信息获取)、“举一反三”(情景记忆优化)三个核心能力发展 [15] * **2026年关键技术节点**:预计2026年推理端技术将有显著提升;2026年将是“持续学习”之年;AI for Science预计在2026年迎来重大转折点 [3][14][21] * **开源模型的部署与盈利**:在没有原厂技术支持的情况下,部署开源模型效果通常较差;开源许可证可通过法律手段强制用户在特定条件下付费(如用户数超一亿需付费);原厂对自身模型调优成本最低,第三方服务商可能落后3-6个月 [22][23][24] * **AI对广告行业的影响初现但未完全打开**:大型语言模型对广告行业的影响已在Meta和Google财报中初步体现,但尚未广泛应用于广告投放,预计今年国内广告生态可能有所动作 [25][26] * **超长视频理解与推理技术的应用前景**:该技术可集成到耳机或AR眼镜等硬件中,实现小时级视频识别与推理,带来巨大商业机会 [20] * **特定会议信息**:2026年3月10日至11日将在深圳举行春季策略会,探讨AI重塑AdTech和MarTech领域 [19]
深度|Gemini 3预训练负责人揭秘Gemini 3巨大飞跃的关键,行业正从“数据无限”向“数据有限”范式转变
Z Potentials· 2026-02-21 11:43
Gemini 3的成功逻辑与核心驱动力 - 模型成功并非依赖单一突破,而是庞大团队协作与无数改进创新融合的结果[4][6] - 核心秘诀是更优质的预训练和后训练,基于Transformer的混合专家架构,将计算量使用与参数规模分离[5][23][24] - 规模是提升性能的重要因素但非唯一,架构和数据创新的重要性可能更甚[5][26] - 模型性能的巨大提升源于多个方面(如架构、数据、基础设施、评估)的共同改进,而非单一重大变化[23][32] 行业发展趋势与范式转变 - 行业正从“数据无限”向“数据有限”范式转变,数据量有限但并未枯竭,这改变了研究方向和思维方式[5][29][31] - 合成数据需谨慎使用,存在误用风险,关键挑战在于能否用其训练出优于数据生成模型的新模型[5][28] - 技术路线呈现趋同与差异化并存,顶尖实验室在基础技术(如类Transformer模型)上相似,但在视觉、多模态、推理等具体领域进行差异化深耕[9] - 模型架构的改进能让模型用更少数据实现更好效果,是应对数据有限范式的重要方向[5][31] 预训练领域的关键进展与未来方向 - 长上下文能力是重要发展方向,未来一两年在效率提升和长度扩展上将有更多创新[32] - 注意力机制近期有非常有趣的发现,将塑造未来几个月的研究方向[32] - 评估工作至关重要且极具难度,需要弥合小规模实验与最终规模化模型、以及预训练与后训练之间的差距,评估方面的进步是推动模型和数据改进的关键[5][22][34] - 预训练数据是多模态、多来源的混合[27] - 行业越来越倾向于内部构建评估体系,以避免外部基准测试数据污染导致自欺欺人[35] 模型能力、应用与成本考量 - 每一代新模型都能展现出前所未有的能力,内部员工使用模型提升工作效率的时间持续增加,这是模型能力增强的实际体现[6] - 原生多模态意味着同一神经网络处理所有模态,虽增加了研究复杂性和计算成本,但收益远超成本[25][26] - 预训练阶段需更多考虑模型的部署成本和使用成本,研究如何提升质量同时降低资源消耗[45] - 对于智能体应用,出色的屏幕理解能力是预训练阶段的一个重要方面[42] 研究、工程与团队协作模式 - 谷歌/DeepMind的核心优势在于研究、工程和基础设施的垂直整合与结合[11] - 工作模式强调“研究型工程”,研究与工程的界限越来越模糊,构建庞大系统需要两者紧密结合[11] - 预训练团队规模庞大,约有150到200人每日在数据、模型、基础设施和评估等多个方面协作,成功关键在于整合众多人的工作成果而非少数人领先[12] - 研究品味非常重要,包括研究需能与他人的工作整合、对复杂性保持警惕、管理研究风险,有时会为降低复杂度而在性能上做让步[19] - 研究需平衡短期关键路径改进与长期探索性项目,在模型规模扩张阶段探索性研究更多,在发布新模型前则更关注降低风险和执行力[20] 对初创公司及从业者的启示 - 开发顶尖模型需要庞大团队和大量资源,但当前做法未必最优,未来可能出现颠覆性研究让小型团队实现弯道超车[10] - 初创公司应回顾模型能力的进步轨迹并进行合理推断,在模型持续进步的领域跟进,在进展不大的领域寻找机会[47] - 通用模型能力快速增强,使得为通用任务开发专门模型的价值降低,关于如何使用模型、构建应用框架以及提高其稳健性的研究变得更重要[47] - 对从业者而言,理解从硬件(如TPU)到研究层面的整个技术栈的系统性知识变得非常重要[45]
ARR 140亿美元,新融300亿美元,Anthropic CEO说AI行业2030年将是万亿美元生意 | Jinqiu Select
锦秋集· 2026-02-14 17:08
Anthropic公司最新动态与财务数据 - 公司于2月12日完成了估值3800亿美元的G轮融资,融资额300亿美元,是风投史上第二大单轮融资 [2] - 公司年化营收已达140亿美元,并且营收每年增长约10倍 [2] - 具体营收增长轨迹为:2023年从近零增长至1亿美元,2024年达到10亿美元,2025年预计约90-100亿美元,2025年1月单月又增加了数十亿美元营收 [2][14] AI行业技术发展预测与现状 - 行业领导者认为AI能力的指数增长即将触顶,距离实现“数据中心里的天才国度”(即各专业领域达到或超越诺贝尔奖得主水平的AI系统)仅有1到3年时间,但公众对此严重缺乏认知 [5][8] - 预训练和强化学习的扩展定律依然有效,均展现出对数线性的扩展规律,这符合“大计算块假说” [9][34] - 模型不一定需要像人类一样的持续在职学习,预训练泛化、强化学习泛化加上更长的上下文窗口可能已足够 [10] - 代码能力的发展是一个很长的光谱,从“90%代码由AI写”到“端到端替代软件工程”仍有距离,但公司内部已有工程师完全不写代码 [11] - AI向经济渗透的速度远超历史上任何技术,但受限于企业流程等因素,不可能一夜之间完成 [13] 生产力提升与行业竞争格局 - AI工具切实提高了生产力,公司内部体感明确带来了15-20%的整体加速,且该比例在快速增长中 [12] - AI行业的竞争格局预计将类似云计算,最终形成三四家寡头,存在高进入壁垒和模型差异化,利润不会被压到零 [16] - API商业模式将持久存在,因其作为接近底层的接口,会一直是创业者实验新使用方式的最佳起点 [12][94] 行业市场规模与增长预测 - 结合技术指数和扩散指数,整个AI行业在2030年前几乎必然达到万亿美元级营收 [3][17] - 公司选择了激进但不鲁莽的算力投入策略,因为数据中心需提前一两年购买,需求预测偏差一年就可能导致公司破产 [15] - 当AI泛化能力足够强时,机器人技术(包括设计和控制)将被革新,但可能比纯数字领域滞后一两年 [18] Claude Code产品发展路径 - Claude Code最初是公司工程师自用的内部工具,因内部采用率极高,被判断已有产品市场匹配,才决定对外发布,并成为品类领导者 [20][96][97] AI安全、治理与地缘政治 - 面对生物恐怖主义等风险,应从建立透明度标准入手,随着风险被实际验证再逐步加强监管,保持灵活 [21] - 反对联邦层面在十年内禁止各州监管且自身也不作为的方案,认为这在AI快速发展的背景下极不负责 [22] - 应在非洲等地建设数据中心、扶持AI驱动的生物医药创业,让增长内生化,而非仅靠慈善 [24] - 训练AI时,给予一套行为原则比列出一堆禁止性规则更有效,模型行为更一致、更能覆盖边缘情况 [25] - AI模型的价值观设定应有三层迭代反馈:公司内部调整、不同公司的“宪法”竞争比较、以及社会层面的公众参与 [26] 公司文化与运营 - 公司文化被视为最大的杠杆,CEO花费约三分之一时间维护公司文化,通过每两周的全员分享和在Slack上的坦诚沟通,让2500名员工保持凝聚力 [27] - 决策速度需要极快,未来最关键的决定可能需要在极短时间内做出,历史会高估这些决策的深思熟虑程度 [28]
2026开年关键词:Self-Distillation,大模型真正走向「持续学习」
机器之心· 2026-02-10 11:46
大模型持续学习的技术瓶颈与范式转变 - 基础模型在落地和长期使用过程中面临“持续学习”的关键瓶颈,即如何在吸收新知识的同时不丢失已有核心能力[3] - 传统的强教师依赖范式因成本高、数据依赖性强,难以适应高频的持续进化需求[3] - Self-Distillation(自蒸馏)成为破局点,通过上下文引导或反馈机制,让模型构建出比当前更聪明的临时自我,实现内生增长[3] 自蒸馏微调解决灾难性遗忘 - 研究提出自蒸馏微调方法,直接从演示中实现基于策略的学习[8] - 核心机制是利用预训练模型的上下文学习潜力,先通过少量专家演示诱导模型生成高质量的教师分布,再让模型通过自蒸馏拟合该分布[11] - 该方法将持续学习转化为策略内对齐问题,训练信号源于模型自身的上下文学习状态,能最大限度保持原始概率流分布,避免参数剧烈漂移,从而解决监督微调中常见的灾难性遗忘问题[11] - 在技能学习和知识获取任务中,自蒸馏微调的表现一致优于监督微调,不仅实现了更高的新任务准确率,还显著减少了灾难性遗忘[14] - 在顺序学习实验中,自蒸馏微调使单一模型能够随时间累积多种技能而不会出现性能退化[14] 自蒸馏策略优化提升强化学习效率 - 针对强化学习中二值反馈信息密度低、导致信用分配问题和进化停滞的困境,研究提出了自蒸馏策略优化框架[16] - 核心机制是引入富反馈环境,当模型生成错误答案时,环境返回具体报错信息,模型将这些信息作为“自省教师”重新注入上下文以校准错误[19] - 技术突破在于将原本模糊的标量奖励转化为Token级的密集监督信号,通过对比反馈后分布与初始分布的差异,精准定位导致失败的关键Token[19] - 在极难任务中,自蒸馏策略优化展现了极高的采样效率,仅需约三分之一的尝试次数即可达到其他算法的解发现率,实现了3倍的加速[21] - 在整体训练上,该方法能以更少的样本量快速收敛,在k=1000时已能解决70%的困难任务[21] - 在LiveCodeBench等竞赛级编程测试中,自蒸馏策略优化仅需传统GRPO算法四分之一(1/4)的生成样本量即可达到同等精度[21] 策略内自蒸馏挖掘模型推理潜力 - 针对复杂推理任务中搜索空间过大、奖励信号稀疏的问题,研究提出了策略内自蒸馏框架[22] - 核心机制是将模型配置为两种状态:教师策略可接触特权信息以产生高质量分布,学生策略仅凭题目作答[25] - 技术突破是采用策略内采样,训练目标是最小化学生分布与教师分布之间的KL散度,迫使模型通过内生分布对齐,学会从题目直接推导深度推理链路[25] - 在MATH和GSM8K等高难度推理基准测试中,策略内自蒸馏展现了极高的学习效率,其Token利用率比传统的GRPO算法高出4至8倍[27] - 实验证明,监督微调能提供初始方向,但策略内自蒸馏能更进一步挖掘模型内在的“推理潜力”[27] 自蒸馏成为大模型后训练标准配置 - 三项研究的核心逻辑一致:利用模型已有的内生能力,通过不同的上下文构造“信息差”,实现自驱动的闭环升级[27] - Self-Distillation正在成为大模型后训练阶段的标准配置[27] - 行业趋势表明,未来可能不再需要外部强教师教模型变强,而是为其提供“持续学习”的机会[28]
中金:2026年大模型将取得更多突破 向实现AGI长期目标更进一步
智通财经· 2026-02-05 09:39
2025年大模型技术进展与2026年展望 - 2025年全球大模型在推理、编程、Agentic以及多模态等能力方向取得明显进步,但模型通用能力在稳定性、幻觉率等方面仍存在短板 [1] - 展望2026年,大模型在强化学习、模型记忆、上下文工程等方面将取得更多突破,并向实现AGI长期目标更进一步 [1] 2026年模型架构与训练范式演进 - 预计2026年预训练Scaling-Law将重现,旗舰模型参数量将更上一个台阶 [1] - 模型架构方面,基于Transformer的架构延续,平衡性能与效率的MoE成为共识,不同注意力机制路线仍在优化与切换 [1] - 训练范式方面,预训练阶段将通过Scaling-Law、高质量数据和强化学习共同提高模型能力 [1] - 随着英伟达GB系列芯片成熟及推广,模型将基于更高性能的万卡集群在预训练阶段重现Scaling-Law,模型参数量和智能上限都将进一步提升 [1] 强化学习的重要性提升 - 强化学习的引入提高了模型的智能上限,让模型可以更有逻辑、更符合人类偏好进行思考和推理 [2] - 强化学习的本质是“自我生成数据+多轮迭代”,关键在于大规模算力与高质量数据 [2] - 海外OpenAI、Gemini等模型厂商以及国内DeepSeek、阿里千问等均重视强化学习 [2] - 预计2026年海内外模型厂商强化学习占比将进一步提升 [2] 持续学习、模型记忆与世界模型的新突破 - 持续学习和模型记忆旨在解决大模型的“灾难性遗忘”问题,让模型具备选择性记忆机制 [3] - Google提出的Titans、MIRAS、Nested Learning等算法和架构核心是让模型可以根据任务的时间跨度和重要性动态调整学习和记忆方式,实现持续学习甚至终身学习 [3] - 聚焦理解物理世界因果规律的世界模型在Genie 3和Marble等不同模型路径的探索下具备突破机遇 [3]
中金 | AI十年展望(二十六):2026关键趋势之模型技术篇
中金点睛· 2026-02-05 07:52
文章核心观点 - 2025年全球大模型在推理、编程、Agentic及多模态等能力上取得明显进步,已能应用于真实生产力场景,但模型在稳定性、幻觉率等方面仍有短板 [1][3] - 展望2026年,预计预训练Scaling-Law将重现,旗舰模型参数量将更上一个台阶,强化学习、模型记忆、上下文工程等领域将取得更多突破,推动模型向AGI目标迈进 [1][2][4] - 中美大模型发展路径不同:海外厂商追求智能上限,国内厂商在有限算力下通过开源和工程优化追求效率与性能平衡,但两者相互借鉴,共同推动AI产业发展 [12][14] 技术视角:模型能力进展与短板 - **2025年能力进展**:海内外模型在推理、编程、Agentic及多模态能力上持续迭代,在文本、搜索、编程、图像&视频多模态任务等多个领域已达到真实生产力水平,进步超过2023年预期 [3] - **现存短板**:模型通用能力在可靠性、幻觉率方面未完全解决,记忆能力有提升空间;细分领域上,强逻辑&数学推理能力稳定性不足,对真实世界的理解和建模能力较弱,智能呈现“锯齿状” [4] - **2026年展望**:模型将在长板层面继续进化,并寻找有效路径补齐短板,从ChatBot到Agent,从短context生成到长思维链任务,从文本交互到原生多模态演进 [4] 模型细分能力复盘 - **推理**:强化学习激励模型形成更长思维链解决复杂任务,“测试时计算”成为主流工程杠杆,模型学会并行思考与反思;模型推理与工具调用结合形成“交错思维链”,以完成更复杂的Agent任务,但产业也开始优化思维链效率以控制成本与延迟 [6] - **编程**:在模型推理能力提升驱动下,AI编程从代码补全进化为具备工程闭环能力的开发者代理,能拆需求、搭框架、调接口、跑测试;前端追求极致视觉还原与即时预览,后端模型已具备架构思维,通过“慢思考”推演降低幻觉率,预计2026年编程仍是落地最快场景之一 [6] - **Agentic**:2025年工具调用能力成为标配,核心技术突破之一是交错思维链的使用,让智能体在思考与行动间无缝高频切换,提升实时修正能力并降低幻觉与记忆遗忘,能自主拆解数十个子任务并实现复杂长程任务闭环 [9] - **多模态**:图片生成在质量、理解与控制能力上大幅跃升,迈入可控、可用、可规模化生产阶段;以Gemini-3为代表的原生多模态架构普及,统一token化训练,并将强化学习引入视觉和音频领域以加强时空逻辑和动作因果理解 [9][10] 海内外头部模型竞争格局 - **海外头部玩家**:OpenAI、Anthropic、Gemini以AGI为远期目标,从不同维度加速探索;OpenAI文本类推理实力突出,同步提升多维度能力维持领跑;Gemini后来居上,基于预训练高质量数据与Scaling Law及后训练强化学习,基础与多模态能力大幅提升;Anthropic聚焦代码及Agent领域,走出别具一格变现路径 [11] - **国产大模型**:整体能力与海外头部模型维持约半年静态差距,在海外模型推出3个月到半年后,国内头部厂商能推出能力相当的模型并达到SOTA水准;第一梯队包括阿里Qwen-3、字节豆包1.8、DeepSeek-V-3.2、Kimi-K2、智谱GLM-4.7、MiniMax-M2 [12] - **发展路径差异**:海外厂商算力资源丰富,通过算力Scaling Law+算法优化+高质量数据齐头并进迭代基座模型,追求智能上限;国内厂商在有限资源下,通过开源路线、工程及算法优化追求效率与性能平衡,并在应用端开拓更具创新思维 [14] 模型架构:优化与创新 - **架构延续与优化**:主流模型参数规模已达万亿以上,厂商更聚焦模型架构、算法、工程共同优化,在扩大参数规模的同时提升参数利用效率 [14] - **MoE架构成为共识**:MoE架构采用稀疏激活模式,通常仅激活模型总参数的10-20%,显著降低计算量,实现计算需求与模型规模的有效解耦;国产模型如DeepSeek-V3.2、MiniMax-M2、Qwen-2.5均使用MoE架构 [17] - **MoE优化挑战**:面临计算效率、专家负载不均、参数通信等问题,需通过更复杂算法和硬件基础设施解决,例如通过辅助损失函数实现负载均衡,并通过芯片与算法协同设计提升效率 [18] - **注意力机制优化**:模型厂商基于效果在不同注意力机制(Full-Attention、Linear-Attention、Hybrid-Attention)间优化与切换,以平衡精度与效率,例如阿里千问深耕Linear-Attention,DeepSeek-V3.2引入Sparse-Attention将计算复杂度从O(N^2)降至O(Nk) [20] 工程优化:降本提速与规模化 - **核心目标**:工程侧优化聚焦降本提速与规模化生产,包括推理侧思考链工程化、实时路由机制分配模型类型、长上下文规模化落地等 [21] - **具体实践**:GPT-5引入实时路由模式,根据用户提示词自动分发请求;海内外厂商通过混合注意力机制、KV Cache压缩、算子优化、上下文重写与压缩等不同路径提升上下文处理效率 [21][22] 训练范式演进 - **预训练Scaling-Law重现**:预计2026年预训练阶段在算法和工程优化下仍有提升空间,随着英伟达GB系列芯片成熟及推广,模型将基于更高性能的万卡集群实现Scaling Law,模型参数量和智能上限将进一步提升 [1][22] - **强化学习重要性提升**:强化学习成为解锁模型高级能力的关键,其本质是“自我生成数据+多轮迭代”,依赖大规模算力与高质量数据;预计2026年强化学习在训练阶段占比将进一步提升 [2][23] - **强化学习占比数据**:DeepSeek V3.2后训练计算预算占预训练成本的10%+,估计海外模型厂商相关比重更高,可能在30%左右 [23] - **强化学习路径演进**:正从静态离线向动态在线演进,长期趋势是模型持续向半自动验证甚至不可验证的场景中进行在线学习 [26] 前沿技术路线展望 - **持续学习与模型记忆**:旨在解决大模型“灾难性遗忘”问题,让模型具备选择性记忆机制;Google提出的MIRAS、Titans、Nested Learning、HOPE等算法和架构是让模型根据任务时间跨度和重要性动态调整学习和记忆方式的关键 [2][28] - **嵌套学习(Nested Learning)**:模仿人脑处理记忆的方式,通过分层学习和优化机制实现持续学习新范式 [29] - **HOPE架构**:作为嵌套学习的工程实现,是基于自修改Titans+连续记忆系统的多层次记忆系统,通过“快”“慢”系统协作对抗灾难性遗忘 [32] - **模型记忆成为Agent刚需**:ChatGPT通过四层上下文堆栈工程化优化记忆,未来技术演进路径包括分层记忆、将长期记忆更新至模型参数 [35] - **世界模型**:聚焦理解物理世界因果规律,是实现AGI的重要拼图;主要技术路径包括李飞飞团队的3D物理空间(Marble模型)、LeCun的基于控制理论的JEPA架构、Google DeepMind的交互式视频引擎(Genie 3) [36][40] 海外头部模型厂商巡礼 - **OpenAI**:2025年模型在推理、Agentic、多模态、代码方面全方位提升,发布GPT-4.1、o4-mini、GPT-5、Sora-2等;预计2026年将加速商业兑现,拓展企业端和广告市场 [41][42] - **Gemini**:2025年能力大幅跃升,Gemini-3发布使Google成为世界第一梯队;原生多模态图像生成模型Nano banana Pro具备空间推理和光影控制能力;预计2026年将聚焦综合能力提升并加速探索世界模型 [43][45][47] - **Anthropic**:2025年延续在编程领域优势,加强代码和Agent体验;推出Claude Code(截至25年底ARR已突破10亿美元)和Cowork,探索企业场景;预计2026年将提升记忆能力并探索更多Agent泛化场景 [48][49][52] - **商业化与IPO前景**:截至26年1月,OpenAI估值达8,300亿美元,25年收入预计200亿美元,计划26年Q4启动IPO;Anthropic估值达3,500亿美元,25年收入90亿美元,也将在26年启动IPO [61] 国内头部模型厂商巡礼 - **阿里通义千问**:2025年推出Qwen-3等模型提升全模态能力,领跑中国市场;预计2026年将探索B端Agent市场机遇,让Qwen Agent作为“Orchestrator”编排垂类Agent,并可能探索世界模型技术 [53] - **字节豆包**:2025年提升基座模型能力,豆包1.8具备超长上下文与多模态、Agent能力;截至25年12月底,豆包大模型日均使用量达50万亿+(自发布以来提升417倍),日活用户突破1亿;预计2026年将延续多模态优势并深挖Agent机会 [54][55] - **DeepSeek**:2025年引领大模型走向开源普惠,发布R1、DeepSeek-Janus-Pro、DeepSeek-V3.2等;架构上采取稀疏注意力机制降低计算复杂度;预计2026年将持续追求技术优化与提升多模态能力 [56][57]
OpenAI现离职潮
36氪· 2026-02-04 10:46
公司战略重心转移 - 公司正将发展重心从长期基础研究转向加速推进其旗舰产品ChatGPT [1] - 公司已重新分配资源,减少实验性研究投入,把更多预算用于升级支撑ChatGPT的大语言模型 [1] - 这一战略调整标志着公司从一家研究实验室演变为硅谷最具规模的科技公司之一,需要向投资人证明其收入增长足以支撑高达5000亿美元的估值 [1] 内部影响与人员变动 - 战略转向引发多名资深员工离职,近几个月离职者包括研究副总裁Jerry Tworek、模型政策研究员Andrea Vallone以及经济学家Tom Cunningham [1] - 未参与大语言模型开发的研究者申请算力等资源时往往被拒,或只获得不足以验证研究假设的资源 [2] - 负责视频与图像生成模型Sora和DALL-E的团队感到被忽视、资源不足,因为这些项目被认为与ChatGPT核心战略关联较低 [2] - 另有一些与大语言模型无关的项目在过去一年中被逐步关停,公司进行了团队重组以围绕ChatGPT进一步精简架构 [2] 竞争环境与外部压力 - 公司面临来自谷歌、Anthropic等竞争对手日益激烈的挑战 [1] - 去年12月,谷歌发布的Gemini 3在独立基准测试中超越公司模型,而Anthropic的Claude在代码生成方面快速追赶,促使公司CEO发出提升ChatGPT的“红色警报” [2] - 行业竞争压力巨大,所有公司都想每个季度推出最强模型,形成一场疯狂、残酷的军备竞赛,企业投入的资金令人难以置信 [2] - 公司被锁在与谷歌和Anthropic的激烈竞争中,对手模型实力接近甚至更强,公司已没有放慢脚步的空间 [3] 研究方向的内部争议 - 公司内部有观点认为,现在把语言模型更多当作一个工程问题来处理,通过扩大算力规模、优化算法和数据来获得性能提升,但做真正原创性、突破性研究变得非常困难 [1] - 首席研究官Mark Chen否认上述说法,称长期、基础性的研究仍是公司核心,大部分算力和投资仍投入在这些方向,数百个项目正在探索超越单一产品的长期问题 [1] - 前研究副总裁Jerry Tworek因希望探索“在公司难以开展的研究类型”(如持续学习)而离职,其多次申请更多算力和人员支持遭管理层拒绝,并与首席科学家Jakub Pachocki在科学路径上发生分歧 [3] 市场与护城河观点 - 许多投资人对此战略调整并不担心,认为公司真正的护城河在于数亿ChatGPT用户 [3] - 有观点认为,公司的护城河正从研究能力转向用户行为形成的平台锁定效应,这种优势更难被撼动 [4]