Workflow
持续学习
icon
搜索文档
决定人与人之间贫富差距的7个底层逻辑
洞见· 2026-04-23 20:35
文章核心观点 文章认为,决定个人财富积累的关键在于其行事的底层逻辑,而非当下的收入或资产[5]。正确的底层逻辑能使人事半功倍,水到渠成地获得财富;而错误的底层逻辑则使人难以触及财富边缘[5][6]。文章通过七个具体的底层逻辑对比,阐述了富人与穷人在思维和行为模式上的本质差异。 底层逻辑一:时间与金钱的交换 - 核心在于将时间视为不可再生的稀缺资源,而非用时间换钱[7][9]。富人倾向于花钱购买时间以专注于高价值事务[9]。 - 例证:一位自媒体博主在月收益仅2000元时,就花费1000元月薪雇佣助理处理低价值琐事,从而每天节省出2小时用于学习和创作,最终使账号粉丝增至数十万,收入翻了几番[9]。 底层逻辑二:行动与犹豫的差异 - 成功者与普通人的分水岭在于“行为启动成本”的高低,即从想法到行动的延迟[10][12]。富人具备强大的执行力,倾向于“说干就干”[10]。 - 例证:余华、王坚、扎克伯格等人都是在产生想法后迅速行动,最终在各自领域取得巨大成功[12]。 底层逻辑三:尝试与否定的倾向 - 习惯性尝试比习惯性否定能带来更多机会[13][16]。否定新事物被视为一种“贫穷人格”,会错失潜在机遇[16]。 - 例证:在汽车行业,一位同事因勇于尝试转岗项目管理并积极学习,两年后工资等级比习惯性否定机会的网友高出一个大级[16]。 底层逻辑四:社交的价值取向 - 社交的初衷决定了圈层和人生高度。穷人倾向于交换情绪的圈子,而富人则寻求能交换价值的圈子[17][19]。 - 例证:历史学家张宏杰用12年时间在弄堂里进行情绪社交,职业停滞不前;后改为与学者进行价值交流,最终成为历史学教授[19]。 底层逻辑五:机会与风险的视角 - 富人从风险中看到别人抓不住的机会,而穷人只看到门槛和困难[20][22]。没有风险的行业意味着没有超额利润的机会[22]。 - 例证:面对“回收秸秆”的商机,多数网友只看到中毒风险、供应链不完善、资质要求等困难,而成功者则认为这些风险正是其机会所在[22]。 底层逻辑六:满足感的延迟与即时 - 能赚大钱的人都懂得延迟满足,为长远目标抑制当下的消费冲动,将资金用于投资未来[24][26]。 - 例证:一位鞋厂厂长在盈利后坚持不开新车、不换房,将积蓄用于在工厂困难时收购股权,最终在电商兴起时身家飙升;而急于享受分红的合伙人则泯然众人[26]。 底层逻辑七:学习状态的持续与停滞 - 富人即使已非常富有,仍坚持持续学习,迭代认知;而穷人则容易坐吃老本,对新事物持排斥态度[27][29]。 - 例证:95岁的巴菲特在退休后仍持续学习并分析AI、大数据等前沿领域[29]。坐吃老本在时代浪潮中注定导致坐吃山空[29]。
特斯拉开源硬件,中国公司回应来了:直接把机器人大脑开源了
量子位· 2026-04-22 16:00
文章核心观点 - 智平方公司通过发布“AlphaBrain Platform”开源社区,引领中国具身智能开源进入新阶段,其策略并非简单跟随特斯拉开源硬件,而是开源比硬件更值钱的全链路技术平台,旨在降低行业门槛、建立标准并汇聚生态力量 [1][2][9][112] 公司背景与市场定位 - 智平方成立于2023年,专注AGI原生的通用智能机器人,公司规模近300人 [5] - 公司因一年内完成12次融资,被称为全球具身智能领域融资节奏最快的独角兽,并被摩根士丹利列为具身基础模型的代表企业 [6] - 公司定位为行业稀缺的“生产力型”通用智能机器人玩家,专注于能真实交付、干活的机器人,而非表演或演示 [103] - 公司被资本和产业界标签为“最像特斯拉”的中国机器人公司,因其是人形机器人赛道首家引入端到端大模型技术路线的企业 [89][90][91] AlphaBrain Platform开源社区概述 - 该平台是全球首个一站式、开箱即用的具身智能模型开源社区,于4月22日发布 [2] - 开源内容并非单个模型,而是一套集成了前沿技术的“顶配全家桶”,包括最全架构覆盖、自由组合能力、公平评估标准和广泛开发社群 [4][7] - 平台旨在解决当前具身智能开源模型“多但不好用”的痛点,提供让模型“跑起来、比得清、落得地”的全链路能力,方便开发者复现、对比和场景化落地 [9] 核心技术亮点 - **世界模型**:平台提供了全球首个可插拔世界模型架构(WA)[14] - 原生集成NVIDIA Cosmos Policy原始权重,开发者可直接加载其2B参数的DiT原始预训练权重进行动作预测 [15][16] - 预设三大主流世界模型Backbone供自由切换:Meta的V-JEPA 2.1(约18亿参数)、NVIDIA的Cosmos Predict系列(约21亿参数)、通义万相的Wan 2.2(约50亿参数)[18][21] - 通过一条命令即可切换训练模式,极大简化了操作 [24] - **RL Token(强化学习+视觉语言动作模型组合)**:该方案旨在解决VLA结合强化学习时推理效率低和“灾难性遗忘”的难题 [26][27] - 通过信息瓶颈编码与VLA主体冻结,将需训练参数量从原本的3.9B骤降至约137M(仅占VLA总参数的3.5%)[29][30] - 在强化学习梯度更新环节仅涉及1.3M极轻量参数,使得开发者仅需单张消费级RTX 4090显卡即可跑通后训练 [31][32] - 实现了在不破坏模型原有能力前提下的低成本任务优化,让模型能够“稳定进化” [33][34] - **持续学习**:平台系统化工程化了持续学习能力,使其从研究玩具变为多架构可复现的对比平台 [38][39] - 支持对QwenGR00T、NeuroVLA等多款前沿VLA架构进行横向对比 [40] - 实现了CL算法与业务模型的解耦,降低了算法研究者与模型开发者的协作成本 [42][45] - 提供开箱即用的训练-评估链路,LoRA路线下的检查点体积更小,对显存和存储更友好 [46][47] - **类脑模型(NeuroVLA)**:平台开源了全球首个支持在公开基准上验证的类脑具身开源模型NeuroVLA [51] - 采用脉冲神经网络动作头,模拟生物神经元的“放电”机制 [52][53] - 引入R-STDP训练算法,让机器人能从“成败”中学习,实现“用进废退” [56][58] - 具备在线STDP测试时自适应能力,可在零额外计算开销下实现实时学习 [60][61] - 配备GRU-FiLM动作精修模块,基于机器人本体状态对动作进行条件性修正,提升精度 [63] 平台价值与优势 - **降低门槛与促进落地**:平台显著降低了开发与使用门槛,仅需消费级显卡即可运行,需训练参数量降至原本的3.5% [32][72] - **提供完整工具链**:平台提供了从数据、训练、架构到测试、场景落地的完整工具链,支持低成本强化学习后训练微调,方便开发者快速适配自己的机器人 [71][73] - **建立统一标准**:平台提供统一的Benchmark,支持开发者一键评测和对比不同模型的性能,无需自行搭建测试环境 [70] - **汇聚生态力量**:平台旨在汇聚全球产学研的开源力量,加速行业共识形成 [7][77] 公司技术发展历程与成就 - 2024年6月,公司开源了首个VLA模型AlphaBrain初期版本,其规模仅为谷歌同类模型的1/20,但性能反超80%,该工作入选NeurIPS 2024并获得图灵奖得主Yann LeCun关注 [80][81][82] - 2025年7月,公司推出快慢系统深度融合的新一代VLA架构,性能超越国际标杆Pi0达30%,并以117.7 Hz的超高控制频率重新定义机器人控制 [82][84] - 公司早在2023年下半年便前瞻性提出世界模型应深度内生于VLA模型中,并于2025年11月在AlphaBrain中吸纳了Video2Act架构成果 [84][86] - 公司研发团队实力雄厚,拥有5位斯坦福全球前2%科学家,成员来自微软、谷歌、清华、北大等顶尖机构与企业 [101][102] - 创始人兼CEO郭彦东拥有深厚的学术与产业背景,曾主导数亿台智能终端的AI研发,2025年入选福布斯中国科创人物 [95][97][99] - 2025年,公司团队有数十篇论文被顶级会议收录,仅NeurIPS就达6篇,在世界模型、多模态理解与VLA方向持续获得国际认可 [100] 商业化进展与订单 - 公司打造的轮式通用智能机器人AlphaBot(爱宝)于2025年开始在工业场景规模化应用 [108] - 2025年9月,公司自建产线启用,并与全球前三的液晶面板厂商惠科签署了价值5亿元的大单,此为全球生产力型机器人最大的单一订单 [110] - 2025年12月,公司实现了单月百台级AlphaBot 2的真实交付,并规划在2026年将产线规模扩展至万台级别 [110] - 公司推出的模块化具身智能服务空间“智魔方”已在多地常态化运营,成为工业场景外的第二增量曲线 [109]
“谷歌AI之脑”哈萨比斯最新访谈:未来五年内出现AGI的概率非常高……
聪明投资者· 2026-04-18 10:08
公司背景与创始人特质 - 公司创始人德米斯·哈萨比斯是一位拥有计算机科学、认知神经科学背景及游戏行业经历的深度思考者,其核心关注点是智能的本质以及如何利用机器智能解决科学和医学难题[5] - 创始人的人生经历串联了国际象棋、游戏设计、计算机科学和神经科学,其思考主线始终围绕复杂系统的运行、智能的形成以及机器的推理与创造能力[5][6] - 公司于2010年在伦敦创立,当时人工智能领域尚未兴起,公司是一家独立的英国深科技创业公司,使命宏大但缺乏清晰的商业收入[6][7] 发展历程与关键里程碑 - 公司早期融资困难,依靠彼得·蒂尔的Founders Fund、埃隆·马斯克、李嘉诚的维港投资等特殊投资人的支持得以生存[7] - 2014年,公司被谷歌以6.5亿美元收购,创始人个人获得1.36亿美元,此举使公司获得了持续发展所需的资本、算力和组织耐心[7][8] - 2016年,公司的AlphaGo击败李世石,标志着人工智能在复杂领域取得突破性进展[9] - 公司的AlphaFold项目解决了蛋白质结构预测的世纪难题,相关贡献使创始人于2024年获得诺贝尔化学奖[9][10] 对人工智能技术与行业的观点 - 创始人认为,未来五年内出现通用人工智能的概率非常高,这一判断自公司2010年创立以来基于算力增长和算法进步的外推,基本保持一致[21][23][24][25] - 当前人工智能发展的最大瓶颈仍然是算力,其用途不仅在于扩大系统规模,也在于为大量新算法思路提供实验验证平台[26][28][29] - 尽管规模扩张的收益增长率可能放缓,但继续扩大现有系统规模仍能带来可观的回报,该路线并未达到平台期[30][31][32] - 当前人工智能系统在持续学习能力上存在关键欠缺,即部署后难以有效吸收新知识,这是未来需要突破的重要方向[36][37][39] - 人工智能模型存在“锯齿状智能”或一致性问题,即在某些方面表现卓越,但稍作调整便可能在基础问题上出错,这并非真正的通用智能[51][52][54] - 未来最有可能做出关键突破的仍然是少数领先的实验室,因为它们具备发明新算法的能力,而旧有方法带来的性能提升已接近极限[45][55][56] 商业模式与竞争格局 - 在开源与闭源模型的关系上,开源模型大概率会比最前沿的闭源模型慢一个身位,通常需要约六个月来复现前沿想法[59] - 公司自身也推进Gemma等开源模型系列,旨在特定规模区间内做到最佳,以服务小型开发者、学术研究者和创业公司[60] - 基础大模型路线已取得巨大成功,并持续从规模法则中获益,未来的通用人工智能系统很可能会建立在现有基础模型之上,而非将其替代[61][62] 行业应用与未来展望 - 通用人工智能将成为科学和医学的终极工具,有望开启一个科学发现的黄金时代[64] - 公司分拆出的同构实验室正致力于解决药物发现中的关键化学问题,预计未来五到十年内能建立起整套药物设计引擎[65][66] - 人工智能未来可通过模拟人体代谢、患者分层等方式优化药物临床试验流程,长期可能压缩甚至省去部分环节[67][69] - 人工智能将推动能源、材料等领域的突破,如优化电网(有30%到40%的效率提升空间)、气候建模、以及核聚变、新型电池和超导体等技术的发展[100] - 从中长期看,人工智能在能源领域创造的价值将远超其自身消耗的能源成本[100] 监管与安全挑战 - 人工智能技术是双刃剑,既可用于造福社会,也可能被恶意滥用;随着系统能力增强,确保其被安全限制在护栏之内是重大挑战[71][72] - 需要建立国际性的监管标准与基准测试,以检查模型是否具备欺骗性等危险属性,理想情况下可形成类似国际原子能机构的协作机制[73][76][78] - 政府应承担监管责任,并设立由高水平研究人员组成的专业机构(如AI安全研究所)来独立评估和审计这些系统[77][78] 社会与经济影响 - 人工智能革命将带来巨大的劳动力市场冲击,许多旧工作会消失,但同时也会创造出一批前所未有的、质量与薪酬更高的工作[85][86][87] - 通用人工智能带来的变革规模可能是工业革命的十倍,且发生速度也是其十倍,将在十年内而非一个世纪内展开[89] - 当前对人工智能存在“短期高估、长期低估”的现象,即未来一年的进展可能被过度炒作,但未来十年的颠覆性仍被低估[90][92][93] - 需要思考如何更广泛地分配人工智能带来的生产率提升收益,例如通过养老金、主权财富基金投资大型AI公司,或将收益用于基础设施等公共投入[94][95][96] 欧洲科技生态与公司选址考量 - 英国及欧洲拥有顶尖的人才基础、深厚的科学传统和世界一流的大学,这是公司将总部设在伦敦的重要原因[102] - 远离硅谷的创业中心虽可能错过最新的趋势和网络,但有利于进行深度思考和形成原创性判断,这对专注于长期目标的深科技公司而言是一种优势[104] - 欧洲科技公司面临的主要挑战在于成长阶段缺乏十亿美元级别的大轮融资,这限制了其发展成为全球性巨头的能力,释放养老金等长期资本的投资能力是关键[109] - 欧洲市场由许多较小市场组成是一道需要跨越的坎,但欧洲具备诞生万亿美元市值公司的潜力[107][108]
谷歌 AI 掌门人 Demis:“把模型做大”的红利快吃干了,OpenAI的算力护城河即将失效?
AI科技大本营· 2026-04-10 15:39
文章核心观点 - 通用人工智能(AGI)在未来五年内出现的概率很高,其定义是能够展现人类心智全部认知能力的系统 [7][9] - AI行业竞争的下一个关键胜负手不再是单纯扩大模型规模,而是发明新算法以弥补持续学习、记忆系统、长期规划和一致性等核心能力缺口 [3][4][14][23] - Google DeepMind通过整合内部分散的研究人才与算力资源,已重新回到AI研发的前沿位置 [17][18][20][21] - 开源模型在生态中将长期扮演重要角色,但预计会持续落后于最前沿的闭源模型大约半年时间 [14][24] - 公司对AI的终极押注在于“AI for Science”,旨在推动科学发现黄金时代,应用领域涵盖药物发现、电网效率提升、气候建模以及新材料研发等 [14][26][27][28] - AI发展带来的社会冲击将远超过互联网和移动互联网,需提前积极应对劳动力市场变革、财富分配等挑战 [33][34] AGI的定义、时间表与瓶颈 - AGI被定义为能够展现人类心智全部认知能力的系统,人脑是当前已知的唯一通用智能存在证明 [7] - 公司联合创始人从2010年基于算力增长和算法进步推演,预测AGI约在二十年内出现,目前进展基本符合该轨道 [10] - 当前实现AGI的最大瓶颈仍是算力,算力不仅是训练更大系统的需求,也是验证新算法想法的关键实验平台 [11][12] AI技术演进与竞争格局 - Scaling law(规模扩展定律)并未见顶,但增长幅度已从早期的极端指数形态趋于平缓,扩展系统仍能带来可观回报,只是收益不如最初夸张 [13][15] - 现有AI系统在持续学习、记忆系统、长期规划和一致性方面存在关键能力缺口,这些是系统与“通用智能”的主要差距 [14][16][19] - 视频模型和交互式世界模型等领域的进展远超行业五到十年前的预期 [16] - 行业最前沿的三四家实验室之间的差距将会重新拉大,决定性因素在于是否具备发明新算法的能力 [22][23] - 基础模型(如大语言模型)已被证明能力惊人,不会被简单替代,但未来的AGI系统可能将其作为关键部件而非唯一核心 [25] 公司战略与组织效能 - 公司过去十几年贡献了支撑现代AI产业约90%的关键突破,包括AlphaGo、强化学习、Transformer等 [17] - 通过将公司内部原本分散的顶尖研究人才、算力资源和产品化节奏进行深度整合,统一方向并集中资源,实现了加速发展 [18][20][21] - 公司致力于推动“AI for Science”,成立了Isomorphic Labs以将AI应用于完整的药物发现流程,目标在未来五到十年内打造出药物设计引擎 [27] - 公司认为AI可提升现有国家级电网效率30%到40%,并在天气气候建模、聚变能源、新电池及超导材料等领域成为关键工具 [28] 开源模型与生态定位 - 开源模型预计将长期保持比绝对技术前沿落后半年左右的格局 [14][24] - 公司同时积极开发并开源如Gemma等模型,旨在为小开发者、学术研究者、早期创业团队及边缘计算场景提供最佳工具 [24] - 开源与闭源并非简单的胜负关系,而将形成一种长期分层的生态格局 [24] AI的社会影响与治理 - AGI带来的变革被形容为“工业革命的10倍、而且快10倍”,其对社会劳动力市场的冲击将比互联网和移动互联网时代更大 [33] - 需提前主动处理技术革命带来的副作用,包括财富分配、基础设施供给和制度安排 [33] - 应对AI潜在风险需要建立国际协调的监管框架,包括设定最低安全标准、建立明确的危险特征测试基准,以及由独立研究机构进行系统审计 [29][30][31][32]
AI 季报 26Q1:OpenClaw、OpenAI 与 Anthropic 的三重对阵、自进化丨晚点播客
晚点LatePost· 2026-04-03 11:24
OpenClaw的崛起与AI Agent生态 - OpenClaw是一个开源的个人AI Agent框架,能在60天内其GitHub星数超过前端库React过去10年的累计,周下载量超过165万次[5][9] - 其成功标志着AI从聊天工具转向实际生产力工具,核心突破在于交互范式:它运行在本地电脑,拥有系统权限并能接入飞书、WhatsApp等日常聊天软件,使AI主动融入用户生活,而非用户主动寻找AI[9][10][11] - OpenClaw的流行在中国尤为显著,原因包括用户习惯聊天优先产品、使用Claude等应用受限、对成本敏感,以及其与高性价比国产模型的结合[12] - 它形成了一个模型厂商的新战场,中国公司反应迅速,如智谱推出了专门面向OpenClaw优化的GLM 5 Turbo模型[14][16] - OpenClaw当前存在成本高、稳定性与安全性三大不足,例如在长任务中可能因上下文压缩而丢失关键安全指令[17] - 业界正通过安全加固版本、无损压缩插件、多Agent协作插件及Skill市场等方式完善其体验[18] 头部AI公司的竞争格局演变 - **竞争焦点转移**:行业竞争焦点从纯模型能力(Benchmark跑分)转向产品与生态建设[6][9][30] - **Anthropic的强势崛起**:从2025年12月到2026年3月初,其年度经常性收入从90亿美元增长至190亿美元,增长约100亿美元,其中约75%收入来自B2B API服务,Claude Code在2026年2月的ARR达到25亿美元,已超过Cursor同期的20亿美元[23][24] - **OpenAI与Anthropic的三重竞争**:竞争体现在公司、产品(Codex vs Claude Code)和最新模型(GPT-5.4 vs Opus 4.6)层面[6][24] - **产品体验差异**:Claude Code在开发者意图理解和交流上更聪明,被比喻为负责规划的“主人”,而Codex在纯写代码能力上强,被比喻为负责执行的“奴隶”[25] - **公司战略对比**:Anthropic极为聚焦于编程和企业用户;OpenAI则优势在于庞大的C端用户基础和资金,但注意力分散,其内部已开始反思并减少支线项目投入,聚焦coding和企业服务[26][27] - **其他竞争者动态**:xAI在2026年Q1经历团队震荡,有联合创始人级别人物离职,追赶其他公司面临困难;Google正将AI深度集成进其办公套件,拥有强大的分发能力[28][29] AI模型与成本趋势 - **模型能力收敛与竞争新维度**:GPT-5.4、Opus 4.6及Gemini 3.1的能力差距正在收敛,Benchmark不再是核心差异点,下一阶段竞争关键在于开发者生态、企业信任感(安全合规)以及推理成本[30] - **编程能力成为通用代理基础**:全行业都在All in编程方向,模型的coding能力是担任个人助理类任务的基础,长上下文(如100万Token)和长程任务处理能力成为标配[30] - **推理成本成为关键**:Agent场景需要频繁调用模型,成本差距巨大,例如使用MiniMax的成本仅为使用Claude的5%,每月费用从约200美元降至15美元[14] - **中国开源模型受认可**:在OpenRouter的Token消耗榜上,中国模型如阶跃、MiniMax、Kimi、智谱等占据前列,性价比是核心优势,Cursor使用Kimi的K2.5模型作为基座也体现了对中国开源模型的认可[14][33][34] - **垂直整合趋势**:单纯做模型的厂商面临被“商品化”风险,趋势是从底层模型到上层应用的垂直整合,需要自有产品作为触手来收集真实的用户“轨迹数据”以指导模型优化[31][32] AI自我进化与前沿研究方向 - **Autoresearch展示自进化潜力**:Andrej Karpathy的autoresearch实验让AI Agent自主优化训练代码,在两天内找到20多个有效改进,将训练时间压缩了约20%[35][36] - **自进化案例密集出现**:包括Google的AlphaEvolved项目用Gemini优化自身内核提升23%性能,GPT-5.3 Codex参与自我调试,以及MiniMax发布的M2.7模型副标题为“自我进化的早期回响”[36] - **持续学习的两种路径**:一是基于文本和记忆机制的“穷人版”持续学习,易受上下文压缩影响;二是更前沿的权重更新技术,如Test Time Training,目前仅在数十亿参数小模型上验证可行[39] - **世界模型创业活跃**:方向包括3D空间建模、JEPA架构、视频信息与机器人学结合、环境模拟与交互式视频模型等,应用领域聚焦交互式媒体和具身智能[42][43][44] - **新的创业机会**:包括支持大规模个性化定制的工具、从大模型中精炼专门负责学习能力的小模型、以及将单Agent自进化实验扩展为多Agent并行协作等[41] 算力基础设施与行业影响 - **算力重点从训练转向推理**:英伟达新一代Vera Rubin架构推理性能提升3-5倍,推理Token成本可能降低10倍,Groq的LPU技术被集成其中[45] - **推理优化空间巨大**:例如Google的TurboQuant工作将KV Cache存储需求压缩至原来的1/6,CPU在Agent任务调度和执行中的作用凸显,需求出现增长曲线[46][47] - **AI引发组织与就业变革**:硅谷出现科技大裁员,如Meta裁员20%约15000人,并将节省的资金投向AI资本支出,预计AI投资将增加至650亿美元[48][49] - **企业用人逻辑变化**:招聘更重质量而非数量,倾向于“超一流人才+Agent”模式,全员AI native能力成为重点,小团队创业成为可能[49][50] - **社会影响探讨**:AI加剧资源与能力集中,可能扩大社会不平等,出现了对消耗大量计算资源的AI征收“Token税”的新思路[53][54]
北大团队提出 SHINE:将任意文本转化为大模型 LoRA,仅需一次前向传播!
机器之心· 2026-03-23 15:10
核心观点 - 提出了一种名为SHINE的全新超网络架构,能够仅通过一次前向传播将任意文本转化为大语言模型的LoRA参数,从而实现知识的快速内化与多轮对话 [2][3] - 该方法为大模型快速适配、持续学习和参数化记忆提供了新的技术路径,具有巨大的实用潜力和规模化应用前景 [2][5][8] - 该方向正受到学界和工业界的关注,未来利用超网络为大模型实时生成参数的研究将越来越多,并逐步走向实际应用 [5][6][44] 方法原理与架构设计 - 超网络由LLM和M2P Transformer两部分组成,以文本为输入,直接输出目标LLM的LoRA参数 [3][16][19] - 通过复用推理阶段的LLM来利用其知识,无需增加额外参数,解决了语义到参数的对齐难题 [19][23] - M2P Transformer是一个轻量级Transformer,负责将LLM提取的memory states转化为LoRA参数,整个框架仅需训练Meta LoRA、memory embeddings和M2P Transformer [20] - 架构设计解决了高维输出、效率和信息流动等挑战,避免了表达能力受限的瓶颈结构 [17][23] 训练流程与数据 - 训练采用与大模型一致的“预训练-指令微调”范式,可以直接利用现有的大规模训练数据进行训练 [10][25] - 预训练阶段包含重建和补全两个任务,使用了6B token规模的数据,是目前数据规模最大的用于训练超网络生成LoRA的工作 [28] - 指令微调阶段训练模型利用生成的LoRA基于文本回答问题,分为多轮QA和单轮QA两个阶段 [30][33] - 得益于架构创新,模型性能能够随着数据规模的增加持续提升,展现了明显的规模化潜力 [10][28] 性能与效率优势 - 在MS MARCO MQA数据集上,SHINE的F1 Score达到69.4,逼近了In-Context学习的黄金标准(69.4),且效果远优于Naive(23.2)和SFT(33.0) [35][36] - 在推理阶段,SHINE仅需一次前向传播即可生成LoRA,其摊销时间(Amortizable Time)几乎可以忽略不计(0.0秒),而SFT方法需要29.3秒 [35][36] - 由于知识已内化到参数中,SHINE的生成时间(Generation Time)为11.0秒,相比In-Context学习(14.2秒)显著减少,降低了推理计算开销 [11][35][36] - 在6个单步与多步推理QA数据集上,SHINE的性能非常接近甚至部分超过了In-Context方法,并明显优于其他基线方法 [37] 与现有方法的对比 - 与需要消耗大量时间和算力进行测试时训练的TTT方法相比,SHINE在SQuAD任务上以一次前向传播取得了63.6的F1 Score,优于TTT报告中的最佳结果(59.4) [38][39] - 相比于传统的监督微调,SHINE无需针对每个上下文进行多轮训练,效率得到极大提升 [11][36] - 相比于需要将上下文作为提示词输入的上下文学习方法,SHINE减少了token占用和推理计算开销 [11][36] - 与之前类似工作(如Gen Adapter)相比,SHINE在多个数据集上的表现更优,证明了其架构的优越性 [37][40] 可扩展性与应用前景 - 实验表明,无论是增大基础模型规模,还是提高LoRA维度、增加M2P Transformer层数,都能够持续提升SHINE的性能,展现了良好的可扩展性 [41] - 该方法具有良好的通用性与规模化能力,为大模型的知识注入与快速适配提供了新的、可落地的技术方案 [8][43] - 该研究为持续学习提供了新思路,即利用超网络建模记忆产生过程,将过往经验转化为模型参数 [12][43] - 该方向已引发业界跟进,例如Sakana AI的Doc-to-LoRA和腾讯的HY-WU,预示着未来将有更多研究探索这一范式 [5][44]
在被速度统治的时代,我们需要一份“慢”书单
财富FORTUNE· 2026-03-08 21:32
文章核心观点 - 文章通过汇集12位商界女性领导者推荐的16本书单,探讨了在快速变化和高度竞争的时代背景下,领导者如何通过阅读建立更宏大的思维尺度、内在秩序和行动智慧,从而超越对短期绩效和有限游戏的追逐,实现长期、可持续的个人成长与事业发展 [2][3] 书籍推荐与商业洞察 - **《文明论》**:在AI急速迭代和地缘政治多变的时代,该书引导读者从八千年的文明长河中寻找立身根基,将个体生命链接于更永恒的存在,从而获得内心的安定感,这种源自生命底色体认的自信,反而能让人在学习新事物时更加专注和高效 [5][6][7] - **《宇宙》**:提供了一种将个体置于浩瀚时间与空间中的视角,帮助读者认识到日常焦虑的相对性,从而在理性中保持诗意,在敬畏中坚持好奇,既承认局限也不放弃追问 [12][13] - **《原子习惯》**:强调真正的进步源于细微但持续的改变,1%的改进会在时间中产生惊人的复利,对于承担多重角色的女性而言,建立清晰方向、稳定节奏的可重复小行动,是可持续的自律方式 [13] - **《费曼经典:一个好奇者的探险人生》**:展示了好奇心作为一种力量的价值,它让人不急于下结论或站队,而是愿意多问多想,在强调效率和结果的时代,这种持续探索和更新自我的气质尤为珍贵 [12][14] - **《你当像鸟飞往你的山》**:重新定义了学习的意义,学习不仅是获取知识,更是不断突破认知边界、重塑自我的能力,这种能力是应对新市场、新挑战和艰难决策的重要底层能力 [16][17] - **《当呼吸化为空气》**:深化了对生命与勇气的理解,勇气是在恐惧中依然选择去做正确的事,这本书提醒人们保持对生命与责任的敬畏 [16][17] - **《心若菩提》**:通过曹德旺的真实经历,展示了创业者在面对拒绝、误解和质疑时应有的态度,创业的本质不分男女,真正的强大在于做人底线、做事格局以及历经艰险后心向光明的信念 [18][19] - **《超越百岁》**:阐述了健康的可塑性,健康是人生与事业的基石,在快速多变的时代,了解和保护好自己的身心是成功和幸福的基础 [21] - **《有限与无限的游戏》**:提供了重新理解事业边界、人际关系与自我价值的思维框架,商业中的多数任务是追求胜利的有限游戏,但行业的本质使命应是科技探索延续、精神传承和生态共生的无限游戏,最成功的实践者是能利用有限游戏的成果为无限游戏服务 [22][23][24] - **《每日斯多葛》**:通过每日短文的形式,将古典斯多葛哲学与现代职业生活结合,提供了关于掌控(区分可控与不可控)、逆境(以理性韧性回应)和自律(成功时谦逊、压力下镇定)的思考框架,帮助在不确定性中培养内在稳定 [26][29][32] - **《创业无畏》**:围绕互联网、大数据、AI、机器人、基因组学与合成生物学等指数型技术,回答了在指数级增长时代如何创造真实增量、推动组织升级的核心问题,认为在AI与能源革命并行的当下,每个人都可以成为内部创业者与创造者 [30][31][33] - **《无人之境:为何成长中的公司会失败》**:探讨了企业发展到中等规模后所面临的“无人之境”困境,指出决定走向的关键是组织能力,强调需要纪律、透明与高频沟通的团队,简化管理流程,聚焦可衡量的附加值,并确保1%的愿景有99%的执行一致性 [34][35] - **《人类存在的意义》**:从人类起源出发,结合人文与自然科学,思索人类存在的意义以及与自然的关系,唤起人们对创造更美好世界的向往 [36][38] - **《持续的幸福》**:提出幸福是可被系统性培养的能力,其PERMA模型与当前教育目标从“人力资本”转向“绽放的人生”的趋势相契合,关注个体福祉、意义与社会连结 [39][40][41] - **《第一选择》**:打破了“平衡神话”,强调每个阶段都要选择最重要的事,展现了在战略决策(如重塑百事业务版图)与个人生活(如家庭角色)间清醒取舍的领导哲学,变革始于对“人”的深刻共情 [42][43] - **《哈萨比斯:谷歌AI之脑》**:揭示了DeepMind创始人在资本、科技竞赛与伦理困境中保持初心的历程,展现了对跨界思维、长期主义和对“正确之事”的坚持,这些品质在AI重塑世界的当下尤为珍贵 [42][44][45] 行业趋势与领导力反思 - 在2026年这个以速度为底色的时代,商业领导者普遍面临被效率驱动、被迫更快决策迭代的压力,容易丢失更宏大的尺度 [2] - 科技行业亲历者指出,技术的快速迭代(如AI)虽能提升大脑的竞争适应力,但无法直接兑换为生命的安定感与幸福感,这催生了从古老智慧中寻找根基的需求 [5] - 商业航天领域的创业者反思,行业已习惯于用确定性和成绩定义价值,但行业的本质使命应是超越企业胜负的无限游戏,例如SpaceX实现了从追求单次任务胜利的有限思维,向以协同共生、长期主义、拓展人类文明边界为目标的无限游戏的范式转移 [23][24] - 在工程等行业面临前所未有的不确定性时,培养内在的稳定与清醒变得愈发重要,领导者不仅需要出色表现,更需在纷扰中保持真我 [29] - 面对平台力量崛起、商业逻辑重构和不确定性加剧的环境,指数型技术为创造真实增量、推动组织配套升级提供了清晰且可落地的思路 [31] - 未来教育的目标正从以技能、生产率与经济回报为中心(人力资本),转向关注个体福祉、意义、能动性与社会连结(绽放的人生),这一转变在瞬息万变的AI时代尤为迫切 [40][41] - 女性领导者在技术、伦理与人文之间寻找平衡时,需要汲取跨界思维、长期主义和对“正确之事”的坚持 [44]
“AI 2028危机”,究竟有多少已然发生
犀牛财经· 2026-02-26 14:57
AI技术发展对资本市场的影响 - 资本市场正提前交易AI引发的结构性变化叙事 导致市场情绪紧张 美国股市道琼斯指数单日下跌800点 金融蓝筹股如黑石和万事达也未能幸免[1] - 独立研究机构Citrini通过数据化、时间线化的推演 描绘了从AI替代软件、白领失业到宏观经济恶化的递归链条 使系统性风险叙事显得更为逼真[1][3] AI对软件行业(SaaS)的颠覆 - “AI吃掉软件”正成为市场共识 AI代理能自动化企业工具和流程 直接替代操作软件的白领员工 对传统SaaS公司的订阅收费模式构成根本性威胁[3][4] - SaaS公司面临分化 行动快者将转型为AI原生企业并利用AI 行动慢者可能被AI替代或沦为智能体的基础设施[4] - Anthropic的Claude Code宣布可协助现代化COBOL代码库后 市场对遗留系统维护和企业IT服务的长期价值产生质疑 导致IBM股价单日暴跌13%[5] AI智能体的能力扩展与行业渗透 - AI智能体的自主性和与人类协作的流畅性持续提升 Claude Code不间断自动执行任务的时长已超过45分钟 是三个月前的两倍[8] - 编程被视为AI能力“自我递归改善”的起点 模型厂商正探索通过AI生成下一代AI模型以加速开发循环[8] - Anthropic正通过投资与合作向医疗、法律、金融等16个垂直行业扩展 智能体生态开始形成 尽管当前渗透率仍低于编程领域[5] 中介经济与商业模式的变革 - 谷歌推出AP2允许智能体间直接支付与结算 标志着从传统电子商务向“AI商务”过渡的可能 可能削弱传统平台的撮合与流量分发价值[8][9] - 阿里巴巴的千问App通过一句话完成购买 将电商、支付等核心流程“插件化” 实现流量在应用内闭环 对依赖流量分发和广告的商业模式构成结构性挑战[9] - 传统业务逻辑层正被“agent tier”取代 其边际价值正被智能体吞噬[9] Token消耗与算力需求激增 - 据推算 到2027年3月 全球日均token消耗量可能超过1600万亿 美国人均日消耗量预计达到40万token[9][10] - 2025年10月 谷歌模型日均消耗43万亿token 约占OpenRouter市场的25% 推算出当时全球日均消耗约170万亿token[10] - 大型事件如春节会推动token消耗脉冲式增长 期间全球日均消耗已超300万亿token 其中字节跳动贡献约90万亿token[10] - 英伟达CEO预计全球token消耗量每年增长5倍[10] AI对就业市场的冲击与高管预期 - 美国国家经济研究局调查显示 企业高管预计未来三年AI将使生产率提高1.4% 但同时导致所有企业就业人数减少0.7% 而员工则预计生产率提高0.9%并增加0.5%的就业[11] - 自动驾驶领域岗位替代明显 Waymo约70名远程协助人员管理着约3000辆自动驾驶汽车 平均1人负责40余辆 小马智行在2025年一季度实现1人负责20辆车 并预计年底提升至30辆[14] - 被AI挤出的白领可能流向蓝领或低薪服务岗位 但自动驾驶等AI应用正在持续蚕食这些市场[14] 企业战略与行业准备 - 阿里巴巴在2025年下半年正式确立以千问为核心的集团级战略 以应对AI带来的交互方式变革[9] - Anthropic在2025年4月建立了经济顾问委员会 DeepMind在2026年1月开始招聘首席经济学家 以应对AI带来的经济和社会影响[11] - 尽管存在风险 但目前(2026年2月)企业家、就业者与监管层仍有时间建立新的均衡框架[14]
中金 _ AI主线开年布局展望:MiniMax首次覆盖
中金· 2026-02-25 12:08
报告投资评级与核心观点 * 首次覆盖MiniMax-WP(00100),公司是当前国内少数在基础模型能力与全球化AI原生应用商业化两端同时跑通的公司,在AI赛道中具备稀缺性 [2] 公司概况与稀缺性 * **业务布局**:公司以全模态融合技术模型为核心,向上构建AI原生应用与平台,形成了从模型到应用的全栈布局 [10][11] * **战略定位**:公司是国内最早押注原生全模态融合路线的基模厂商之一,从成立初期即同步推进文本、语音、视频模型研发 [2] * **全球化验证**:2025年前三季度,公司海外收入占比超过73%,覆盖超过200个国家及地区,是国内少有的已验证海外市场规模化变现能力的基模厂商 [2] * **商业模式**:公司坚定执行“技术即产品”路线,采用“前店后厂”模式加速模型与产品的拟合迭代 [2][16] * **组织效率**:公司为AI原生组织,秉持高效组织理念,截至2025年第三季度末,公司仅385名全职员工,其中研发人员占比73.8%,CEO以下设立不超过三层职级 [2][15][16] 行业趋势与竞争格局 * **市场规模**:全球生成式AI收入总市场规模预计将从2023年的929亿美元增长至2032年的16,198亿美元,年复合增长率约37% [25] * **竞争态势**:大模型行业从“百模大战”逐渐收敛至头部厂商,全球头部厂商表现出“竞相迭代、轮番领跑”的竞争态势 [26] * **取胜关键**:大模型研发遵循A=V*D的动力学模型,其中A代表模型能力进化加速度,V代表训练速度(含计算资源、组织能力等),D代表战略投入方向 [38] * **先发优势维持**:实现好的“工作负载-模型匹配”(WMF)有助于把握先发优势、提升用户留存率,形成“水晶鞋效应” [47] 公司多模态战略与技术优势 * **文本模型能力领先**:公司文本模型能力被市场低估,其M2模型发布后不久在Artificial Analysis智能指数榜单位列第五名 [30][31][50] * **文本模型迭代与性能**:M1模型在长上下文场景下具备极致性价比,原生支持100万Token上下文长度;M2模型采用交错思维链技术,具备反思能力;M2.5模型在编程、工具调用等场景达到或刷新行业SOTA水平,且价格仅为Opus、GPT-5等模型的5%-10% [50][54][67] * **视频模型全球领先**:公司Hailuo-02视频模型发布后在Artificial Analysis榜单排名全球第二 [30][31][81] * **音频模型全球领跑**:公司Speech 2.6模型在Artificial Analysis全球文生音频榜单中位列首位 [91][92] * **统一多模态竞争优势**:公司认为统一多模态是未来技术趋势,其在文本、图像、视频和音频等模态均拥有行业领先的自研模型,具备“全模态自研闭环”的技术积累,在统一多模态演进方向上有显著优势 [68][75] 产品矩阵与市场空间 * **AI Agent产品**:公司于2026年1月发布MiniMax Agent 2.0桌面端,定位从“对话助手”升级为“AI原生工作台”,采用模块化专家体系,支持与本地环境深度耦合 [99][105][107] * **Agent市场空间**:根据ARK研究测算,在乐观假设下,全球软件支出有望从2025年的1.43万亿美元增长至2030年的13万亿美元,年复合增长率56%,AI生产力具备十万亿美元级市场想象空间 [113] * **音视频产品**:公司音视频产品包括海螺AI(视频生成)与MiniMax语音(语音合成),其中海螺AI在全球头部视频生成产品中具备“物理一致性强”与“可控性高”的突出优势 [118][127] * **音视频市场竞争**:在语音生成领域,与ElevenLabs相比,MiniMax语音在长文本处理能力(单次最高20万字符)、延迟稳定性(端到端延迟低于250毫秒)和定价上具有优势 [130][136] * **音视频市场空间**:音视频生成市场面向专业创作者(P端)、企业客户(B端)和大众用户(C端),报告测算中性假设下,P端市场空间为32亿美元,B端为94亿美元,C端(社交平台)为917亿美元 [143][147][149] * **AI陪伴产品**:公司拥有Talkie/星野等全球头部AI陪伴与互动产品,据ARK Invest测算,AI陪伴软件市场规模在2030年可能达到700-1,500亿美元 [152][155]
AI主线开年布局-春节期间海内外大模型产业动态
2026-02-24 22:15
行业与公司 * **涉及的行业**:人工智能 (AI)、大模型、多模态生成与理解、Agent AI、AI基础设施、AI for Science、广告科技 (AdTech/MarTech) [1][3][9][18][21][25] * **涉及的公司**: * **国内**:智谱 (GLM)、Minimax、字节跳动 (C-DOS, C-Dance, 豆包)、阿里巴巴 (千问)、Kimi (月之暗面)、网宿科技、优克金山、石油股份、广联达、合合信息、海天瑞声、万兴科技、税友、硅基流动 (Circon Flow) [1][2][4][5][11][12][23] * **海外**:OpenAI、谷歌 (Gemini)、Anthropic (Claude)、Meta、Janice、Oasis、DeepMind、Sora、VEED、LLaMA、Mistral [1][6][7][13][16] 核心观点与论据 * **国产模型在中腰部市场凭借性价比优势崛起**:国产模型如智谱和Minimax在Agent AI和成本优化方面表现突出,在Open Router等第三方平台的调用量排名中占据领先地位,显示出在中腰部市场的优势 [1][2] * **Agent AI驱动Token需求显著增长,国产模型承接外溢需求**:Agent AI带来的Token需求增长显著,全球开发者对价格敏感度提升,国产模型凭借高性价比承接大量需求,例如智谱API价格虽上涨但仍具优势 [1][2] * **Kimi商业化表现亮眼**:Kimi K2.5发布后20天收入已超去年全年,其中海外收入占比更高 [1][4] * **字节跳动在多模态生成领域领先**:字节跳动C-DOS 2.0在视频生成领域效果、性价比和可用度均超越竞争对手Sora 2和VEED 3.1,春节期间用户量激增 [1][5] * **国内大厂模型具备成本优势**:字节跳动、阿里巴巴等国内大厂模型参数量不大但效果良好,具备成本优势,能够以较低成本提供高质量服务 [1][5] * **海外巨头明确长期目标与持续迭代**:OpenAI设定2030年收入目标为2,800亿美元,计划投入6,650亿美元算力;谷歌发布综合能力全球领先的Gemini 3.1;Anthropic推出性价比更高的Claude 4.6 Sonnet [1][6][7] * **AI行业未来三大发展趋势**:Agent带来的Token增长(可能带来10倍甚至百倍提升)、推理成本优化、多模态生成与理解 [3][9][10] * **Unified Model(统一模型)是重要技术趋势**:能够理解并生成内容,实现从图片到视频生成的一体化体验,预计将推动视频生成市场从目前全球10亿美金增长至260亿美金 [3][13] * **AI模型留存率低,企业自研需谨慎**:即使是领先的LLM(如GPT-4),6个月后留存率仅为30%,12个月后降至20%,企业自行训练和维护模型可能不划算 [16] * **Multi-Agent协作提升效能**:多代理协同工作可以产生涌现效应,Kimi K2.5通过统帅100个Agent分工合作,效果优于单个Agent [17] * **AI基础设施需求稳健**:尽管SaaS模式面临挑战,但对AI基础设施(算力、AIDC、CDN、云计算)的需求仍然是全面利好 [11] * **AI应用层存在长期投资机会**:尽管短期承压,但在行业know-how、数据和客户方面有深厚积累的公司(如广联达、合合信息等)长期有望证明价值 [12] 其他重要内容 * **技术发展方向**:未来AI模型将向“千人千面”(个性化)、“活在当下”(实时信息获取)、“举一反三”(情景记忆优化)三个核心能力发展 [15] * **2026年关键技术节点**:预计2026年推理端技术将有显著提升;2026年将是“持续学习”之年;AI for Science预计在2026年迎来重大转折点 [3][14][21] * **开源模型的部署与盈利**:在没有原厂技术支持的情况下,部署开源模型效果通常较差;开源许可证可通过法律手段强制用户在特定条件下付费(如用户数超一亿需付费);原厂对自身模型调优成本最低,第三方服务商可能落后3-6个月 [22][23][24] * **AI对广告行业的影响初现但未完全打开**:大型语言模型对广告行业的影响已在Meta和Google财报中初步体现,但尚未广泛应用于广告投放,预计今年国内广告生态可能有所动作 [25][26] * **超长视频理解与推理技术的应用前景**:该技术可集成到耳机或AR眼镜等硬件中,实现小时级视频识别与推理,带来巨大商业机会 [20] * **特定会议信息**:2026年3月10日至11日将在深圳举行春季策略会,探讨AI重塑AdTech和MarTech领域 [19]