Continual Learning
搜索文档
2026,是个“AI多模态大年”!普通人如何看懂十万亿美金的变局?
混沌学园· 2026-02-02 20:47
文章核心观点 全球AI产业格局正从“暴力美学”的预训练范式向“持续学习”的新范式演进 头部模型公司OpenAI、Google、Anthropic呈现“交替领先”与战略分化态势 投资应聚焦技术成长最陡峭的领域 包括领先模型公司、算力基础设施及技术溢出红利 并关注多模态、机器人、主动智能体等新物种的萌芽 [7][15][36][38][39] AI Labs竞争格局与战略分化 - **头部格局固化**:全球AI模型第一梯队由OpenAI(GPT)、Anthropic(Claude)和Google(Gemini)构成 这三家基础模型公司拿走了约90%的AI总收入 [7] - **交替领先成为常态**:在Tier 1阵营内 AI labs之间呈现“交替领先”状态 模型能力上个位数百分点的领先在商业回报上会被放大为数倍差距 [7][8] - **战略路线显著分化**: - **OpenAI坚定押注To C**:ChatGPT在消费端用户体验断档式领先 日活跃用户接近4.8-5亿 是Gemini(约9000万DAU)的5.6倍 正朝着“下一个Google”发展 [9] - **Anthropic专注To B与专业领域**:放弃通用To C市场 Claude Opus4.5在软件开发和Agent领域仍是SOTA 在处理长任务时更可靠、效果更好且更节省Token [9] - **Google优先发展多模态**:Gemini 3的多模态理解能力处于断档式领先地位 但在文本和编码能力上更多是追平OpenAI和Anthropic之前的水平 [10] 算力基础设施阵营对抗 - **GPU与TPU两大阵营对垒**:行业正形成NVIDIA(GPU)与Google(TPU)两大算力阵营 这将是贯穿一二级科技投资的主线 [11] - **生态模式对比**:Google凭借“模型+TPU+云+产品”构建了端到端、自成一体的生态 类似LLM时代的Apple 而NVIDIA则像Android 支撑起庞大的生态联盟 [11] - **性能与成本权衡**:GPU在综合性能上仍优于TPU 但受制于台积电产能且成本昂贵 Google通过TPU展现出更强的成本控制潜力 [11] 下一代技术范式:持续学习 - **范式转移的核心**:持续学习被认为是继预训练之后下一个极其重要的技术范式 旨在解决预训练面临的边际效应递减、数据枯竭等挑战 例如Gemini 3使用的50T数据量已接近极限 [17][18] - **核心目标**:从“存储知识”转向“样本效率” 让模型从“静态冻结的智能”转向能在推理和交互中实时学习的“鲜活智能” 实现真正的数据飞轮 [18][21] - **发展现状与挑战**:持续学习是长上下文、模型遗忘机制及数据分布漂移等5-10个学术难题的集合 难以短期内突破 但学界业界乐观预计2026年能看到明确信号 并希望在未来1-3年内逐步解决 [21] - **早期信号**:Google Research的Nested Learning展示了初步的In-weights Learning能力 Cursor通过捕捉用户对代码的接受或拒绝行为 能在小时级周期内更新模型 是Online RL的典型雏形 [22] 多模态与机器人发展 - **2026年为多模态大年**:多模态技术路径正向“Omni-in, Omni-out”收敛 视觉、音频、文本被统一Token化 纳入同一个自回归序列建模 模型开始具备跨模态“通感”能力 [46] - **机器人是多模态与世界模型的重要接口**:机器人可利用“合成世界”进行训练 解决现实数据不足的问题 Agent具备了“看懂UI、读懂屏幕”的能力 [46][47] - **机器人领域GPT时刻尚需3-5年**:与LLM不同 机器人领域“Day1就是分化的” 因缺乏统一预训练基础和硬件标准 目前正处于“百花齐放”阶段 [53] - **数据是机器人领域的核心赌注**:各家公司采用截然不同的数据方案 例如Generalist收集了27万小时真实机器人交互数据 Sunday通过“手套+众包”模式收集了1000万条人类动作数据 [55][56] - **强化学习作用关键**:在机器人领域 RL的作用比在LLM中更为显著 例如Physical Intelligence的RECAP策略能让机器人在叠衣服、冲咖啡等长时程任务中实现连续10小时稳定执行 [58] 智能体演进与商业模式 - **主动智能体成为主赛场**:下一代智能体将从被动Chatbot转向能主动提供服务的Proactive Agent 这要求模型具备意图识别、始终在线和长期记忆三大核心能力 并与持续学习范式紧密相连 [60][62] - **语音智能体成为新OS入口**:行业正从传统的“STT→LLM→TTS”三段式架构 转向Real-time Speech-to-Speech的端到端解决方案 大幅减少反应时间 ElevenLabs凭借早期数据规模与质量优势构建了护城河 [66][68] - **LLM推理价格快速通缩**:以MMLU为质量指标衡量 推理价格每年下降10倍 自GPT-3发布三年来 同等能力模型推理成本已下降约1000倍 但Agent复杂工作流导致的Token用量激增抵消了单价下降红利 [74][75] - **商业模式面临效率质疑**:市场对AI泡沫的担忧部分源于Sam Altman提出的1.4万亿美元财务承诺 分析指出其中约三分之二包含“有条件解锁”条款 相对容易撤销或展期 [26] - **收入想象力在于新增市场**:在可见的商业模式下 OpenAI未来收入规模预计在2000-3000亿美元之间 其真正想象力在于创造“看不清”的新增净市场 例如AI作为新劳动力释放价值甚至创造增量GDP [28][32] 投资策略与市场视角 - **投资核心策略**:只投资技术成长最陡峭的地方 具体包括三条主线:投资全球最领先的模型公司、投资最领先模型所需的算力与硅基基础设施、投资最领先模型技术溢出的红利 [36][38] - **构建AGI投资组合**:因技术变化快且各家交替领先 最佳策略是构建一个AGI指数组合 理想的配置包括OpenAI、ByteDance、Google、Anthropic、Nvidia以及台积电 [39] - **二级市场聚焦AI Beta**:AI Beta(行业红利)仍是科技创新主旋律 市场叙事已从“AI泡沫”转向“AI战争” 意味着看到堪比大航海时代的发展机遇 [89][90] - **硬件层投资逻辑**:在GPU与TPU阵营对抗中 只要需求远大于供给 两者都具备投资价值 策略上可向暂时落后的一方稍作倾斜 NVIDIA下一代Rubin芯片设计激进 功耗从1800W拉高到2300W HBM带宽从13TB/s提升到20TB/s [96][98][99] - **关注智能体潜在赢家**:在Proactive Agent萌芽阶段 潜在受益公司包括与OpenAI深度合作的Intuit(已投资1亿美元)、作为电商基础设施的Shopify、数据基础设施公司Snowflake & MongoDB 以及通信API公司Twilio [108][109][110][113]
How To Play AI Beta:拾象 2026 AGI 投资思考开源
海外独角兽· 2026-02-02 09:14
文章核心观点 - AI领域竞争格局快速演化,市场共识频繁翻转,行业正进行系统性复盘 [2] - AI并非零和博弈,OpenAI与Anthropic仍有巨大赢面,Google的崛起共同做大市场 [2][12] - Continual Learning成为AI实验室押注的新范式共识,预计2026年将看到明确信号 [2][15] - AGI竞赛类似自动驾驶,全面实现L4难度大,但在知识工作等垂直领域已实现可观的效率提升和经济价值 [2] - “NVIDIA + OpenAI”主线短期内可能被市场低估,投资OpenAI是在下注AI时代的“前所未见之物” [2][30] - 理想的AGI投资组合应包含Google、Nvidia、OpenAI、Anthropic、ByteDance和TSMC [2][32] - 模型即产品,数据即模型,阶跃式产品体验提升依赖于底层模型换代,而模型能力提升的核心在于数据投入 [2][36][37] 当前竞争格局 - 全球AI模型头部格局已定,OpenAI、Anthropic和Google构成第一梯队,技术领先与品牌效应形成高溢价 [6] - AI实验室呈现“交替领先”与“分化”的竞争常态 [4] - 技术路线出现分化:OpenAI坚定押注To C市场,ChatGPT DAU接近4.8-5亿,是Gemini(约9000万DAU)的5.6倍;Anthropic专注于To B、Coding/Agent等专业领域;Google将多模态能力置于战略首位 [7][8] - 算力领域形成GPU与TPU两大对垒阵营:Google构建了类似Apple的端到端生态,而NVIDIA则支撑起庞大的Android式生态联盟 [10] 重要技术趋势 - Continual Learning是下一个范式级技术,旨在让模型从“静态冻结”转向“鲜活”,在推理中实时学习 [15][16] - 该范式是解决机器人、世界模型等多模态问题的关键,否则相关领域可能需走10年弯路 [15][17] - 其目标是实现“样本效率”,让AI具备“超级学习力”,但成熟需基础设施支持并解决5-10个学术难题,预计2026年能看到明确信号 [19] - 当前已有早期信号,如Google Research的Nested Learning和Cursor的Online RL雏形 [19][20] - OpenAI、SSI和Thinking Machines Lab在该领域投入领先 [20] 商业模式与效率挑战 - 市场对AI泡沫的担忧部分源于OpenAI提出的1.4万亿美元财务承诺,但其中约三分之二包含“有条件解锁”条款,相对容易撤销或展期 [24][25] - 在现有可见商业模式下,OpenAI未来收入规模预计仅在2000-3000亿美元之间,仅能勉强抵消资本开支折旧 [25] - To C市场:假设拥有40亿周活用户且订阅率达10%,年收入约800亿美元;在电商与广告领域,收入上限约在400亿至1000亿美元 [27] - To B市场:即使5000亿美元的SaaS市场全部被AI重构且收取20%“过路费”,收入上限也仅为1000亿美元 [27] - 真正的增长想象力在于创造增量GDP,例如Agent若能创造20%程序员或白领的价值,对应市场增量分别为3000亿美元和3.5万亿美元 [27] - 实现此目标需依赖Continual Learning的突破,解决模型可靠性和端到端能力 [28] - 目前AI投资更被视为一种“国防”开支,巨头为免被颠覆将持续投入 [30] 产品与模型发展 - “模型即产品”:阶跃式产品体验提升源于底层模型换代,例如Sora、Veo的视频生成能力进步及Nano Banana Pro的图文解读能力 [36] - 头部实验室的模型分化取决于其战略选择和服务对象 [36] - “数据即模型”:模型进步依赖对人类“未留痕数据”的蒸馏,Pre-training数据如石油即将枯竭,RL专家数据如新能源成本高,Continual Learning如核聚变潜力巨大 [37] - 2026年是多模态大年,技术路径向“Omni-in, Omni-out”收敛,视觉、音频和文本被统一Token化 [38] - 多模态进步直接利好机器人学习和多模态Agent [38] 机器人领域进展 - 机器人领域的“GPT时刻”可能还需3-5年,且从一开始就呈现分化态势,因缺乏统一的Pre-training基础和硬件标准 [43][44] - 2025年Q4湾区AI机器人公司集中发布,如Google DeepMind及其衍生公司Physical Intelligence、Generalist等 [44] - 这些公司强调真实世界数据、专注于上半身精细操作,并致力于打造泛化的机器人大脑 [44] - 数据是机器人领域最重要的投入,各家公司采用截然不同的数据配方:Generalist收集了27万小时真实机器人交互数据;Sunday通过“手套+众包”收集了1000万条家庭数据;Physical Intelligence在Airbnb真实环境中持续收集数据 [46][47] - RL在机器人领域作用显著,例如Pi的RECAP策略能让机器人实现连续10小时稳定执行长周期任务 [47] - 机器人商业化落地开始探索,如Dyna为B2B商家提供服务,同时硬件的重要性被重新评估 [48] Agent与语音交互演进 - Proactive Agent是模型公司主赛场,需具备意图识别、Always-on和长期记忆三大核心能力,与Continual Learning范式紧密相连 [50] - 它能构建更高维度的护城河,实现真正的个性化,OpenAI等公司已在此方向布局 [50][51] - Voice Agent过去12个月飞速发展,2025年底可能是市场结构性拐点,技术架构正从三段式转向端到端的Real-time Speech-to-Speech [53] - ElevenLabs凭借早期建立的数据规模与质量优势构建了护城河,并具备类似操作系统层级的防御性 [55] - Voice Agent的成功逻辑偏向垂直领域,需深度嵌入行业数据闭环与核心工作流 [56] - Infra层公司如Retell和Vapi的本质是将电话线托管成一套“语音操作系统”,Retell的ARR已接近4000万美元 [57][58] 市场竞争与用户洞察 - Gemini 3发布后,ChatGPT首次因模型竞争出现流量和用户下跌,但ChatGPT在用户粘性上保持优势 [62] - 流量争夺:Gemini的MAU已达ChatGPT的20%-25%,但Gemini的DAU/MAU仅约10%,远低于ChatGPT的约25% [63] - 地域差异:ChatGPT守住美、英、德等高价值市场;Gemini采取“农村包围城市”策略,在印度、巴西等新兴市场渗透率高,MAU达ChatGPT的1/3以上 [63][64] - 用户行为:ChatGPT正确立“Personal Assistant”心智,非生产力类查询比例上升,移动端活跃度高;Gemini更多被视为生产力工具 [66] - 入口之争:AI Chatbot已成为重要信息检索入口,Google Search与ChatGPT的流量比例已从95:5演变为85:15 [68] 投资视角与市场叙事 - AI Beta仍是科技创新主旋律,市场叙事已从“AI Bubble”转向“AI War”,后者即是对前者的否定 [69] - 当前“泡沫”本质是OpenAI承诺的泡沫,二级市场估值并未出现明显泡沫 [70][71] - 投资需坚守AI Beta并对新物种保持敏感,新物种涌现将带来更大Alpha机会 [72] - 硬件层面,GPU与TPU阵营势均力敌,应同时持有但可向暂时落后方倾斜 [73][74] - NVIDIA在产品路线图和商业模式上具备优势,是更纯粹的“军火商” [74] - 智能应用层,OpenAI已重新将资源集中到Pre-training,并在Agent布局上更充分 [75][76] - 若Gemini优势扩大,可能推动NVIDIA与OpenAI形成更紧密的“反Google同盟” [77][79] 潜在投资机会 - 投资应聚焦于技术成长最陡峭的领域:全球领先的模型公司、其所需的算力与硅基基础设施、以及技术溢出的红利 [32] - Proactive Agent处于早期萌芽阶段,2026年可能接近真正落地时刻 [79] - 应用新分发形态:Intuit作为OpenAI APP SDK的First Mover,已投入1亿美元,可能成为标杆案例 [81] - Agentic Commerce:Shopify作为电商后台基础设施,无论哪家模型胜出都可能受益 [81] - 企业定制化:Snowflake & MongoDB等Data Infra公司受益于企业大规模自建Agent的趋势 [82] - 新码农:JFrog可能受益于Coding Agent导致的代码构建物数量增长 [82] - 新客服:Twilio作为按量计价的通信基础设施,可能受益于Voice Agent使用量爆发 [83]
硅谷“钱太多”毁了AI ?!前OpenAI o1负责人炮轰:别吹谷歌,Q-Star 被炒成肥皂剧,7年高压被“逼疯”!
新浪财经· 2026-01-25 09:24
Jerry Tworek离职OpenAI的核心原因 - 核心人物Jerry Tworek于2026年1月离开OpenAI,其离职在内部引起巨大震动,被描述为“突然”且“重”[2][86] - 离职主要原因是希望从事有风险的基础研究,而OpenAI等大型AI公司已优先考虑用户增长等商业化指标,导致研究与产品开发脱节[2][86] - 在OpenAI的近七年里,公司从约30名员工成长为规模庞大的全球性公司,Jerry Tworek参与了包括Q-Star、Strawberry(后发展为o1推理模型)、GPT-4、ChatGPT以及早期代码模型和Chinchilla缩放规律在内的众多关键项目[13][14][86] 对OpenAI及行业现状的批评 - 指出OpenAI创新不足,原因包括:最佳模型的竞争异常激烈,公司需不断展现实力以留住用户并证明高昂的GPU成本合理性;僵化的组织结构(组织架构图)导致团队各自为政,跨团队研究难以开展[3][17][89] - 批评整个人工智能行业高度同质化,所有主要AI公司都在开发几乎相同的技术,产品几乎没有区别,迫使研究人员追求短期利益而非实验性突破[3][23][89] - 认为谷歌之所以能成功追赶OpenAI,本质上是OpenAI自身的失误,包括犯了一些错误、行动过于缓慢,未能充分利用原本拥有的巨大领先优势[3][55][89] 对行业研究环境与文化的观察 - 指出大模型行业的叙事已变得娱乐化,像“肥皂剧”或“真人秀”,技术进展被包裹在关于离职、跳槽和内部纷争的连续剧式叙事中,研究者像是在聚光灯下跑一场没有终点的马拉松[6][44][48][92] - 行业的高薪在某种程度上使研究者害怕失去工作,更倾向于追求短期、确定性的收益路径,而非鼓励冒险和大胆下注[28] - 认为研究结构、文化和协作方式比依赖某个特定“明星”研究者更重要,频繁跳槽的研究者往往反而不够高产[80][81] 看好的研究方向与未来展望 - 认为Transformer架构并非终点,行业存在“路径依赖”,呼吁进行“架构创新”,探索训练大模型的新方法[36] - 指出“持续学习”(Continual Learning)是将测试时与训练时真正融合的关键能力,是目前模型迈向AGI前最后几个关键要素之一[37] - 强调“推理模型”(如o1)是继GPT-4之后最重要的能力跃升,其核心是在对世界有深刻理解的基础模型上叠加规模化强化学习,未来应沿此方向前进[20][21][33] - 看好利用电子游戏等复杂环境训练AI智能体的方向,认为这是贴合人类智能、教授问题求解的有趣途径[31] 对竞争对手的评价 - 高度评价竞争对手Anthropic,认为其在过去一年展现出罕见的“清晰感”,尽管算力更少、团队更小,但异常专注、执行力极强,特别是在代码模型与代码Agent方向上取得了不是单纯堆规模的显著成果[4][5][61][62][90][91] - 认为Meta的战略可能不是追求模型层面的完全差异化,而是利用已成熟的AI技术(如Transformer)来构建全新的产品体验,这对其业务而言是合理策略[60][61] - 提及像John Carmack、Ilya Sutskever等人正在押注完全不同的、激进的新研究路线,这种探索值得被资助[28][29][30] AGI发展路径与时间线看法 - 个人对AGI时间线有所更新,此前认为规模化强化学习即是AGI,但现在认为还需整合持续学习、多模态感知等关键能力[38][39] - 认为要实现AGI还有很多必要步骤,但进展可能很快,时间线可能在2026至2029年之间,不会更久太多[39] - 强调当研究者看到像Q-Star早期迹象这样的全新技术出现时,感到担忧和谨慎是健康且负责任的反应[41]
硅谷“钱太多”毁了AI ?!前OpenAI o1负责人炮轰:别吹谷歌,Q-Star 被炒成肥皂剧,7年高压被“逼疯”!
AI前线· 2026-01-24 13:33
文章核心观点 - 文章通过OpenAI前核心研究员Jerry Tworek的离职访谈,揭示了当前大模型行业在激烈竞争下出现的创新瓶颈、研究商业化压力以及行业叙事娱乐化等问题,并探讨了未来AI研究的潜在突破方向 [3][4][6] OpenAI内部变化与Jerry Tworek的离职 - Jerry Tworek于2019年加入OpenAI,当时公司仅有约30名员工,他是现代AI浪潮背后最有影响力却最少露面的关键人物之一,参与了包括Q-Star、Strawberry(最终发展为o1推理模型)在内的许多最重要项目 [3] - 其离职在内部引起巨大震动,多位员工在社交媒体上表示“崩溃”和“难受” [3] - 离职主要原因是想从事有风险的基础研究,而这在OpenAI已不可能,因为公司优先考虑用户增长等商业指标,研究与产品开发之间存在日益加剧的分歧 [3] - 他认为在OpenAI的七年,每一年都像在一家完全不同的公司,经历了从30人小团队到全球数千人员工规模的巨大变化 [17][18][19] 大模型行业面临的挑战与问题 - **创新不足与同质化竞争**:所有主要AI公司都在开发几乎相同的技术,产品几乎没有区别,迫使研究人员追求短期利益而非实验性突破 [4] - **组织架构僵化**:团队各自为政,职责分明,跨团队研究难以开展,组织结构决定了哪些研究是可能的,最终导致公司“交付其组织架构图”,只做组织结构最容易支持的项目 [4][22][23] - **风险偏好降低**:公司需要不断展示最强模型以留住用户并证明高昂的GPU成本(未给出具体数字)的合理性,这影响了承担风险的“胃口” [4][22] - **行业叙事娱乐化**:整个行业被持续围观,技术进展被赋予额外意义,内部变化被解读成信号,研究现场被包裹进一层娱乐业式的叙事,像在聚光灯下跑一场没有终点的马拉松 [6][7][58] 对主要AI公司的评价与比较 - **OpenAI的失误**:谷歌之所以能在AI竞赛中成功追赶,本质上是OpenAI自身的失误,公司犯了一些错误,行动过于缓慢,没能充分利用原本拥有的巨大领先优势,导致一些关键推进“慢得不该那么慢” [4][5][67][68][72] - **Anthropic的清晰感**:在过去一年里展现出罕见的“清晰感”,算力更少、团队更小,却异常专注、执行力极强,特别是在代码模型与代码Agent方向上取得了不是靠简单堆规模取得的成果 [5][75][76] - **谷歌的追赶**:谷歌做出了许多正确决策,并凭借其在硬件、算力和人才储备上的巨大优势成功追赶,但OpenAI的领先最初靠的是对特定技术路线的强烈信念而非资源优势 [4][68][69] - **Meta的战略**:可能选择使用已熟悉的AI技术(如Transformer)来构建全新的产品体验,而非在模型层面追求完全不同的路线,这对其作为社交巨头而言是合理的策略 [74][75] 未来AI研究的潜在方向 - **超越Transformer的架构创新**:Transformer不可能是机器学习的最终架构,存在其他训练大模型的方法值得探索 [45][46] - **持续学习(Continual Learning)**:如何把测试时与训练时真正打通、融合,让模型能像人类一样从看到的数据中持续学习,这是实现AGI的关键能力要素之一 [47] - **世界模型与强化学习的结合**:在高质量世界模型之上大规模运行强化学习,是“毫无疑问正确”的方向,能教会模型仅靠预训练永远学不会的技能 [26][43][44] - **探索与利用的权衡**:行业需要像设计智能体一样,思考如何在研究中进行“探索与利用”的取舍,鼓励更多冒险和大胆的赌注,因为真正的进步正是这样发生的 [36][40] 对AGI(通用人工智能)的展望 - 对AGI时间线的判断有所更新,一年半前认为规模化强化学习即是AGI,但现在认为还需整合持续学习、多模态感知等能力 [49][50] - 不认为谈论AGI是离谱的,但按其定义当前模型仍不是AGI,实现“文明级里程碑”还有很多必要步骤 [49][50] - 预计AGI可能的时间点在2026至2029年之间,不会更久太多,因为投资在年复一年累积增长,人才池和探索的想法数量都在变多 [50] 对AI行业生态与文化的观察 - **高压环境**:在OpenAI工作甚至被描述为比创业压力更大,研究者需要像“做俯卧撑”一样锻炼心理韧性以应对持续高压 [7][61][92] - **人才流动与“明星驱动”**:湾区像一个巨大的转会市场,研究者在几家前沿实验室之间流动,但公司的结构、文化和协作方式比某个特定研究者的去留更重要 [6][96][97][98] - **资源分配问题**:许多有潜力的研究方向缺乏关注、算力和资源,且行业更擅长“从0到1”提出想法,而将不成熟的想法做到大规模可靠落地(从1到100)同样关键但资源往往分散 [84][85][92][93]
拾象 2026 AI Best Ideas:20 大关键预测
海外独角兽· 2026-01-01 13:25
文章核心观点 文章对2026年人工智能领域的发展趋势做出了20项关键预测,核心观点认为2026年将是AI技术深化、应用爆发和商业格局重塑的关键一年,涵盖新范式探索、模型竞争、多模态突破、企业级应用、硬件基础设施变革以及自动驾驶商业化等多个维度 [2][4] 技术范式与模型发展 - **新范式信号出现**:行业预计在2026年将在持续学习(Continual Learning)等新范式上出现积极信号,可能在1-2个技术路线上达成共识,出现类似Transformer的代表性工作或早期共识,这是突破当前模型代际差距的关键 [5] - **World Model路线收敛**:世界模型的技术路径预计在2026年结束“盲目探索”,达成共识,进入“GPT-2时刻”,即技术路线收敛后通过扩大规模(scaling)验证模型上限,进入爆发前夜 [4][20] - **开源模型格局变化**:预测中国公司如Qwen和DeepSeek将持续占领开源领域的SOTA(最先进水平),全球开源第一梯队将完全由中国公司占据,而美国顶尖团队因专注于闭源模型,将缺乏与之抗衡的对标产品 [4][25] - **AI参与科研深化**:预计在2026年左右,AI将更“原生地”解决第一个重大科学问题,最有可能发生在数学、物理或材料学领域,背景是OpenAI、Google等AI实验室加大了对科学领域的投入 [4][23][24] 主要参与者与竞争格局 - **OpenAI叙事反转与估值**:预测OpenAI将在2026年下半年扭转叙事,估值突破万亿美元,驱动力包括ChatGPT成为全球性入口、探索新的商业模式,以及有望在持续学习新范式上取得突破并重回SOTA地位 [4][9][10] - **xAI并入Tesla**:预测xAI将被并入Tesla,旨在打通数字与物理世界的AGI,将xAI的智能资产转化为Tesla在自动驾驶和具身机器人(如Optimus)领域的“具身智能”溢价 [4][11] - **Google市值突破**:预测Google市值将在2026年进一步冲高,突破5万亿美元,这意味着其EPS有望达到16至20美元,市场可能给予30倍以上的PE倍数,信心来源于其稳固的模型第一梯队地位、多模态积累以及广告业务的韧性 [4][34] - **M7科技巨头分化**:预测到2026年,M7巨头在AI上的收益和穿越周期能力差异将加剧,分化为三层梯队:NVIDIA和Google是核心赢家;Apple和Tesla因硬件和物理AI优势维持中间地位;MSFT、AWS和Meta可能掉队 [4][35] 产品、应用与商业化 - **ChatGPT成为全球入口**:预测ChatGPT的DAU将从当前的约4-5亿在2026年翻倍,达到8亿至10亿,成为真正意义上的“全球性入口”;同时,其Web端流量与Google的比例将从约85:15演变为至少70:30,达到“1/2个Google”的体量 [4][6] - **ChatGPT的“App-store Moment”**:预测ChatGPT将出现“应用商店时刻”,标志是诞生第一个年度经常性收入(ARR)达1亿美元的原生Killer App,实现从超级工具向超级平台的跃迁,AI将直接推荐并嵌入应用功能到对话流中 [4][7][8] - **企业级AI大年**:预测2026年是“企业级AI大年”,爆发路径分化为“Buy”(开箱即用产品,如AI-native办公工具)和“Build”(基于API深度构建Agentic工作流)。Anthropic因其作为中立、跨云的强API提供者的结构性优势,预计ARR将至少翻倍,突破200亿美元 [4][12][14] - **多模态迎来“AI Coding时刻”**:预测多模态领域将像AI编程一样开始产生规模化的商业收入,出现代表性公司,并预计在2026年诞生类似“Pokémon GO”的现象级AI多模态内容消费产品,推动软硬件协同进化 [4][15][16] - **自动驾驶规模化商业变现**:预测2026年是自动驾驶“大规模商业化大年”,全球Robotaxi车队总量可能从约2万台增长10倍,达到约30万台量级;Tesla的FSD订阅用户数预计从70万翻倍增长至150万左右,成为重要现金流来源 [4][36][37] 基础设施与硬件 - **推理算力大爆炸**:预测2026年将是推理算力“大爆发”之年,从Tokens消耗角度看预计至少有10倍增长,驱动因素包括从对话转向“长程任务”、Proactive Agents的主动行为以及多模态与世界模型应用带来的高维计算需求 [4][30][31] - **NVIDIA投入光互联与CPO并购**:预测NVIDIA将在2026年激进投入光互联领域,并可能引发全球共封装光学(CPO)领域的并购潮,NVIDIA凭借微环调制器等技术在光互联领域建立代差壁垒 [4][27][28] - **多模态引发存储革命**:预测多模态训练的爆发将硬件关注点引向存储带宽与容量,特别是eSSD;如果世界模型路径跑通,将进一步驱动存储需求,存储将从芯片外设深度融入算力核心,NVDA和Google可能推出针对视频处理的专属芯片或chiplet [4][29] 行业生态与资本市场 - **新一波数据公司崛起**:预测长程任务(Long-horizon Tasks)和多模态需求的爆发将催生新一波ARR达10亿美元的数据公司,需求来自高难度的长轨迹数据、多模态标注处理以及企业级AI落地所需的专有领域知识 [4][17] - **AI公司IPO大年**:预测美股将在2026年迎来AI公司IPO大年,SpaceX、OpenAI和Anthropic等巨型公司以及已具规模的垂直AI公司可能密集上市,反映极高的市场热度,但巨型IPO也可能成为市场情绪峰值信号 [4][32][33] - **AI公司估值共识形成**:预测随着Agent产品(如Proactive Agent、长程任务应用)的普及,2026年将形成新的、可量化的Agent产品价值评估体系,取代传统的用户留存、企业IT预算等指标 [4][26] - **Agentic Web博弈与协议**:预测Agentic Web(AI能跨越边界替用户行动)将打破现有流量分发逻辑,引发类似“3Q大战”的利益冲突,而Apple可能凭借其软硬全栈布局和强势生态,在2026年推出决定性的Agentic Web协议规范 [4][21][22]
房间里的大象:Ilya挑明AI的“高分低能”,呼吁要从研究到scale到再重回研究时代|Jinqiu Select
锦秋集· 2025-11-26 15:01
文章核心观点 - 当前AI模型在评估中表现优异但经济影响滞后,揭示了过度拟合评估而非真实世界需求的根本问题[14][17][18] - 行业需要从依赖确定性的“规模扩展”范式,转向以解决泛化能力为核心的新“研究时代”[6][14][57] - 真正的超级智能形态应是一个具备强大持续学习能力的系统,而非一个预训练的“成品”[96][97][98] 对AI范式的批判 - 模型存在行为波动性,上一秒能完成复杂任务,下一秒却连续犯低级错误[2][19][20] - 矛盾在于模型评估得分高但现实经济效果完全跟不上,评估表现与实际世界表现脱节[14][17][18] - 问题的核心可能在于强化学习训练使模型变得“过于专注和狭隘”,导致基础任务表现迟钝[21][22] - 真正的“奖励黑客”是过于关注评估指标的研究人员,而非模型本身[14][24] 从规模时代重返研究时代 - AI发展可分为两个阶段:2012-2020年为研究时代,2020-2025年为规模扩展时代,现在需重返研究时代[14][57] - 规模扩展配方(将计算力和数据塞进大型神经网络)提供了确定性收益,但改变了世界的是创新研究而非更大模型[6][14] - 公司偏好规模扩展因其资源投入风险低,而研究则充满不确定性[55][56] - 当前计算力已非常充足,行业再次回到“研究时代”,但此次拥有更大的计算资源[57][59] 人类实践中的经验启示 - 人类在15岁时所见数据量极少,但理解更深且不会犯AI那样的错误,表明人类学习样本效率极高[40][66] - 人类学习不依赖明确奖励体系,而是通过讨论、展示等互动方式自然习得[66] - 情感可能是一种被忽视的“价值函数”,能帮助人类快速判断行为好坏,对决策至关重要[43][45][51] - 进化赋予人类强大的先验能力(如视觉、运动),但人类在现代技能(语言、编程)上的快速学习能力表明其学习系统本身非常强大[69][70][72] 超级智能的形态与路径 - 超级智能不应是预训练完成的“全能大脑”,而应是一个可以学会做经济中每项工作的优秀学习算法[14][97][98] - 超智能系统更可能以“持续学习智能体”的形式被部署到经济中,通过实践学习积累技能[96][97][98] - 广泛部署可能引发快速经济增长,但具体速度受各国规则差异影响,存在不确定性[98][99][100] - 对超智能发展的时间预测在5到20年之间[113] 研究的方法与审美 - 研究需要“自上而下的信念”,即在实验与预期矛盾时支撑研究者的核心判断[14][123] - 优秀的研究品味源于对AI应有状态的美学判断,追求简洁、优雅且正确受大脑启发的理念[122][123] - 想法本身并不廉价,研究的瓶颈包括算力、工程能力以及将想法成功执行的困难[79][80]
Ilya两万字最新访谈:人类的情感并非累赘,而是 AI 缺失的“终极算法”
36氪· 2025-11-26 12:26
当前AI模型的局限性 - 模型在评估测试中得分极高,但在实际应用中常犯低级错误,例如修复代码Bug时会引入新Bug,显示出评估性能与现实世界性能的脱节 [18] - 这种脱节源于强化学习被过度优化用于“刷榜”,导致模型像只会做题的竞赛选手,缺乏真正的判断力和泛化能力 [4][19] - 模型更像一个练习了10,000小时的竞技编程选手,精通解题套路,但泛化能力远不如只练习100小时却拥有“灵性”的学生 [21][22] 人工智能发展的范式转移 - 2012年至2020年是人工智能的研究时代,而2020年至2025年则是扩展时代,其特征是遵循预训练的扩展配方进行大规模投入 [33] - 当前单纯扩大模型规模的边际效应递减,行业需要从“扩展时代”回归到“研究时代”,寻找新的数据配方和训练方法 [33][34] - 预训练数据的有限性意味着依赖现有扩展配方将面临瓶颈,未来进展将更依赖于研究突破而非单纯算力堆砌 [33] 人类智能的关键优势与AI的缺失 - 人类通过极少数据(如10小时学会开车)就能掌握复杂技能,其核心优势在于强大的内部“价值函数”,即直觉和情感 [5][6] - 价值函数使人类能在没有明确外部奖励时进行自我纠正,而当前AI缺乏这种内在、鲁棒的价值评估机制 [6][28] - 人类在语言、数学等新领域的学习能力表明,其高效学习并非完全依赖进化先验,而是拥有更根本的、优越的机器学习算法 [40][41] 超级智能的定义与实现路径 - 真正的超级智能被定义为一个拥有极高样本效率的“超级学习者”,能够像人类一样通过少量接触就掌握任何工作 [3][57] - 实现路径可能并非构建一个知晓一切的静态系统,而是部署能够进行“持续学习”并掌握经济中所有工作的智能体实例 [57][60] - 广泛部署此类持续学习智能体可能导致快速的经济增长,其影响将被强烈感受到,但具体时间线和形态难以预测 [17][62] 安全超级智能(SSI)的战略与行业影响 - 公司战略从倾向于“直通超级智能”的秘密研发,转变为倾向于逐步发布,以展示AI的强大力量,促使公众、政府和竞争对手真正重视安全问题 [7][52] - 逐步发布有助于形成“安全军备竞赛”的良性合作,前沿公司预计将在安全合作中扮演重要角色,例如OpenAI和Anthropic已迈出合作步伐 [52][65] - 公司的技术方法专注于解决可靠的泛化问题,目标是构建稳健对齐、能“关爱有感知生命”的AI,这被视为一种可能的技术趋同方向 [66][78] 未来研究的方向与挑战 - 未来研究的关键在于提升模型的泛化能力和样本效率,这比单纯扩展算力更为根本 [35][36] - 价值函数被认为能让强化学习更高效,是未来可能的重要研究方向,但其具体实现和与情感的关联仍是待解之谜 [29][31] - 研究时代需要回归对想法的探索,而非单纯执行现有配方,算力是工具但并非唯一瓶颈,想法的质量将重新成为关键 [45][49] 超级智能的长期影响与均衡 - 超级智能的广泛部署可能带来快速的经济增长,但也是一个不稳定的情况,其力量需要受到某种限制或协议约束 [62][68] - 长期均衡的一种可能解决方案是人与AI通过脑机接口等方式深度融合,使人能完全理解并参与AI的决策过程 [72] - 行业最终对齐战略可能趋同于构建“关爱有感知生命”的AI,随着AI能力增强,公司和政府的行为模式将发生巨大改变 [70][78]