Scaling law
搜索文档
英伟达产业链观点更新
2025-12-29 09:04
行业与公司 * 纪要涉及的行业主要为半导体设备、AI算力产业链(包括光模块、液冷、PCB、电源等)以及大模型领域[1][3][6] * 纪要涉及的公司包括海外巨头英伟达、谷歌、OpenAI、XAI,以及国内上市公司中际旭创、新易盛、源杰科技、天孚通信、英维克、科创新源、同飞股份、盛弘科技等[1][4][9][11][12][13] 核心观点与论据 **1 国产替代加速** * 国内半导体设备厂商能力提升,合作范围扩大,推动量检测、涂胶显影及空白掩模板等领域的国产替代率显著提高[1] * 半导体行业中,量检测、涂胶显影、封装设备及材料等细分领域因渗透率低而市场空间巨大[5] * 空白掩模板的国产替代率较低,尤其在半导体级别应用上潜力巨大[1][5] **2 算力需求激增与赛道前景** * 下游应用如手机、智能终端、眼镜等推动算力需求,并逐渐渗透到生活各方面,未来三到五年甚至十年内,算力赛道将是重要主线[1][6] * 配套设施如液冷、电源系统非常关键,新兴途径如太空算力及新的电源结构为中国在AI领域提供竞争优势[1][6] * 海外算力产业链(光模块、PCB、液冷等)在2026年第一季度将迎来多重催化[1][7] **3 海外算力产业链具体预期** * 英伟达COWS流片产能预计2026年同比增长60%-70%,2027年同比增长50%-60%[1][7] * 谷歌TPU出货量预计从2026年的400万至500万片增加到2027年的接近千万级别,同比增长接近100%[1][7][8] * 市场对中际旭创2026年利润预期约为350亿至400亿人民币,若英伟达和谷歌在2027年保持高速增长,其利润可能翻倍至700亿至800亿人民币,估值有望达到1万亿至1.2万亿元[1][9] **4 大模型发展焦点** * 市场关注OpenAI的GPT和XAI的Grok大模型,它们是北美云厂商中最早使用B系列芯片并进行大规模组网(10万卡集群)的公司[10] * 若基于B系列芯片训练的大模型在2026年发布后表现超预期,将验证Scaling law未遇瓶颈,并预示算力从B系列向Ruby系列升级[2][10] * OpenAI预计在2026年一季度(3月份左右)发布新一代大模型,是观察算力增长持续性的关键时点[2][10] **5 投资标的推荐** * **光模块**:首推新易盛(股价涨幅较小,弹性更大),其次是中际旭创、源杰科技和天孚通信[4][11][13] * **液冷**:关注英维克、科创新源和同飞股份,英伟达GT300芯片对应液冷系统价格约1,500美元,升级到Ruby 200后将提升至4,000美元,量价齐升逻辑清晰[4][12] * **PCB**:推荐盛弘科技[4][12][13] 其他重要信息 * 科技板块近期关注点主要集中在算力、光模块、液冷等领域,商业航天和半导体也逐渐受到更多关注[3] * 预计英伟达Ruby 200将在明年三季度初发货,对应的一季度会定下机柜方案,国产液冷公司有望在一二月份逐步拿到订单[4][12] * 进入2026年第一季度后,随着海外厂商明确资本开支计划、台积电扩产及英伟达GTC大会催化,龙头公司估值有望进一步上涨[9]
计算机行业周报:一切仍然指向算力-20251228
国金证券· 2025-12-28 19:08
行业投资评级 * 报告未明确给出整体行业投资评级 核心观点 * 大模型竞赛持续白热化,Scaling Law 依然有效,模型能力尚未触及瓶颈,2026年进展值得期待 [1] * AI应用落地加速,推理需求持续强化,算力需求正由以训练为中心向训练与大规模推理并重演进 [2] * “十五五”规划建议明确了支持战略性新兴产业和前瞻布局未来产业的方向,并强调适度超前建设算力等新型基础设施,进一步强化了AI与算力的产业趋势 [3] 大模型竞赛持续白热化,Scaling law 依旧有效 * **顶尖模型持续迭代,能力实现跃迁**:谷歌Gemini 3在基础推理与多模态能力上实现跃迁式提升,例如在Humanity's Last Exam测试中,Gemini 3 Pro无工具得分达37.5%,带工具得分达45.8%,显著高于前代及竞品 [11]。在多模态理解测试ScreenSpot-Pro中得分72.7%,是Claude Sonnet 4.5的两倍、GPT-5.1的二十倍 [12] * **大模型专业化与创造经济价值潜力凸显**:OpenAI GPT-5.2面向专业知识型工作,在GDPval测试中,其在高难度知识型工作任务上表现优于或持平行业顶尖专家的比例达70.7%,完成任务速度约为专家3倍,成本仅约1% [14] * **海外巨头积极布局新模型**:Meta正开发主攻图像与影片的“Mango”和强化编程能力的“Avocado”两款重量级AI模型,预计2026年上半年问世,并重组团队加大投入 [15] * **国产开源模型引领创新,接近国际先进水平**:国产开源模型DeepSeek-V3.2在推理性能上逼近顶尖闭源模型,其提出的稀疏注意力(DSA)、将后训练算力预算提升至超过预训练成本10%、大规模使用合成数据等创新,证明算法与训练范式仍具巨大突破空间 [1][16][17]。斯坦福大学报告指出,在能力与采用率方面,中国开放权重的大模型已接近甚至部分领先于国际先进水平 [1][17] * **中国开源模型生态影响力提升**:2025年9月,阿里巴巴的Qwen模型家族超越Llama,成为Hugging Face上下载量最多的LLM家族。2024年8月至2025年8月,中国开源模型开发者占Hugging Face所有下载量的17.1%,略超美国的15.8% [18] * **算力基座升级驱动模型进步**:随着英伟达Blackwell架构带来训练算力底座升级,预计2026年大模型进展更值得期待。Blackwell相比前代Hopper架构在单卡算力、显存带宽、容量及集群互联上大幅提升,有助于使用更大Batch Size,提升训练稳定性 [1][26] AI 应用落地加速,推理需求持续强化 * **AI应用重塑终端交互,落地趋势显化**:字节跳动发布的豆包AI手机助手技术预览版,实现AI对手机的跨应用自主操作,从理解指令升级为执行复杂任务,预示着手机交互方式重塑 [2][27] * **AI应用使用量爆发式增长**:豆包大模型日均Tokens使用量从2025年5月底的超过16.4万亿增长至2025年12月的突破50万亿,居中国第一、全球第三,显示推理需求高速增长 [2][30] * **产业巨头前瞻布局推理算力**:英伟达从推理芯片初创公司Groq获得关键技术授权并吸纳其核心高管,显示其在保持训练算力主导地位的同时,正加速向推理市场纵深布局 [2][31]。Groq采用基于SRAM的LPU架构专为推理设计,其LPU在主流大语言模型运行中,推理速度可达英伟达H100 GPU的5至18倍,投后估值达69亿美元 [2][33] “十五五”规划建议发布,新兴产业和未来产业布局愈发清晰 * **明确支持战略性新兴产业发展**:规划建议明确提出支持航空航天、低空经济等战略性新兴产业集群发展 [3][35] * **前瞻布局未来产业**:规划建议提出推动量子科技、生物制造、氢能和核聚变能、脑机接口、具身智能、第六代移动通信等成为新的经济增长点 [3][35] * **强调适度超前建设新型基础设施**:规划建议提出适度超前建设新型基础设施,推进信息通信网络、全国一体化算力网、重大科技基础设施等建设 [3][35] 投资建议及相关标的 * **算力**:报告列举了包括寒武纪、海光信息、中际旭创、中科曙光、浪潮信息等在内的超过40家相关公司 [4][36] * **AI应用/Agent**:报告列举了包括谷歌、阿里巴巴、腾讯控股、科大讯飞、同花顺、恒生电子等在内的超过60家相关公司 [4][36] * **自动驾驶**:报告列举了包括江淮汽车、赛力斯、小鹏汽车、理想汽车、禾赛、地平线等公司 [5][38] * **军工AI**:报告列举了包括拓尔思、能科科技、普天科技、品高股份等公司 [5][38]
国金证券:一切仍然指向算力
新浪财经· 2025-12-28 17:41
文章核心观点 大模型技术竞赛持续白热化,Scaling Law依然有效,模型能力尚未触及瓶颈,2026年进展值得期待[1][23] AI应用落地正在加速,推理需求持续强化,预示着从训练到大规模推理的算力需求演进[1][2] “十五五”规划建议明确了支持战略性新兴产业和未来产业,并强调适度超前建设算力等新型基础设施,进一步强化了AI与算力的产业趋势[3][31] 一、大模型竞赛持续白热化,Scaling law依旧有效 - **全球顶尖模型持续迭代,能力实现跃迁式提升**:谷歌Gemini 3在基础推理与多模态能力上实现显著突破,例如在Humanity‘s Last Exam测试中,Gemini 3 Pro得分为37.5%(无工具)和45.8%(带工具),远超Gemini 2.5 Pro的21.6%和Claude Sonnet 4.5的13.7%[11] 在ARC-AGI-2测试中,Gemini 3 Pro得分为31.1%,而GPT-5.1为17.6%[11] 在多模态理解测试ScreenSpot-Pro中,Gemini 3得分72.7%,是Claude Sonnet 4.5的两倍,GPT-5.1的二十倍[12] - **模型面向专业与经济价值创造**:OpenAI发布的GPT-5.2面向专业知识型工作,在GDPval测试中,GPT-5.2 Thinking在70.7%的高难度知识型工作任务上表现优于或持平行业顶尖专家,完成任务速度约为专家的3倍,成本仅约1%[14] - **海外巨头持续加码布局**:Meta正积极开发两款重量级AI模型,分别是主攻图像与影片的“Mango”和强化编程能力的“Avocado”,预计2026年上半年问世,并已重组团队、挖角人才以加大投入[15] - **国产开源模型引领创新,接近国际先进水平**:DeepSeek-V3.2在推理性能上逼近顶尖闭源模型,其长思考增强版在主流推理基准测试上性能媲美Gemini-3.0-Pro,并在多项国际竞赛中斩获金牌[16] 模型创新包括采用DSA稀疏注意力机制、将后训练算力预算调整到超过预训练成本的10%、以及使用大规模合成数据提升泛化能力[17] 斯坦福大学报告指出,在能力与采用率方面,中国开放权重的大模型已接近甚至部分领先国际先进水平[18] 2024年8月至2025年8月,中国开源模型开发者占Hugging Face所有下载量的17.1%,略超美国的15.8%[18] 2025年9月,中国微调或衍生模型占Hugging Face上发布的所有新微调或衍生模型的63%[18] - **算力基座升级驱动模型进步**:大模型训练的硬件基础正从英伟达Hopper架构转向Blackwell架构,后者在单卡算力、显存带宽(HBM带宽从3.35 TB/s提升至8.0 TB/s)、显存容量(从80GB HBM3提升至192GB/288GB HBM3e)等方面大幅提升,有助于加速训练、降低成本并提升训练稳定性[24][25] 二、AI应用落地加速,推理需求持续强化 - **AI手机助手实现跨应用自主操作,重塑交互方式**:字节跳动于2025年12月发布豆包AI手机助手技术预览版,实现AI对手机的跨应用自主操作,能从理解指令升级为执行复杂任务(如跨平台比价、下单),标志着AI在C端从语音助手进化为会行动的助理[26] - **AI应用推理需求呈现爆发式增长**:豆包大模型的日均Tokens使用量从2025年5月底的超过16.4万亿,增长至2025年12月的突破50万亿,居中国第一、全球第三,较发布初期增长137倍,直观体现了推理算力需求的增长[28] - **英伟达前瞻布局推理算力,印证应用落地加速**:英伟达从推理芯片初创公司Groq获得关键技术授权并吸纳其核心高管,Groq专为推理设计的LPU芯片在运行主流大语言模型时,推理速度可达英伟达H100 GPU的5至18倍,首token响应时间仅0.2秒[29][30] Groq在2025年9月完成一轮7.5亿美元融资,投后估值达69亿美元[30] 此次合作反映了AI算力需求正由以训练为中心向训练与大规模推理并重演进[31] 三、“十五五”规划建议发布,新兴产业和未来产业布局愈发清晰 - **明确支持战略性新兴产业与未来产业发展**:“十五五”规划建议明确提出培育壮大新兴产业和未来产业,加快新能源、新材料、航空航天、低空经济等战略性新兴产业集群发展[31] 前瞻布局量子科技、生物制造、氢能和核聚变能、脑机接口、具身智能、第六代移动通信等未来产业[3][31] - **强调适度超前建设算力等新型基础设施**:规划提出适度超前建设新型基础设施,推进信息通信网络、全国一体化算力网、重大科技基础设施等建设和集约高效利用[3][31] 政策导向进一步强化了AI时代对算力基础设施的需求判断[3] 四、相关标的 - **算力**:列举了包括寒武纪、海光信息、中际旭创、中科曙光、浪潮信息等在内的超过40家上市公司[4][32] - **Agent(智能体)**:列举了包括谷歌、阿里巴巴、腾讯控股、科大讯飞、同花顺等在内的超过50家国内外公司[5][34] - **自动驾驶**:列举了包括江淮汽车、赛力斯、小鹏汽车、理想汽车、地平线等公司[5][34] - **军工AI**:列举了包括拓尔思、能科科技、普天科技、中科星图等公司[6][35]
2025,中国大模型不信“大力出奇迹”?
36氪· 2025-12-19 19:06
文章核心观点 - 2025年生成式AI发展进入新阶段,其演进围绕认知深化、维度突破和效率重构三条核心脉络交织进行,开始定义AI进化的新范式 [1] - 单纯依赖算力和参数规模扩张的Scaling Law边际效益递减,行业正通过架构创新(如MoE、稀疏注意力)和多模态数据(尤其是视频)利用来寻求新的性能提升路径 [1][8] - 大模型行业的竞争格局呈现中美、开源与闭源“双核驱动”的态势,商业化成功的关键在于构建算力、能力、生态三层“护城河”,并聚焦于高价值的专业用户(ToP)市场 [3][7][10] - 智能体(Agent)和具身智能(Embodied AI)是重要的演进方向,但面临商业化、技术成熟度及软硬件协同的挑战,端云协同与模型“能力密度”提升是未来发展核心 [3][11][17][19] - 中国AI产业有望通过开源生态和专注于提升模型效率(如“密度法则”)的路径,在算力受限环境下实现突围 [3][20] 2025年大模型进化三大脉络 - **认知深化:从“直觉”到“逻辑”**:一线模型通过强化学习(RL)和更长的中间推理,从快速的模式匹配(System 1)向多步深度推理(System 2)演进 [1] - **维度突破:从“语言”到“物理空间”**:AI演进逻辑从理解语言符号进化到理解物理世界本身,“空间智能”成为关键,视频数据因其蕴含的丰富时空信息成为迈向物理世界的关键桥梁 [1][2] - **效率重构:从“暴力美学”到“性价比”**:产业落地回归极致的算力效能比,采用混合专家模型(MoE)、稀疏注意力等架构革新使模型变“轻”,以解决无限上下文带来的算力挑战 [1] Scaling Law与模型迭代新范式 - **Scaling Law面临瓶颈**:在大语言模型领域,由于互联网文本数据枯竭,单纯堆算力、堆参数的边际效益在递减 [8] - **多模态数据成为新红利**:视频数据的量级是互联网文本数据的百倍、千倍乃至万倍,从视频中学习(Learning from Video)成为大模型新的性能提升机会 [8] - **“密度法则”成为新方向**:类似于芯片摩尔定律,行业追求在单位参数内提升“智能密度”,通过技术创新实现模型能力压缩,预计每100天模型密度变得更高 [3][9] - **端云协同成为未来格局**:未来算力格局将是云端负责规划,端侧负责执行(做事),预计到2030年,端侧设备可承载GPT-5级别的模型能力 [3][18] 大模型公司的竞争“护城河” - **三层金字塔结构**:最底层是算力的获取、组织和有效利用;中间层是维持SOTA水平的模型能力;最上层是触达用户、获得数据反馈的生态 [9][10] - **“双核驱动”格局已定**:开源与闭源大模型、中国与美国的企业和人才,形成双核驱动格局,2025年被视为中国大模型的破局之年 [3][7] - **赢家通吃**:大模型是一个全球留不下几家公司的赢家通吃行业 [9] 智能体(Agent)的商业化现状与瓶颈 - **从玩具到工具的挑战**:智能体商业化面临三大技术瓶颈:基础模型推理能力仍有欠缺、领域适配时的“翘翘板效应”(能力此消彼长)、模型的记忆和遗忘机制不完善 [11][12][13] - **端侧与云端智能体的区别**:端侧智能体需满足隐私、实时、稳定需求,并对全模态数据有感知理解与个性化服务能力;云端智能体主要处于数字世界 [13] - **商业化变现聚焦ToP市场**:在ToB(企业)和ToC(消费者)之间,面向专业型用户(ToP)的市场是目前中美AI行业变现效率最高的地带,如AI编程和创作者付费工具 [14] - **ToB与ToC市场挑战**:ToB是门槛高的“攻坚战”,落地较好的是嵌入特定环节的流程型Agent;ToC则因能力不足、缺乏新硬件载体及商业模式(Token成本高于广告收益)的悖论而尚需时日 [15] 具身智能(Embodied AI)的发展与挑战 - **产业处于早期阶段**:需要足够耐心,其发展依赖于世界模型和具身大脑等基础模型的进步 [17] - **世界模型是关键底座**:如智源的多模态世界模型Emu3.5,从视频中学习时空、因果等信息,致力于预测下一个时空状态,为具身智能构建“世界模型”底座 [2][17] - **“大小脑”协同架构**:未来机器人将采用类似“大小脑”的分工,实时感知与行动留在本地(小脑),深度思考可借助云端(大脑) [17] - **软硬结合是理想路径**:大模型AI走向物理世界,智能(软件)至关重要,但在中国环境下,硬件比重可能更重,最理想的模式是软硬结合 [19] 开源生态与中国AI的突围之路 - **开源开放推动行业进步**:人工智能行业的快速发展离不开开源开放生态,这推动了技术普惠和产业化落地 [20] - **高效模型是突围关键**:通过“密度法则”等技术提升模型效率,降低训练和使用成本,是中国在算力存在短板情况下的重要突围路径,适用于端侧和云侧 [20] - **开源模型是国运级机会**:集全国之力支持优秀开源模型,在此基础上比拼应用和生态,是中国AI发展的良好路径 [20] - **给创业者的关键建议**:在大模型难以触及的行业深处寻找机会,并建立能够跨越模型迭代周期的商业结构,避免做过于通用的产品 [21]
为什么现代 AI 能做成?Hinton 对话 Jeff Dean
36氪· 2025-12-19 08:47
现代AI从实验室走向规模化的系统性复盘 - 现代AI的突破是算法、硬件、工程同时成熟后的系统性涌现,而非单点奇迹[1] - 强算法必须与强基础设施结合,才能真正走向规模化[1] 起点突破:硬件让AI从想法变成现实 - **早期算力觉醒**:2012年AlexNet的成功证明了足够算力对深度学习的决定性作用,其参数比别人多十倍,算力也超出好几倍[2][3] - **早期并行计算探索**:Jeff Dean在1990年就尝试用32处理器的超立方体计算机进行数据并行和模型并行训练,尽管当时因只用了10个神经元而失败[3][4] - **推理成本驱动硬件自研**:2013年Jeff Dean计算发现,若1亿人每天使用语音助手3分钟,将使谷歌服务器总量翻倍,这直接推动了TPU项目的启动[5][6][8] - **专用硬件的发展**:2015年第一代TPU专注于推理,其能效比同期CPU和GPU高出30-80倍;2017年TPU v2开始用于大规模训练;如今TPU已进化到第七代,Pathways系统可统一调度数万颗跨数据中心芯片[8] - **硬件生态多元化**:AI基础设施呈现多元化趋势,NVIDIA GPU路线持续演进(如H100、H200、B200),支撑着OpenAI、Meta等公司的大规模训练;同时,定制芯片如Google TPU和AWS Trainium为特定需求深度优化,在能效和成本上具有独特价值[9] 系统成熟:算法、组织、工具的协同推进 - **算法架构的可扩展性**:Transformer架构的突破在于将顺序处理变为并行处理,所有token同时计算,充分利用硬件并行能力。同样的准确率,Transformer使用的计算量比LSTM少10-100倍,使大规模训练从“理论可能”变为“工程可行”[10] - **组织方式的集中化**:在ChatGPT发布前,谷歌内部已有技术可行的聊天机器人,但受搜索业务思维限制及内部资源分散(Brain、Research、DeepMind三个团队各自为战)未能推向市场。ChatGPT上线后,谷歌整合资源成立了Gemini团队,将算力、模型、人才集中到一个目标上[11][12] - **工程工具栈的闭环形成**:JAX让研究员能用数学语言直接写代码;Pathways让数万颗TPU能被一个Python进程调度;蒸馏技术可将千亿参数模型压缩到能在手机上运行。这些工具降低了AI的准入门槛,提升了效率[13] - **三条曲线的交汇**:Transformer让模型能规模化,但需要更大算力支撑;更大算力需要组织资源集中,同时催生了更好的工具;更好的工具提升训练效率,反过来支撑了更大模型的训练。三者形成闭环,缺一不可[14][15] 未来门槛:规模化后需突破的三大挑战 - **能效:规模化的物理极限**:模型升级意味着消耗更多电力、时间和预算。Gemini的训练动用了上万颗TPU芯片。虽然谷歌通过自研TPU和采用FP4等超低精度格式来提升能效,但下一代推理硬件仍需在能效上再提升一个数量级[16][17] - **记忆:上下文的深度限制**:当前最强模型的上下文窗口也不过几百万个token,限制了其一次性能处理的信息深度。未来的目标是让模型能覆盖数十亿甚至万亿个token,这需要算法和芯片注意力计算架构的重新设计[18][19][20] - **创造:从模仿到联想**:AI在训练海量知识时,会通过压缩过程自动学习到不同事物之间的共同点或类比,这本身就是一种将遥远事物联系起来的创造力。这种能力被认为是AI下一阶段加速科学发现的关键[21][22][23] - **挑战的关联性**:能效是物理成本问题,记忆是架构能力问题,创造是认知边界问题。三者相互关联:能效不突破,长上下文训练成本过高;长上下文做不到,深度联想没有基础;联想能力不行,AI就永远只是个更快的搜索引擎[24][27]
刘煜辉最新观点:看好明年AI端侧爆发!
新浪财经· 2025-12-03 16:57
算力链前景 - 对明年算力链的beta持保留态度,市场逻辑高度集中于纯血英伟达链条[1][2][3] - 谷歌推出新一代AI模型Gemini 3,该系统被认为是当前多模态理解能力最强的系统,在各项基准测试中大幅领先[1][3] - Scaling law的有效性面临挑战,模型规模扩大后性能提升并不显著,该核心假设的动摇将影响英伟达的估值逻辑[1][3] - 特朗普政府考虑允许英伟达向中国出售H200芯片,其巨大的CUDA生态优势可能对国产算力链情绪产生冲击[1][3] AI端侧与应用前景 - 对明年AI端侧和应用的beta更为乐观,发展AI端侧符合中国自身的AI战略定位[2][4] - AI端侧是庞大复杂的产业链生态,涉及将大模型装入消费电子外设、应用场景、数据挖掘、数字资产和信用扩张周期[2][4] - 中国模型如Qwen、智谱等已逐渐获得全球开发者认可,外设则依托强大的“中国制造”能力,如消费电子、电动车、无人机、机器人等[2][4] - AI端侧的核心意义在于解决AI基建巨量资本开支的变现问题,并构建完整的AI端侧产业链生态闭环[2][4] 中美AI战略路径 - 美国(西大)力推谷歌的“全栈自研”模式,试图将芯片-软件-模型-应用的链条全部跑通[2][4] - 中国(东大)的优势在于制造能力,应聚焦机器人、无人机、智能外设、电动车等工业制造领域,软件被视为工具[2][4] - 中国战略路径是通过开源软件吸引全球用户加入AI生态,再将生态装入物美价廉的硬件(AI Agents)并销售至全球[2][4] - AI生态催生的应用场景和数据资源将形成巨大飞轮效应,使AI创造的财富沉淀在中国[2][4]
Ilya 看见的未来:预训练红利终结与工程时代的胜负手|AGIX PM Notes
海外独角兽· 2025-12-01 20:03
AGIX指数定位与表现 - AGIX指数旨在成为衡量AGI(通用人工智能)时代科技范式转换的重要指标,类比互联网时代的Nasdaq100指数[2] - 截至当前,AGIX指数年内累计上涨26.73%,自2024年以来累计涨幅达74.56%,显著跑赢QQQ指数(21.13%和51.21%)和标普500指数(16.45%和43.59%)[4] - 指数成分按权重划分为基础设施(37.19%)、应用(33.62%)和半导体硬件(24.22%)三大板块,本周分别上涨2.08%、2.20%和1.76%[5] AI行业范式转换分析 - AI行业正从预训练大爆发的科研红利期转向产品化、推理优化和端侧部署的工程红利期[10] - Google凭借TPU的OCS技术实现模型-硅端到端优化,在极致工程化竞争中释放潜力,如NotebookLM展示的PPT生成能力获得市场认可[9][10] - 模型能力趋同导致90%普通用户难以感知差异,未来竞争焦点转向产品化能力、成本和渠道等外部要素,类似微软通过分发渠道和生态系统确立优势的历史案例[11] 下一代AI技术演进方向 - Scaling Law边际收益递减,需寻找超越Transformer架构的下一代技术跃迁[12][13] - 进化算法可能成为关键路径,通过构建"生存机器"先验和内在动机(如好奇心驱动)替代具体任务训练,使智能作为复杂环境适应的副产品自然涌现[13][14] - 模型融合技术借鉴真核细胞共生起源,通过参数空间遗传算法实现专家模型能力跃迁,如Sakana的Evolutionary Model Merge研究[15] 资本市场动态与资金流向 - 对冲基金推动年内最大北美买盘潮,美国多空基金净杠杆上升5个百分点至56%,空头回补集中在可选消费和金融板块[15] - AI受益半导体龙头获多头增持,而房地产和医疗保健板块出现显著抛售[15] - 全球对冲基金上周收益1.4%,低于MSCI ACWI指数3%涨幅,但AGIX指数单周上涨6.0%表现突出[16] 头部企业战略布局 - 微软联合戴尔、甲骨文发布70余项产品,推出Agent 365智能体控制平面,51%生产应用已采用AI技术[16] - Meta考虑采购谷歌TPU芯片,潜在合作规模达数十亿美元,可能影响自研推理芯片MTIA发展路径[17] - 2025年美国AI初创企业融资活跃,49家公司完成单轮1亿美元以上融资,OpenAI以3000亿美元估值创400亿美元融资纪录[17] 企业并购与业绩表现 - ServiceNow拟超10亿美元收购网络安全公司Veza,估值达融资总额四倍,弥补身份管理平台功能缺口[18][19] - Zscaler第一季度营收7.881亿美元(同比增长26%),但股价因业绩展望温和下跌超7%[19]
Efficiency Law, 物理精确世界模型,及世界模型引擎驱动的具身智能学习新范式
机器之心· 2025-10-27 13:23
行业背景与核心问题 - 2025年秋具身智能赛道被巨头动态点燃,特斯拉Optimus 2.0量产下线并开放开发者平台,英伟达发布物理AI全栈方案[2] - 行业共识认为数据问题而非算法创新是具身智能落地的根本症结[3] Scaling Law的挑战与Efficiency Law的提出 - Scaling Law在大语言模型中有效,但其前提是海量文本数据存在,而具身智能领域尚未建立能支撑Scaling Law的数据范式[6] - 公司提出Efficiency Law,其核心观点是在有限时间内,决定具身模型性能上限的是高质量数据的生成速率(r_D)[7] - 更高的r_D能显著提升学习效率,过低的r_D会使模型进入"数据稀缺区",导致规律失效[7] - 具身智能的发展重点必须从"堆数据"转向"高效造数据"[7] 当前世界模型的不足与物理精确性需求 - 当前基于视频生成的世界模型(如Sora)追求视觉逼真而非物理正确,缺乏对真实物理规律的理解[9] - 对于具身智能,世界模型必须具备物理精确性,能够根据动力学、运动学原理预测世界状态变化[10] - 智能体必须遵循牛顿力学等物理法则来实现可执行的行为[10] 基于生成式仿真的世界模型(GS-World)的内涵与优势 - GS-World是一种将生成模型与物理仿真引擎深度融合的新型世界模型,从根本上改变"世界生成"的机制[13] - 该模型在生成过程中显式或隐式引入物理仿真,使世界的动态演化遵循真实的力学方程[13] - GS-World不仅生成场景视觉外观,还同时生成三维资产、物体材质、物理参数与交互规则,保证因果合理性[13] - 简而言之,GS-World把"看起来像真的世界"变成"遵循物理规律可计算的世界"[14] GS-World的潜在应用价值 - GS-World是"世界模型"的终极方向,能解决视频生成模型缺乏物理一致性的问题[15] - 它是强化学习领域中长期追求的"model-based RL的终极模型",能在仿真空间内构建世界动力学并进行高保真策略验证[15] - 有了GS-World,VLA模型的学习将变得便利,无需依赖昂贵的真实机器人数据采集即可生成多模态训练数据[15] - 最根本地,GS-World能作为一个通用智能引擎,驱动持续、流式的具身智能学习[16] 引擎驱动的具身智能学习新范式 - GS-World推动了一个全新的"引擎驱动的具身智能学习范式"[18] - 相比基于任务开发的Sim2Real路径,GS-World能主动生成并仿真物理精确的三维世界,形成"生成—交互—反馈—优化"的闭环[18] - 这种范式使智能体的策略学习、任务构建与环境生成融为一体,实现流式、自我进化的训练体系[19] - 引擎驱动的Sim2Real VLA范式使智能体能在生成并物理自洽的世界中持续成长[19] GS-World如何实现Efficiency Law及其他属性 - GS-World是实现Efficiency Law的核心机制,将"世界生成、物理仿真、任务构建、反馈优化"整合为统一引擎[21] - 智能体的训练过程由被动的数据驱动转向主动的任务生成与环境演化,智能增长速度与生成仿真能力成正比[21] - GS-World通过可控生成能力构建无限多样的物理环境与任务空间,使智能体能同时学习多任务、多模态行为,实现"通才化"[21] - 引擎具备精细化分布调节能力,可针对特定任务自动收缩学习空间,形成"专才化"的高效学习结构[21] - GS-World提供了既能横向扩展智能广度、又能纵向精化智能深度的动态引擎[22] 数据驱动与引擎驱动的范式差异 - 数据驱动的学习以外部数据为中心,智能体被动地从过去经验分布中提取规律,缺乏对物理世界的显式建模[24] - 引擎驱动的学习以生成式仿真引擎为核心,智能体在可生成、可演化、可验证的世界中自主学习,通过闭环交互持续生成数据[24] - 从数据驱动到引擎驱动,是具身智能从"模仿现实"走向"生成现实"的根本范式转变[24] 引擎驱动范式的必要性与产品级成功率 - 在复杂真实场景中,机器人需具备物理精确性、抗环境扰动能力及泛化安全性才能实现产品级稳定性与成功率[25] - 传统数据驱动方法缺乏与现实物理一致的因果约束,在遇到扰动或未见场景时性能崩溃[26] - 基于GS-World的引擎驱动学习范式能从根本上构建物理一致的可生成世界,让智能体在仿真中经历无限真实的交互与试错[26] - 要实现真正可部署、可靠且可信赖的具身智能产品,引擎驱动的世界模型学习是必然的技术路径[27] GS-World作为技能训练场与演化场 - 在GS-World中,机器人技能通过引擎生成的物理世界中自然"挖掘"出来,而非人类手工设计的任务脚本[29] - 技能在仿真中经由交互、优化与验证逐步形成,并能抽象、组合与迁移,形成可扩展的技能生态[29] - GS-World是具身智能机器人的演化场,让智能体的身体结构、控制策略与环境动力学在同一物理生成机制下共同演化[31] - 它提供的是一个能促使机器人实现身体与智能协同生长、自组织、自适应的物理-认知生态场[31] - GS-World成为具身智能机器人从"人工设计产物"走向"自演化生命体"的关键跃迁平台[31] 行业展望与公司进展 - AGI、Physical AGI与具身智能处在高速发展阶段,行业期待基于第一性原理的新技术范式[32] - 公司提出的GS-World世界模型引擎及基于该引擎的具身智能学习新范式是这一范式的典型代表[33] - GS-World引擎原型以及基于其自动训练的VLA模型也将于近期开源[33]
独家|对话北京人形机器人创新中心CTO唐剑:世界模型有望带来具身智能的“DeepSeek时刻”
虎嗅· 2025-10-23 15:06
文章核心观点 - 世界模型被视为推动具身智能发展的关键路径,有望带来类似DeepSeek的低成本、高性能突破 [1][9] - 具身智能的复杂度远超自动驾驶,是智能系统的“天花板级”挑战,其发展更依赖长期数据积累而非短期突破 [7][8] - 公司通过“双模驱动”架构和引入奖励机制,在有限算力下开发出性能超越SOTA的世界模型 [9][10][11] 技术理念与方法 - 倡导“经验驱动”的控制方式,通过历史数据学习控制规律,而非依赖精确的数学建模 [3][4] - 以游泳运动员训练类比AI学习过程,强调通过反复实践积累经验而非先掌握理论 [5] - 在自动驾驶领域验证了端到端控制架构的有效性,并将其思路延伸至具身智能 [6] 世界模型的技术特点 - 采用世界模型与多模态大模型相互促进的“双模驱动”结构 [9][11] - 引入奖励机制和基于强化学习的微调,形成自我优化闭环 [9][10][11] - 使用GRPO算法微调多模态大模型,实现认知与物理交互的紧密闭环 [11][12] - 当前模型基于DiT架构,但未来可能迭代全新架构以更好捕捉物理规律 [19][20] 世界模型的应用价值 - 主要用途包括:与机器人大脑形成闭环、直接生成训练数据、作为机器人操作模型的一部分 [17] - 核心目标是提高机器人在开放环境中的泛化能力,这对商业和家庭场景至关重要 [21][22] - 通过蒙特卡洛树搜索等技术,让机器人在虚拟世界中模拟多种方案并选择最优路径 [11][17] 行业现状与挑战 - 具身智能尚未出现类似ChatGPT的“突破时刻”,数据量级、采集难度和成本远高于语言模型 [8][9] - 行业目前缺乏明确的Scaling Law,智能能力随数据、算力增长的规律未知 [13] - 世界模型在物理规律和时空一致性方面要求远高于视频生成模型 [18][19] - 具身智能落地将经历工业场景、商业场景、家庭生活场景三个阶段 [21]
深聊GPT-5发布:过度营销的反噬与AI技术突破的困局
虎嗅· 2025-08-12 17:05
GPT-5技术评估 - GPT-5未实现颠覆性技术突破,Transformer架构的弱点进一步暴露,包括PPT图表错误、代码bug和理论解释问题[1] - 模型开发遭遇技术瓶颈,最终选择改良架构而非革命性方案,Scaling law面临碰壁[1] - 技术路径上人类仍需寻找突破AI发展瓶颈的新方法[1] 商业化战略 - OpenAI采取激进商业化策略,重点布局教育、健康医疗和编程三大应用场景[1] - 公司通过快速场景落地来稳固市场地位,GPT-5被定位为"合格的AI产品"而非颠覆性创新[1] 行业影响 - GPT-5发布引发对AI泡沫破灭的讨论,行业面临技术创新放缓的质疑[1] - 当前AI发展进入平台期,技术突破速度低于市场预期[1]