Workflow
Scaling Law
icon
搜索文档
黄仁勋150分钟访谈:Agent 是“Token 的 iPhone 时刻”|Jinqiu Select
锦秋集· 2026-03-24 15:24
AI时代的公司核心护城河 - AI时代公司的核心护城河是将技术、生态、组织和基础设施整合成完整系统的能力,而非单一产品[1] - NVIDIA的领先优势体现在从CUDA生态、芯片与机架系统设计、数据中心能力、供应链组织到内部极致协同设计的整套能力[2] NVIDIA的极致协同设计理念 - AI基础设施被定义为“极致协同设计”问题,需同步优化算法、芯片、网络、供电、散热、软件和组织结构[3] - 大规模分布式AI中,阿姆达尔定律重新关键,计算快不等于系统快,网络和调度会迅速成为瓶颈[4] - 公司的竞争轴已从“芯片级”升级到“机架级、Pod级、数据中心级”的工程能力[5] - 电力是主要约束之一,但可通过持续优化“每秒每瓦token数”来对冲[6] - 过去10年计算规模提升了约100万倍,远超传统摩尔定律的线性外推[7] - NVL72与Vera Rubin架构将“超算集成”前移至供应链,制造体系本身成为核心能力[8] - 单机架约含130万个组件,一个Rubin Pod超过万级芯片规模,复杂度已进入工业系统工程范畴[9] AI的扩展定律与前沿趋势 - AI的扩展分为四条:预训练扩展、后训练扩展、测试时扩展、智能体扩展[10] - 推理本质是“思考”,是计算密集型任务,将比预期消耗更多算力[11] - 下一阶段关键不是单个模型能力,而是智能体系统的“可并发复制能力”[12] - OpenClaw对智能体系统的意义,类似ChatGPT对生成式AI的普及意义[13] - 为代理安全提出“2/3权限约束”:访问敏感数据、执行代码、外部通信三者不能同时全部放开[14] NVIDIA的组织架构与管理哲学 - 公司CEO拥有60多个直接汇报对象,刻意构建“高密度信息流”组织,而非传统金字塔管理[17] - 组织设计围绕“极致协同设计”,所有对话均为集体讨论,无一对一交流,确保跨领域专家高强度协作[30][31] - 公司架构设计应反映其环境,目标是成为能产生系统性输出的机制[26] - 管理团队通过共同推理来塑造信念体系,确保重大决策(如收购Mellanox、全力投入深度学习)时团队已充分理解[60] NVIDIA的发展路径与战略决策 - 公司从加速器公司起步,但意识到狭窄应用领域限制市场规模和研发能力,必须拓展为计算平台公司[36][37] - 关键战略步骤包括:发明可编程像素着色器、在着色器中引入符合IEEE标准的FP32、引入C语言并最终发展出CUDA[41] - 将CUDA应用于GeForce是接近生存威胁的战略决策,虽大幅增加成本、吞噬毛利并导致市值从约70亿美元跌至15亿美元左右,但为CUDA生态奠定了基础[42][50][51] - 该决策使CUDA通过数亿块GeForce GPU建立了庞大的用户安装基数,这是计算平台架构最重要的部分[47][48] - 公司市值曾因CUDA投入而大幅回撤,但GeForce将CUDA带给所有人,最终成为平台和深度学习革命的基础[52][54] 算力、功耗与供应链 - AI智能提升的最终依赖是计算,预训练、后训练、测试时和智能体扩展均受计算能力限制[66][67] - 功率是约束但非唯一担忧,公司正通过极致协同设计持续优化“每秒每瓦token数”,过去十年已取得显著进步[82] - 公司市场份额在增长,供应链上下游至关重要,需花大量时间向合作伙伴CEO介绍业务动态和增长趋势,以促使其进行资本投资[85] - 供应链复杂度极高,例如单个机架有130万个组件,涉及数百家供应商,但公司通过提前沟通和建立信任来管理,不视其为最大阻碍[90][92][93] - 电网存在电力浪费,公司提议与电网合作,设计可优雅降级的数据中心,在电网需求高峰时减少用电,利用过剩电力[94][96][97] 对中国科技生态的观察 - 全球50%的AI研究人员是中国人,且大部分仍在中国[119] - 中国科技产业诞生于软件时代,工程师对现代软件熟悉,科学和数学教育基础好[119] - 中国内部省份和城市竞争激烈,催生了大量公司(如电动汽车、AI公司),国内竞争环境激烈[119] - 重视家庭、朋友和公司的社会文化促进了知识交流,本质上具有开源特质,工程师间分享迅速,加速了创新[119][120] - 中国被描述为一个“有建设精神的国家”,能够快速创新并涌现世界级成果[120][123] 对开源与生态系统的看法 - 开源有三重动机:共同设计前瞻、促进产业扩散、满足非语言模态(生物/物理/机器人)的创新需求[17] - 开源能让各行各业参与AI革命,如果所有技术都专有,研究和创新将难以开展[129] - 公司开源模型(如Nemotron 3)有助于了解AI模型发展,是深度共同设计策略的一部分,并希望让每个行业、研究人员和国家都能参与AI[129] NVIDIA的核心竞争优势 - 公司最重要的资产是计算平台的安装基础,目前主要是CUDA的安装基础[144] - 安装基础的建立依赖于公司长期坚持发展CUDA,以及数百万开发者的信任与软件移植[144] - 开发者在CUDA上开发可快速获得性能提升(平均等待6个月),并能触及广泛用户、计算机、行业和国家[144][145] - 第二个优势是广泛的生态系统,公司纵向整合复杂系统,并横向融入各合作伙伴的计算机中[148] - 生态系统涵盖谷歌云、亚马逊、Azure、CoreWeave、Nscale等云服务商,以及企业、汽车、机器人、卫星等多个领域[149] 对AI未来与行业影响的展望 - 计算单元从GPU演变为计算机、集群,现在是整个“AI工厂”,未来甚至可能考虑建造“行星级别的计算机”[151][153] - AI数据中心被称为“工厂”,token将出现分层定价与差异化商业化[17] - 计算正从基于检索的系统转变为基于生成的系统,新世界需要更多处理能力[160] - 计算机从存储系统转变为“工厂”,可直接与公司收入挂钩,创造价值[162] - 智能体(Agent)的“iPhone时刻”已经到来,OpenClaw即是标志,token应用处于历史增长最快阶段[169][171][173] - 不认同“程序员消失论”,认为软件工程师数量会增加,因为工作的核心是解决问题而非编码行数[238] - 规格定义能力将成为新的编程核心,未来可能有10亿人具备这种能力,每个职业(如木匠、会计师)都将通过使用AI得到提升[239][241]
3B打32B?海外病毒式传播的小模型,竟然来自BOSS直聘
机器之心· 2026-03-09 11:58
行业趋势:大模型军备竞赛与“小模型”的兴起 - 大模型行业正经历激烈的“军备竞赛”,开源与闭源阵营都在疯狂追求更大的参数量和算力,模型规模已膨胀至“近乎离谱”的程度 [1] - 过去GPT-2仅有约1.5B参数,如今GPT-4的参数规模估计已达万亿水平,GPT-5预计更大,而2026年发布的开源模型如Kimi K2.5和Ling 2.5也已达到万亿参数规模 [1][2] - 然而,“模型大就一定强”的定律正在动摇,一个仅3B参数的小模型在“50米洗车”等复杂推理问题上,表现超越了万亿级参数的大模型,凸显了模型能力与参数规模并非绝对正相关 [5][7] 核心案例:Nanbeige4.1-3B模型的突破性表现 - BOSS直聘南北阁实验室发布的Nanbeige4.1-3B模型,以仅3B的参数量,实现了通用问答、复杂推理、代码编写和深度搜索等综合能力,挑战了“小模型难通用”的刻板印象 [10][19][21] - 该模型在多项评测中显著超越同规模开源模型(如Qwen3-4B、Qwen3-8B),并在综合指标上超越了参数量大10倍的Qwen3-32B与Qwen3-30B-A3B模型 [11] - 即使与发布时间更晚、参数接近的Qwen3.5-4B模型对比,Nanbeige4.1-3B在六大核心指标上依然整体领先,展现了稳健的技术优势 [14] - 模型发布后迅速获得社区关注,登上HuggingFace文本模型趋势榜第一,并一度冲进全球模型总榜前三 [14] 技术解析:实现“小而全”的关键方法 - 研究团队采用了分阶段、分领域的优化策略,在有限的3B参数规模内系统性地整合了多项能力,并保持了各领域间的能力平衡 [21][22] - **通用能力优化**:调整了指令数据的结构比例,提高代码类样本、数学难题和复杂推理任务的占比,以强化小模型对深层逻辑的建模能力 [23] - **上下文长度扩展**:采用三阶段课程学习(32K → 64K → 256K),渐进式地让模型适应更长的依赖关系,稳定学习长距离注意力结构 [24] - **回复质量提升**:通过引入Solution Refinement(解答迭代优化)与CoT Reconstruction(思维链重构)框架,减少推理中的逻辑跳步和不连贯问题,提升思维链的忠实度和一致性 [26][27][30] 训练机制:创新的强化学习(RL)策略 - 团队创新性地将RL拆分为两个阶段:Point-wise RL和Pair-wise RL [33] - **Point-wise RL**:引入通用奖励模型对单条回答质量评分,显著降低了冗长、重复与格式错误,将LiveCodeBench-v6的格式错误率从5.27%降至0.38% [34][35] - **Pair-wise RL**:让模型与其他模型进行PK,由Pair-wise奖励模型判断回答优劣,使模型在竞争环境中迭代提升,不仅提升了Arena-Hard V2等对抗评测成绩,也对Multi-Challenge等单点评分任务带来明显收益 [35][36] 专项能力:编码与深度搜索的深度优化 - **编码能力**:采用两阶段RL策略,并设计了“门控时间复杂度奖励”机制,即时间奖励仅在解答通过所有测试用例(正确率100%)时才会被激活,确保模型先追求正确性,再优化效率 [38][39] - **深度搜索能力**:通过构建大规模、结构复杂的搜索数据集,并引入“轮次级质量控制”机制,对每一轮搜索交互的推理逻辑、工具调用和信息增益进行独立评估,训练模型形成稳定的“检索-判断-再检索”循环结构 [45][46][48] - 在深度搜索基准测试中,Nanbeige4.1-3B在xBench-DeepSearch-2505上达到75分,在GAIA (text-only)上达到69.90分,成绩接近专为搜索打造的AgentCPM-Explore-4B模型 [54][55] 性能验证:全面的基准测试与实战检验 - 在综合基准测试中,Nanbeige4.1-3B在多数测试上超越了参数规模10倍以上的模型,并在与Qwen3-Next-80B-A3B等超大模型的对比中保持竞争力,各项指标互有胜负 [50][53] - 在代码领域,其LCB-V6得分达76.9,远超Qwen3-32B的57.4;在数学领域,AIME 2025得分达90.83,优于Qwen3-30B-A3B的87.8 [51] - 在模型发布后举办的真实任务竞赛中(如LeetCode周赛和HMMT数学竞赛),Nanbeige4.1-3B的表现不仅显著优于Qwen3.5-4B,甚至超过了参数量更大的Qwen3.5-9B,有力证明了其极强的泛化与推理能力 [56][57][58] 行业影响与未来展望 - Nanbeige4.1-3B的成功表明,通过精细化的训练方法创新,小模型可以形成独立、通用的能力体系,而不再仅仅是大模型的“轻量替代品” [60][61] - 参数规模的差距正被训练范式的创新所弥补,原本依赖大模型规模优势的Agent与复杂推理能力,开始下沉到更具部署友好性的小尺度模型 [61] - 当3B模型即可稳定处理推理、编程与搜索任务时,企业侧的部署范式将被重写,为移动端、本地化及私有化部署场景打开了巨大的想象空间 [62] - 行业认为,大模型的边界在扩张的同时,小模型的效率革命也在发生,未来决定AI应用广度的关键,可能是“小参数模型所能释放的智能密度” [63][64]
GPT-5核心推手闪电跳槽,Anthropic CEO高调炫耀员工留存碾压OpenAI,“AI第一公司”光环崩塌?
AI前线· 2026-03-04 18:52
OpenAI的战略转型与人才流失 - 公司核心研发重心从拓展模型参数边界转向解决商业落地的“最后一公里”问题,目标指向“可控、可靠、可规模化” [8] - 公司正处于战略转型关键期,旨在从AI模型提供商转变为具有全球影响力、深度嵌入商业与政府体系的AI平台型巨头 [8] - 公司最新一轮融资规模高达1100亿美元,投后估值直逼8400亿美元,计划用于扩大AI基础设施建设以构筑算力优势 [28] 产品战略:从参数竞赛到体验优化 - 公司产品迭代路径显示,正从“让AI更聪明”转向“让AI更值得信任” [10] - 单纯的模型规模增长面临边际效应递减,模型大十倍效果提升可能不足10% [12] - 最新模型GPT-5.3 Instant将巨大算力资源从“逻辑推理”倾斜至“工程修补”,专注于优化语气、情商和对话流畅度等用户体验 [13] - 后训练的目标从“防止AI毁灭世界”降维成了“防止AI惹上官司” [14] - 行业评价尺度重写,企业客户更看重降低合规风险、情绪稳定和逻辑自洽的助手,而非单纯智力上限 [15] 商业与政治布局加速 - 公司正秘密研发一款代码托管平台,意图取代微软旗下的GitHub,争夺软件工业的“底层定义权”并构建“数据-模型-应用”自循环体系 [18][20] - 公司更新使用政策,删除了明确禁止“军事和战争用途”的条款,并任命前美国国家安全局局长进入董事会 [23][24] - 公司接手了五角大楼订单,与国防部达成协议,这被视为一次“政治站位”,表明其已准备好承担作为“国家级AI基础设施”的复杂性 [25][26] - 成为美军供应商意味着获得“大而不能倒”的政治豁免权,2亿美元的国防预算使企业级SaaS收入显得微不足道 [27] 人才流动与文化摩擦 - OpenAI后训练负责人、GPT-5系列核心推手Max Schwarzer离职加入Anthropic,回归一线研究员身份 [3] - 许多技术领袖正从OpenAI向更强调“宪法级AI”与安全研究的Anthropic汇聚,形成一条“人才迁徙线” [6][7] - 在SignalFire的2025人才趋势报告中,Anthropic顶尖AI人才留存率达80%,工程师从OpenAI跳槽至Anthropic的可能性是反向流动的8倍 [30] - 公司内部对于“后训练”定义存在根本性分歧:科学家视其为通往AGI的安全闸,而管理层则将其重新定义为“高级客服培训” [13] - 随着工程化与产品化主导决策,纯粹的研究探索被迫后退,导致技术原教旨主义者选择离开 [29] - 公司正在筛选掉“纯粹研究者”,留下“产品经理”和“工程师”,聚集最优秀的产品化人才,旨在变成AI时代的微软 [33] - Anthropic则吸纳最纯粹的“科学家”和“安全专家”,致力于探索AGI理论边界和安全底座,类似AI时代的贝尔实验室 [34] 行业竞争与路线分野 - OpenAI选择了“广度与渗透”路线,旨在先成为不可或缺的基础设施并赢下市场份额 [34] - Anthropic选择了“深度与边界”路线,专注于未来和安全底座 [34] - OpenAI近期“小动作”不断,正从“模型公司”向“基础设施公司”转变 [34]
AGI 凉了?吴恩达、斯坦福、谷歌云罕见同频:AI 测评逻辑正被 Agent 颠覆
AI前线· 2026-02-28 12:05
AI行业焦点转向:从布道到价值评估 - 2026年初,AI行业焦点已从“能不能做到”转向“在什么条件下、以什么成本、为谁创造价值”[2] - 斯坦福HAI明确指出,2026年是AI从布道走向评估的一年[2][7] - 大量企业已完成第一轮生成式AI部署,开始有条件回看投入与产出[4][5] 现有评价体系面临挑战 - 过去依赖的Scaling Law(模型越大、数据越多、算力越强,能力越好)在医疗、法律等高责任领域显得单薄[8][9][10] - 分数上涨不等于风险可控,能力增强不代表系统可落地,现有评价体系可能跟不上应用场景的复杂度[10] - 吴恩达指出“AGI”概念被过度滥用,导致学生、CEO及社会对AI能力产生系统性高估[11][13] 提出新的评估标准:图灵-AGI测试 - 吴恩达提出“图灵-AGI测试”,旨在重新界定AI上限[7][14] - 该测试核心是评估AI能否在任务不预设、路径不可控、反馈持续变化的条件下,从头到尾完成一件事[16][18] - 与当前主流基准测试不同,它关注长期规划、持续学习和跨任务迁移等真实智能,而非固定题目解题能力[18] AI价值评估需算“经济账” - 斯坦福学者指出,过去几年AI行业只算“能力账”,系统性地回避了“经济账”,现在是时候好好算钱的问题了[21] - AI“单点能力”提升并不必然带来整体效率提升,有时甚至因引入核查、协调等新成本而产生反效果[21] - 评估不能只测模型,必须测“人+AI+流程”这个整体,关注系统整体是否变得更复杂、更难以信任[23] 企业级AI投资回报的关键发现 - 谷歌云《The ROI of AI 2025》报告调查了3466名全球营收千万美元以上的企业老板或高管[6][29] - 真正实现正向、可持续投资回报的,并非零散的生成式AI能力,而是“Agent+流程+组织”的系统级落地[7][30] - 在最早一批入场Agentic AI的公司里,88%已在至少一个GenAI场景中看到正向回报[7][30] 技术路径拐点:从大模型到Agent体系 - 当前AI核心问题从“模型能不能更强”转变为如何将其真正用进系统里[31] - 在使用GenAI的企业中,52%已将Agent投入生产环境[33] - 谷歌报告显示,让AI获得正向ROI的场景具有流程清晰、可规模化复制的共同点,如生产力、客户体验、业务增长、营销和安全[34][36] Agent的等级划分与演进方向 - 谷歌将Agent按效果分为三个等级:Level 1(生成式AI工具)、Level 2(真正意义上的单体Agent)、Level 3(多Agent协同工作流)[37][38] - 目前绝大多数已产生正向ROI的Agent集中在Level 2,属于“单体Agent+明确流程”形态[40] - Agent的下一步演进方向是“更可管理”,让多个Agent在清晰分工和明确规则下稳定协作,而非盲目堆砌数量[40] Skill-First成为Agent发展的核心理念 - 未来趋势是Agent调度一堆边界清楚、可被调用复用监控的“技能模块”[40][41] - 吴恩达是“Skill派”,强调将AI能力拆解为可验证、可组合、可评估的能力单元,以判断边界和管理风险[43][44] - 能跑出ROI的系统往往是Skill拆得够细、流程跑得顺、责任链条说得清楚的Agent系统[42] 学界对AGI与行业热度的冷静预测 - 斯坦福HAI联合主任James Landay预测2026年不会出现AGI[25] - 2026年AI主权的前景在于模型运行位置和数据由谁掌控,而非比拼模型大小[25] - 斯坦福HAI对全球算力投资升温发出警告,认为资本持续涌入却看不到回报拐点带有泡沫意味[27][28]
基本面观察2月第2期:AI叙事的转变
华泰证券· 2026-02-27 10:35
AI叙事转变的三大层次 - 第一层叙事:对Scaling Law出现分歧,源于物理约束(如电力)、数据瓶颈和边际效率衰减,技术焦点转向算法拓展[5] - 第二层叙事:市场从奖励资本开支转向担忧投资回报,美国大型科技公司2026年AI相关资本开支或超7000亿美元[6] - 第三层叙事:担忧AI颠覆性从变革搜索(Chat时代)、变革软件(Agent时代)演进至颠覆宏观范式(全面AI时代),可能替代劳动力要素[7][8] 市场担忧与投资逻辑转变 - 市场担忧呈现矛盾:既担心AI变现太慢,又担心AI颠覆性太强,导致在恐慌情绪下对高估值板块进行线性外推[10] - 美国五大超级云厂商2026年约90%的经营性现金流将用于资本开支(2025年为65%),部分公司自由现金流转负风险增加[6] - 美国科技巨头2026年债券发行总额或高达4000亿美元,债务融资敞口快速增加[6] 反驳观点与未来展望 - 存在反驳宏观颠覆的观点:如“杰文斯悖论”认为效率提升会刺激新需求,AI在非标化任务上替代成本高,且社会适应力强[11] - AI变革过程不会一蹴而就,投资者需从“买一篮子AI”转向精细化筛选标的,关注变化的时间表、边界和结构性机会[11] 投资筛选建议视角 - 硬件层:关注供给约束最紧、定价权强的环节,如存储、电网、变压器、先进封装产能和光纤[12] - 模型层:筛选逻辑偏向拥有独占私有数据、极低成本推理基础设施及强大工程落地能力的公司[12] - 应用层:优先关注能快速落地、量化AI降本增效ROI、切入核心工作流或垂直领域的AI原生应用[12] - 关注中美AI路线差异:中国更强调“算力效率优先”和产业赋能,美国短期“替代性”冲击更强,长期关注制造业恢复[14]
华泰证券今日早参-20260226
华泰证券· 2026-02-26 10:38
固定收益:AI叙事 - 2026年以来,全球AI叙事正在经历重要的边际变化,至少观察到三层叙事的转变 [2] - 第一层叙事是对Scaling Law开始出现一些分歧,过去几年AI投资的核心引擎“模型越大、数据越多、算力越强,性能越好”的经验规律正在出现裂痕 [2] 房地产行业:上海楼市新政 - 2026年2月25日,上海五部门联合印发楼市新政“沪七条”,在限购松绑、公积金支持、房产税优化三大维度全面发力,放松力度高于年前的北京新政 [2] - 新政将有效降低购房门槛、提升支付能力,精准激活刚需与改善需求,放松力度超市场预期 [2] - 叠加2月2日的收储新政,有望推动上海楼市从“预期底”向“量价修复”加速过渡,为一线城市稳市场提供重要样本,也有望为房地产市场存量去化与行业转型注入新动能 [2] - 看好“三好”房企、优秀商业运营商、港资房企、高分红物管公司的投资机遇 [2] 科技行业:半导体与存储 - 2026年SEMICON Korea行业峰会信息显示,存储原厂进入量价齐升的卖方市场,预计2026年DRAM高涨幅仍将持续,供应端释放有限,下游通过长约锁定需求 [4] - 三星加速HBM4布局,导入1γnm制程、优化前端TSV结构,并采用4nm逻辑base die,力图重回技术领先梯队 [4] - 科技巨头乐观Capex指引支撑存储景气,三星与英特尔将承接部分台积电外溢需求 [4] - 设备端由存储扩产驱动,ASML存储订单强于逻辑验证结构性复苏,行业景气度随资本开支上行逐步修复 [4] - 晶圆代工与封测环节议价能力增强,将受益于AI算力投资扩张;成熟制程亦通过产品结构优化稳价增利 [4] 重点公司:京东工业 - 首次覆盖京东工业,给予“买入”评级,目标价18.47港元,对应2026年目标调整后净利润PE 28倍 [5] - 2024年以GMV计,公司为中国最大的工业供应链技术与服务提供商 [5] - 以“太璞”数字化工业供应链整体解决方案为基础,公司已建立覆盖全流程端到端供应链数字基础设施 [5] - 看好公司在工业采购数字化和线上化率提升的行业大背景下,利用自身技术驱动的效率提升能力和集团协同效应,持续深化核心用户规模和份额增长 [5] - 通过切入BOM、国际业务和自有品牌等举措,实现中长期收入规模和利润率双重扩张 [5] 重点公司:亚玛芬体育 - 公司公布4Q25业绩:营收21.0亿美元,同比增长28%(固定汇率计算同比+26%),由技术服装和户外性能板块引领增长 [6] - 调整后OPM同比下降1.1个百分点至12.5%,主要由于对萨洛蒙投资增加,调整后EPS为0.31美元 [6] - 展望2026年,全年收入指引同比+16%-18%,剔除200个基点的汇率利好收入同比+14-16%,符合初步指引的低~中双增长上限 [6] - 调整后EPS指引为1.10-1.15美元,调整后OPM为13.1%-13.3%,中枢同比+0.4个百分点 [6] - 1Q26势头强劲,收入指引22-24%(包含500个基点汇率利好),EPS指引为0.28-0.30美元 [6] - 考虑公司多品牌矩阵稀缺性,始祖鸟全渠道同店高质量增长、萨洛蒙投入加大后有望加速破圈、威尔逊盈利持续改善,集团有望借势全球户外运动热潮,进一步巩固全球高端运动鞋服领先地位 [6] 重点公司:汇丰控股 - 经调口径下,汇丰控股25A营收同比+5.1%,税前利润同比+7.1%,增速较25Q1-3分别+0.3个百分点、+2.6个百分点 [7] - 2025年经调ROTE为17.2%,同比2024年+1.6个百分点,主因净利息收入增长及财富管理收入增加 [7] - 董事会已通过派发第四次股息每股0.45美元,2025年每股合计派息0.75美元 [7] - 公司指引2026、2027及2028年平均ROTE达到17%甚至更高,争取28年营收同比增速达5% [7] - 鉴于公司组织架构调整提升运营效率,维持“买入”评级 [7] 重点公司:超威半导体 - 2026年2月24日,AMD宣布与Meta达成多年期、多代产品战略合作,Meta将部署最高6GW的AMD Instinct GPU [7] - 受此提振,AMD当日股价上涨约8.8%至213.84美元 [7] - 首期1GW部署将基于MI450 GPU及第六代EPYC(Venice)CPU,预计于26H2开始出货;系统基于双方联合开发的Helios机架构建;Meta也是下一代Verano CPU的重要合作伙伴 [7] - AMD还向Meta授予最多1.6亿股绩效型认股权证,归属与GPU出货节点及股价门槛挂钩 [7] - 公司电话会重申未来3-5年Non-GAAP EPS有望突破20美元 [7] - 此次合作提升AMD AI业务可见性,在Helios机架实现规模验证后,AMD有望拓展至更多CSP客户 [7] 重点公司:渣打集团 - 经调口径下,渣打集团25A经营收入同比+6.1%,归属于普通股股东利润同比+25.4%,增速较25Q1-3分别-1.9个百分点、-1.0个百分点 [8] - 业绩增速边际略有波动主因环球市场业务阶段性下滑,利息净收入韧性强 [8] - 25A有形股东权益基本回报达到14.7%,较原定计划提前一年超越13%的有形股东权益基本回报目标 [8] - 25全年每股派息0.61美元,同比提升65.7%,并宣布全新的15亿美元股份回购 [8] - 公司指引26年经营收入(列账基准)同比增速接近5-7%范围的较低水平,法定有形股东权益回报将高于12% [8] - 公司跨境网络韧性凸显,维持“增持”评级 [8] 评级变动 - 京东工业(7618 HK)获首次覆盖,评级定为“买入”,目标价18.47港元,2025-2027年EPS预测分别为0.40、0.59、0.80元 [9]
物理学家,危,Anthropic联创:AI觉醒,2-3年写出菲尔兹级论文
36氪· 2026-02-25 18:23
AI对理论物理学研究的潜在颠覆性影响 - Anthropic联合创始人、前理论物理学家Jared Kaplan预测,未来2-3年内,AI有50%的概率达到与顶尖理论物理学家(如Nima Arkani-Hamed和Edward Witten)同等的科研产出水平,并可能替代或边缘化至少50%物理学家的工作内容 [1][2][15] - 该判断基于其对AI进展速度的评估,认为AI在理论推导、数值模拟、公式发现和实验设计等核心科研环节的能力将逼近甚至超过大量人类研究者 [2][14] - 这一预测引发深层讨论:若AI能自主生成顶尖物理学家水平的论文,要么说明物理学突破本身比想象中更具“可程序化”特性,要么意味着AI正在发展出类似人类“洞察力”的能力结构 [15][21] 粒子物理学领域当前面临的挑战 - 自2012年发现希格斯玻色子(“上帝粒子”)后,大型强子对撞机(LHC)的实验数据一直严格符合已有理论“标准模型”的预测,未发现任何预期之外的新粒子或新物理现象 [3][8] - LHC耗资数十亿欧元建造,其目标不仅是验证标准模型,更是为了通过揭示更完备的自然理论(如包含暗物质粒子、解释物质-反物质不对称性等)来超越它,但至今“一无所获” [6][8][10] - 该领域面临人才流失问题,许多才华横溢的博士后研究人员转投数据科学等其他领域,有观点认为实验粒子物理“正在死去” [11] AI在物理研究中的实际能力展示 - OpenAI研究员、黑洞物理学家Alex Lupsasca的案例显示,GPT-5 Pro仅用18分钟,就从他提供的黑洞潮汐响应方程中,重现了他花费数年学习加数月研究才发现的“隐藏对称性”的对称生成元 [25][27][28] - AI能快速处理研究生级别的物理问题,例如在几秒钟内完成广义相对论中“瓦尔德解”事件视界的磁场强度计算,而刚入门的研究生可能需要几小时 [27] - 在CERN和Aspen天文台的测试中,AI模型能在几分钟内解答通常给博士生一周时间解决的问题,并能正确识别复杂的天体物理现象(如磁星)并提供后续观测建议 [28] 科研人员向AI领域的转型趋势 - 包括Jared Kaplan、Igor Babuchkin、Alex Lupsasca在内的多位理论物理及粒子物理领域的研究者,已因看好AI颠覆科研的潜力而转向AI行业 [14][22][25] - 促使他们转型的原因包括:认为AI的进展速度可能是人类科学史上最重要的事件之一;认为寻找新物理的困难日益增大,而超级智能可能是理解宇宙奥秘的新关键;亲身见证了AI强大的推理与研究能力 [14][22][23][25] - Jared Kaplan本人是推动大语言模型Scaling Law发展的先驱,其深厚的理论物理学背景(哈佛大学物理学博士、JHU理论物理学教授)使其对AI与物理双方能力有透彻理解 [1][16][17][19]
春晚机器人解读专家会议
2026-02-24 22:16
电话会议纪要分析:机器人行业专家解读 一、 涉及的公司与行业 * **行业**:人形/通用机器人行业,涵盖运动控制、硬件设计、软件算法、商业化应用等领域 [1][2][5][7] * **主要提及公司**: * **宇树机器人**:以高动态运动控制、硬件平台化设计、自研关节技术见长,在2026年春晚表演中展示高难度动作 [1][2][3][16] * **银河通用**:专注于轮式机器人,在免维护能力、实际运营部署、数据策略和商业化应用方面领先 [2][8][9][21] * **其他公司**:魔法原子(品类多样、硬件稳定)[16]、松岩(小型化、消费电子属性)[16]、乔杰(通过强化学习提升一致性)[5]、优必选(展示成分较重,实际应用存疑)[17] 二、 宇树机器人的核心优势与技术路径 * **运动控制与稳定性**:在2026年春晚表演中,宇树机器人展现出**高度一致性和稳定性**,能够完成空翻、跑酷等高难度动作,其**流畅性和一致性刷新了行业标杆**[1][2][16] * **硬件设计优势**: * **产品结构设计优秀**:在运动性与拟人化之间达到良好平衡,减少了长期硬件迭代需求(如增加腰部自由度或更换电机)[1][2] * **自研关节技术**:相比行业标准件,在相同扭矩下**重量轻300-400克**,累计可使整机**轻8公斤左右**,提升了灵活性和迭代便捷性,并通过严格品控实现更高硬件一致性 [2][3] * **硬件平台化与通用性**:硬件架构稳定冻结,使软件工程师能基于稳定平台进行长期开发优化,无需频繁适应新硬件,降低了二次平台开发成本 [1][3] * **软件与算法训练**: * 为准备春晚表演,团队利用**G1型号机器人**,通过**模仿学习与强化学习相结合**的方法,历时约**5个月**完成高难度动作训练 [3] * 通过积累数据实现**模型涌现效应**,使同型号机器人能快速掌握新技能 [4] * **发展路径**:选择**先提升运动性能**,再逐步增强其他功能的发展路径,在工厂作业和公共服务场景有应用潜力,但为运动性能在负重、自重和自由度上做了妥协 [7][21] 三、 银河通用的核心优势与市场策略 * **市场地位与策略**:在国内同行中处于**领先地位**,其强大的融资能力、演示能力及独特策略使其脱颖而出 [8] * **核心能力**: * **运动控制与品控**:在**一致性和免维护能力**上表现出色,具备**远程自启、自动充电、自恢复**能力,保证稳定安全运行 [2][9] * **灵巧手技术**:基础抓取、拿放、翻转等动作处理得非常好,具备**20或22个主动自由度**[10] * **商业化应用**:是**唯一敢将免维护机器人投入实际运营并交货**的公司,在操作居家功能、零售功能等方面进行实际运营 [8] * **效率提升**:通过将部分功能(如从充电位到货架取货)**写死(预设)**,将每次卖货时间从**90秒缩短到30秒**,提高了卖货效率 [2][12] * **数据策略**:坚持使用**低成本模拟仿真数据替代真机数据**以快速收集数据并降低成本,但虚拟仿真场景数据与实际场景的一致性仍是挑战 [2][14] * **财务优势**:拥有约**四五十亿人民币现金**,可建立比竞争对手更大的数据优势 [14] * **发展路径**:从一开始就注重**自由度和负重能力**,以满足实际工作需求,以便更快实现商业化应用 [7] 四、 机器人行业的技术挑战与现状 * **硬件一致性挑战**:行业普遍面临**减速器和电机的一致性问题**,导致每个机器人的运动学特性不同,是实现量产的障碍 [5][24] * **硬件平台期**:机器人硬件**尚未达到完全稳定的平台期**,各公司仍在优化结构设计,关节能力通过工程手段持续增强 [24] * **轻量化材料进展**: * 骨架多采用**镁铝材料**,已做到相对极致 [26] * 外壳使用工程塑料、3D打印柔性材料等,重量占比小 [26] * **主要挑战在关节轻量化**,电机、减速器等组件结构创新难,简化结构会带来背隙误差增大等问题 [26] * 未来突破需关注**扭矩更大、更轻、体积更小的新型减速器材料**(如高模量无机金属材料)[26] * **算法与泛化挑战**: * **叠衣服等任务**的难点在于**泛化能力**(如从叠短袖泛化到叠长袖)[13] * 行业内**尚未找到通往世界模型的绝对正确路径**,仍需遵循Scaling Law(数据越多效果越好)[6] * 将**虚拟仿真环境中的优化结果应用到实际硬件**仍是一个难题 [5] * **预训练与自主决策**:预训练与遥控**不会显著影响实际应用效果**,感知、规划、决策等技术已成熟,关键是结合规划路径与运动能力 [4]。目前机器人尚不能摆脱预训练实现完全自主决策 [6] 五、 2026年行业发展与市场展望 * **技术进步**: * **最大进步**体现在**大脑模型的可用性和控制能力的提升**,开源或可测试的巨深模型可用性显著提高(如国内测试的派0.5模型)[2][23] * 强化控制能力有长足进步,如**双脚稳定站立、无损倒地自起**等技术取得突破 [23] * **边缘端芯片**(如索尔2000 TOPS算力芯片)的广泛应用,提高了感知、规划、决策及运行大模型的效率和速率 [2][23] * **市场预期与场景**: * **2026年销售目标**:各家主机厂预计销售增速翻倍 [20] * **增量场景**:2025年放量较大的政府主导场景(数据采集基地、展厅讲解)在2026年可能减少,未来增长潜力较大的场景包括**零售业、工厂中的上料、下料、转运和码放**等 [20] * 经过训练,这些场景中机器人的**可用度逐渐提高**,已具备一定替代能力,尽管效率仍达不到人类水平 [20] * **价格趋势**:目前产品价格下调主要因**行业上游内卷加剧**,为熬到市场放量阶段提前开始价格战,而非规模化降本,因为硬件尚未冻结,未达大批量生产阶段 [19] * **行业评价与标准**: * 春晚新人的表现**低于专业人士预期,高于普通民众预期**,表明行业仍需经过量产、场景和市场验证 [15] * 评价标准将更加**实用主义**,关注能够实际应用并部分替代人类劳动力的机器人 [15] * 各公司人形机器人**仍处于早期阶段,都未达到合格线**(企业购买后能正常使用并在一年半内回本)[21] * 运动性评分(满分60分):宇树**45分**,大脑进步较快的是银河通用(其轮式机器人得**40分**),魔法原子约**35分**,松岩约**30分**[21][22] * **全尺寸双足作业型机器人**(1米7左右)因当前技术限制在表演中吃亏,但未来随着技术提升将成为主力,因更适合使用人类工具 [16]
星海图合伙人、CFO罗天奇:具身智能尚处于技术竞赛早期阶段
每日经济新闻· 2026-02-12 18:47
文章核心观点 - 具身智能行业正处于由规模定律驱动的早期技术竞赛阶段 行业竞争的本质是资金使用效率 即每一元钱能换回多少智能 而非短期的融资额或硬件成本 [1][2] - 行业正经历结构性转折 资本逻辑从“广撒网”转向“押头部” 企业需储备资金以应对未来算力与数据成本激增 胜负关键在于智能水平和由智能定义的反向硬件能力 [2][5] - 中国具身智能公司在全球竞争中拥有显著的数据供应链优势 其高质量数据采集成本可能仅为美国公司的十分之一 这构成了长期竞争的重要基础 [6] 行业现状与竞争格局 - 行业持续受资本与产业关注 但稳定落地、规模复制及成本控制仍是现实挑战 [1] - 行业处于“百团大战”式的早期阶段 类比互联网发展初期 部分友商正在疯狂烧钱 [2] - 行业正经历重要的结构性转折 从早期技术探索迈向资源密集型竞争阶段 [2] - 头部具身智能企业在算力和数据投入规模上 约为头部大语言模型创业公司的十分之一 但这一差距可能迅速缩小 [2] - 随着规模定律进一步发挥作用 行业将出现明显的格局收敛 [2] 公司融资与战略 - 星海图于2月11日完成10亿元人民币B轮融资 累计融资额近30亿元人民币 估值达百亿元 成为行业新晋“独角兽” [1] - 公司在融资节奏和支出上相对审慎 强调需保留足够资金以应对未来成本激增 [2] - 公司认为行业竞争的本质是资金使用效率 在中国具身智能公司里 谁花钱效率最高 谁就最值得获得资本投资 [2] 技术发展与商业化路径 - 具身智能的“ChatGPT时刻”不一定在一两年内很快到来 但这不妨碍商业化的率先开启 [3] - 从技术驱动角度看 当前能跑通的商业化场景需满足三个硬性边界:厘米级精度、接近人类80%的作业速度以及99%准确率 [4] - 符合上述边界的场景包括料箱搬运、物流分拣及末端配送的“最后一公里”操作 这些场景在当前产业中具有较大数量基础 [4] - 具身智能对容错率更友好 不需要达到99.99%的成功率即可落地 会“润物细无声”地进入千行百业 [4] - 应避免将资源过早投入由商务驱动的商业化 技术基础未稳时大规模市场扩张容易导致头重脚轻 [4] 商业模式与财务视角 - 面向企业端的生意在营收规模上极具潜力 向一个大客户销售数十至上百台机器人可实现数亿元人民币营收 [5] - 相比营收绝对数量 更应关注营收质量 如开机使用比例和毛利率等指标 [5] - 行业中长期的商业模式是卖“物理世界的Token” 当供应链成熟到年产10万台以上规模时 硬件成本将不再有实质性差别 [5] - 真正的长期壁垒在于两点:一是智能水平 二是由智能水平反向定义的硬件设计和生产制造能力 [5] - 硬件成本最终不会是行业比拼的关键 [5] 全球竞争与技术架构 - 中国具身智能公司拥有比硬件供应链更夸张的数据供应链优势 中国最高质量的数据采集成本可能只有美国公司的十分之一 这意味着花相同的钱可采集到10倍数量的数据 [6] - 在技术架构上 世界模型短期内更适合拥有算力与多模态积累优势的大厂推进 创业公司无需重复“造轮子” [6] - 具身智能公司真正独特、必须从零开始研发的部分是具身基础模型 即负责物理世界执行能力的视觉语言动作模型 [7] - 视觉语言模型与视觉语言动作模型是互补关系 前者负责理解与推理 后者负责行动与执行 公司需要将资源集中在物理世界智能的构建上 [7]
GLM-5架构细节浮出水面:DeepSeek仍是绕不开的门槛
36氪· 2026-02-11 07:57
智谱AI新模型GLM-5技术架构曝光 - 在春节前约一周,多个技术平台在48小时内接连出现智谱新模型GLM-5的线索,包括OpenRouter、vLLM和Hugging Face,形成了一条完整的信息链 [1] - 2月7日,OpenRouter平台上线代号为"pony-alpha"的模型,其思维链风格与智谱GLM系列高度吻合,在复杂代码生成任务中表现稳健,但缺乏图像等多模态输入支持 [2] - 2月9日,vLLM推理框架的代码提交中首次明确出现"GLM-5"标识,显示其实现逻辑复用了DeepSeek-V3系列模型采用的DSA稀疏注意力机制,并集成了MTP多标记预测技术 [4][5] - Hugging Face transformers仓库的代码提交正式引入了智谱的GlmMoeDsa架构,揭示了GLM-5的具体结构 [6] GLM-5模型架构与技术参数 - GLM-5采用78层Transformer解码器,前3层为稠密结构,第4层及以后采用混合专家架构,共配置256个专家网络,处理单个token时激活其中8个,并辅以1个共享专家以保证基础能力稳定 [6] - 模型上下文窗口扩展至202K,词表规模为154,880,相比前代GLM-4.7提升有限 [6] - 根据社区信息汇总,GLM-5总参数量约为7450亿,每次推理激活的参数量约为440亿 [8] - 模型采用"256专家+8激活"的MoE配置,在维持大规模参数总量的同时,单次推理只需调用约3%的参数,有效控制了计算成本和响应延迟 [9] 关键技术:效率优先的架构选择 - GLM-5集成了已被DeepSeek验证的稀疏注意力机制,其代码显示"GlmMoeDsaForCausalLM"类直接继承自"DeepseekV2ForCausalLM",属于架构复用 [10] - DSA机制用精准筛选代替全文扫描,对于每个词,筛选出与之最相关的一部分词进行深度计算,使用ReLU代替Softmax作为激活函数,此流程仅消耗自注意力机制约5%的计算资源 [12] - 在128K上下文场景中,DSA取k=2048个最相关的历史词进行计算,可使计算量减少98%,实际测试在H800 GPU上处理长文本时能降低约40%至50%的推理成本,而核心任务上的性能损失不到1% [12][13] - 模型集成了多标记预测技术,该技术允许模型在前向计算中一次预测多个连续的词,以减少迭代次数,在代码、JSON、SQL等结构化文本生成任务中,能将token生成速度提升2-3倍 [13][15] 行业趋势与竞争格局 - 智谱创始人认为单纯的模型扩展是提升智能的“人类最轻松的偷懒方式”,GLM-5的技术路线呈现出明显的“效率优先”导向,而非继续堆砌参数 [7][9] - 智谱AI选择直接集成开源技术,体现了对研发效率的重视,也反映出国产大模型研发路径的转变,即“开源+优化”比“闭源+自研”更务实 [16] - AI行业即将告别参数规模的军备竞赛,转向专注于推理效率上的精细化运营,在控制计算成本的前提下,提升垂直表现将成为下一阶段竞争的关键维度 [17] - 基于社区测试,GLM-5在代码生成和逻辑推理场景具有优势和竞争力,有望在软件开发辅助、算法设计等垂直领域形成差异化价值,但其暂无多模态能力,在当前国内主流大模型普遍向多模态演进的背景下,这一缺失会限制其在AIGC创作场景中的适用性 [16]