华为盘古大模型负责人王云鹤离职,被曝Agent创业
量子位· 2026-03-28 13:17
核心人事变动 - 华为盘古大模型负责人、诺亚方舟实验室主任王云鹤宣布离职 [1] - 王云鹤于2017年以实习生身份加入华为诺亚方舟实验室,2018年博士毕业后正式入职,在华为工作8年后离职 [2][5][6] - 王云鹤出生于1991年,是一位“90后”实验室主任 [4][13] 职业履历与成就 - **职业路径**:在华为8年间,历任高级工程师、主任工程师、技术专家,2021年底升任算法应用部部长,2025年接任诺亚方舟实验室主任,负责盘古大模型研发 [2][13] - **学术影响力**:根据Google Scholar数据,其总被引数为33,921次,自2021年以来的被引数为33,109次,h-index为68,i10-index为158 [7] - **代表性论文**: - 被引最高的论文《Ghostnet: More features from cheap operations》被引用6,109次,旨在解决资源受限的嵌入式设备上部署卷积神经网络的难题 [7][12][13] - 论文《A survey on vision transformer》被引用2,528次 [7] - 论文《Pre-trained image processing transformer》被引用2,887次 [7] - 论文《Transformer in transformer》被引用2,833次 [7] - **重要奖项**:曾获华为“十大发明”奖,该获奖成果被应用于中国天眼FAST,协助发现数百个快速射电暴样本 [13] - **近期学术贡献**:作为通讯作者的论文《Image Processing GNN: Breaking Rigidity in Super-Resolution》获得CVPR 2024最佳学生论文奖提名,其提出的算法在当时达到了超分辨率成像的SOTA水平 [8][9] 教育背景 - 本科毕业于西安电子科技大学数学与应用数学专业 [4] - 博士毕业于北京大学,师从许超教授和陶大程教授,专业方向为人工智能 [4][5] 未来动向 - 王云鹤未在离职官宣中透露具体去向 [14] - 据信其离职后将投身AI Agent领域的创业,并已在进行水下融资 [15]
GLM-5.1上线,编程表现贴Opus 4.6开大,Coding plan瞬间断货
量子位· 2026-03-28 13:17
文章核心观点 - 智谱公司最新发布的GLM-5.1模型在编程能力上相比上一代GLM-5有显著提升,评测得分飙升近10分,且与全球领先的Claude Opus 4.6模型差距仅为2.6分 [1][2] - 该模型已面向所有GLM Coding Plan用户开放(包括Lite/Pro/Max),开放后需求火爆,一度售罄 [9][10] - 尽管官方文档和公告信息有限,但根据现有资料和网友实测,GLM-5.1在代码生成、空间结构理解、动态环境构建等方面展现出强大能力 [12] 模型性能与评测 - **编程能力大幅提升**:在Coding Evaluation评测中,GLM-5.1相比上一代GLM-5得分直接飙升近10分 [1] - **接近全球顶尖水平**:其编程能力评测得分与当前全球最强的编程模型Claude Opus 4.6相比,仅有2.6分之差 [2] - **潜在超越同级对手**:有网友推测,其评分可能已经超过了目前仅次于Opus 4.6的Sonnet4.6模型 [4] 模型能力与实测表现 - **核心能力定位**:模型定位主要偏向代码场景,并支持reasoning模式 [16] - **空间结构理解**:在生成室内设计平面图的实测中,模型对厨房、客厅、卧室等区域划分明确,并能处理动线关系,显示出对空间结构的到位理解能力 [18][19][20] - **动态环境构建**:在生成可交互的“我的世界”游戏实测中,模型展现了“动态补全能力”,即随着镜头移动,能对未出现区域的内容进行持续生成,保持画面流畅不卡顿 [25][26][29] - **空间一致性**:在游戏搭建实测中,模型能一起生成场景、视角和交互,说明其在处理连续环境时能呈现相对稳定的空间状态 [28] - **复杂任务处理**:有用户将关于灵巧手的研究资料输入模型后,成功生成了一本专业的行业手册,输出效果远超用户预期 [7][9] 模型配置与发布信息 - **模型配置**:支持在Claude Code中手动切换使用,也能接入OpenClaw进行自定义配置,同时支持OpenAI Compatible接入,降低了开发者的使用门槛 [14][17] - **上下文窗口**:大约在200K级别,基本延续了GLM-5的配置,量级上没有太大变化 [16] - **迭代节奏**:GLM-5.1距离上一代GLM-5模型的发布仅间隔一个多月,表明公司产品处于非常快速的迭代周期中 [31] - **版本定位**:GLM-5.1更像是上一代模型的强化版本,其提升更多体现在稳定性、执行效率以及复杂任务下的表现上 [32] 用户反响与市场热度 - **开放范围广泛**:模型率先向GLM Coding Plan的全部用户(包括Lite用户)开放 [9][17] - **市场需求旺盛**:模型开放后因过于火爆而直接显示“售罄” [10] - **开发者积极实测**:众多网友在模型发布后立即进行实测,并将其应用于日常工作流,例如生成专业手册、构建交互式游戏等 [4][6][7]
工业代码能力开源第一!北航团队用真实仿真环境生成250万条验证数据,专治工业编码「水土不服」
量子位· 2026-03-28 13:17
文章核心观点 - 通用大语言模型在通用编程任务上表现出色,但在工业代码生成任务上存在显著短板,其根本原因在于工业代码要求模型理解硬件语义、掌握特化语言构造并严格遵守资源约束,而现有模型的训练与评测体系对此覆盖不足 [1][3][6] - 北航等单位联合发布了首个面向工业代码的代码基座模型 InCoder-32B,该模型通过构建真实仿真环境规模化生产了**250万条**经执行验证的工业代码数据,并采用三阶段训练,实现了在芯片设计、GPU内核优化等多个工业领域的卓越性能,同时保持了通用代码任务的竞争力 [1][7][10][16][22] 模型性能与突破 - **通用代码能力保持强劲**:InCoder-32B 在 HumanEval 上达到 **94.5%**,在 MBPP 上达到 **91.8%**,在 SWE-bench Verified 上达到 **74.8%**,处于同规模开源模型的领先水平 [24] - **工业代码性能显著领先**:在多个工业基准测试中取得突破性成绩,例如在芯片设计基准 RealBench 上,其 Syn@1 和 Func@5 指标分别达到 **74.8%** 和 **70.5%**;在 3D 建模基准 CAD-Coder 上,编译率和 IoU 分别达到 **82.0%** 和 **53.5%**,后者大幅超过 Claude-Sonnet-4.6 的 **32.4%**;在 GPU 优化基准 KernelBench 的三个级别上均取得开源模型最佳成绩 [24][25] - **对比突显专业训练价值**:现有最优模型在 Triton 算子生成任务上的函数调用成功率仅为 **28.80%**,在 Verilog 代码的形式等价性验证中准确率仅为 **33.3%**,而 InCoder-32B 通过专业化训练路线有效解决了这些问题 [9][25] 工业代码的独特挑战与数据生产方法 - **工业代码验证依赖真实执行环境**:与可通过单元测试快速验证的通用代码不同,工业代码(如 Verilog、CUDA kernel、嵌入式固件)的正确性必须通过在真实或高保真的仿真部署环境中执行来验证,这要求构建生产级的执行与验证基础设施 [12] - **重建四大类高保真工业仿真环境**:团队复刻了工业工程师实际使用的工具链,包括:1) 使用 Icarus Verilog、Verilator、Yosys 等工具重建芯片设计环境;2) 在 NVIDIA A100 节点上部署 GPU 优化环境;3) 基于 OpenCascade 和 CadQuery 构建 3D 建模环境;4) 以 STM32F407 为目标平台,使用 Renode 仿真器构建嵌入式代码验证环境 [13][14][15] - **规模化生产经执行验证的数据**:通过“任务构造-候选生成-执行验证-反馈驱动修复”的四步流程,生产了 **250万条** 高质量的监督微调样本,其中包含直接解答、缺陷修复和性能优化三种类型,特别是闭环修复轨迹模拟了工程师的真实工作流 [16][17][18][19] 模型架构与训练策略 - **统一的多领域架构**:InCoder-32B 是一个拥有 **320亿** 参数的 Decoder-only Transformer 模型,旨在以单一模型统一服务芯片设计、GPU内核优化、嵌入式系统、编译器优化和 3D 建模五大工业领域,与此前专注于单一子领域的模型不同 [7][9][10] - **三阶段渐进式训练**:1) 预训练阶段使用 **4096块** GPU 和 **15万亿** token 的数据,完成从函数级到项目级的课程学习;2) 中期训练将上下文从 8K 扩展至 128K,并注入推理数据;3) 后训练阶段使用前述 **250万条** 工业代码数据完成能力专精化 [22] 工业代码的典型错误分析 - **错误类型系统归纳**:通过对 **1882个** 失败样本的分析,归纳出五类核心问题:1) 编译与语法错误(如在 RealBench 中占 **71%**);2) 工业API知识不足(如在 EmbedCGen 中 **47%** 的失败为链接错误);3) 功能正确性不足(如 VeriRepair 中 **79%** 的失败属此类);4) 输出格式违规(如在 VeriScope 中占 **46%**);5) 性能优化不足(如 KernelBench 中 **33%** 的失败代码速度不达标) [26][27][28] - **案例揭示本质差距**:以 Claude 生成 CUDA 代码为例,其因不了解 GPU 硬件约束(gridDim.y 上限为 **65535**)而直接赋值 **262144**,导致运行时非法参数错误,这凸显了通用模型缺乏对硬件语义和资源约束的感知 [4][9] 行业影响与开源信息 - **引发开源社区关注**:相关论文在 Hugging Face Daily Paper 上的点赞数已近 **300**,模型的全量和量化版本权重均已开源 [2] - **模型全面开源**:模型和代码已在 Hugging Face 和 GitHub 上采用 Apache 2.0 协议开源,提供了可公开访问的资源和论文链接 [29][31]
美国、德国、英国、法国、意大利、加拿大、日本等,发表联合声明
财联社· 2026-03-28 13:10
七国集团关于伊朗局势的联合声明 - 七国集团成员国外交部长和欧盟外交与安全政策高级代表于4月27日就伊朗局势发表联合声明 [1] - 声明呼吁设法减少当前中东冲突的地区影响及外溢经济冲击 [1] - 声明强调应减少冲突对地区伙伴、平民、关键基础设施的影响,并协调人道救援工作 [1] - 声明呼吁立即停止针对平民和民用基础设施的袭击 [1] - 声明认为建立多元化伙伴关系、加强协调并支持相关举措,有益于缓解冲突外溢经济冲击 [1] - 声明呼吁永久性恢复霍尔木兹海峡通航 [1] 七国集团外长会议背景 - 七国集团(美国、德国、英国、法国、意大利、加拿大和日本)外长会于4月26日至27日在法国举行 [1] - 会议讨论了伊朗局势、俄乌冲突和全球治理等问题 [1]
中方严厉谴责美国、以色列行为
第一财经· 2026-03-28 13:05
文章核心观点 - 中国常驻联合国代表在人权理事会紧急辩论中,就伊朗米纳卜小学遭袭事件阐述中方立场,对事件表示震惊和谴责,并指出美以的军事行动是悲剧根源,强调应通过对话谈判解决热点问题 [3][5] 事件描述与定性 - 伊朗米纳卜小学遭受袭击,导致**168名**女童遇难 [3] - 中方认为该暴行突破人类道德良知底线,是对人权的最大侵犯,也是对国际人道法的公然蔑视 [3] 中方对事件原因及后果的认定 - 认定美国和以色列未经联合国安理会授权对伊朗发动袭击,是造成此悲剧的根源 [5] - 指出美以的行动不仅杀害伊朗领导人、侵犯伊朗人民人权,还引发中东地区冲突升级,导致地区国家被迫卷入 [5] 中方提出的原则与呼吁 - 强调所有国家的**主权、安全和领土完整**应当得到充分尊重 [5] - 强烈谴责一切违反国际法、无差别攻击平民和非军事目标的行为 [5] - 主张所有热点问题都应通过**对话谈判**解决,而不应使用武力 [5] - 呼吁各方抓住一切和平机会和窗口,以真诚的态度启动和谈进程,用实际行动保护地区人民基本人权,维护中东地区的和平稳定 [5]
圣塔菲人工股票市场
猛兽派选股· 2026-03-28 13:03
人工股票市场模型的核心设定与基础 - 模型旨在用简单规则在计算机上模拟现实股票市场运动,其基础是充满行为各异的“人工模拟投资主体”(智能体Agent)[1] - 这些智能体程序会根据市场数据和初始策略进行预测并执行交易,随后根据交易效果和市场变化修正策略和预测,具备探索行为和自适应性[1] - 所有智能体共享相同的初始财富、效用函数、学习速度、策略池容量,初始预测规则集随机生成,但规则生成机制、参数空间和进化算法完全一致,起点刻意同质[1] 模型运行的主要现象与发现 - 在慢速探索状态下(智能体平均每1000期调用一次遗传算法),市场进入稳定的理性预期均衡(有效市场态),交易行为趋于同质化[2] - 在适中速度探索状态下(智能体平均每250期调用一次遗传算法),市场行为明显偏离理性预期均衡,观察到了真实金融市场中的泡沫和崩溃特征[2] - 在中高速探索实验中,初始同质的交易者自发分化为基本面派、趋势派、噪声交易者等,异质性成为市场稳态,同时出现贫富分化,少数人长期赚钱,多数人长期亏钱,财富趋向集中[2] - 不同交易派别中都存在长期赢家和长期亏家,且比例没有明显差异[2] - 有效市场假说被视为复杂经济现实的一个慢速子集,而大多数经济系统处于中高速探索状态,不会收敛,只会不断进化[2] - 模型复现了现实股市的贫富分化,证明这是复杂系统的自然结果,而非人性或阴谋所致[2] 市场异质性的内生维持机制 - 即使赢家策略可以被学习和复制,市场也永远不会完全同质化或被套利抹平,异质性会内生维持下去[3] - 策略如果被大量复制,就会自动失效,失效会催生新的策略选择[4] - 长期赢家并非依赖固守一个策略,而是依赖不断进化策略的能力[4] - 模型中的长期赢家是一类坚持“生态位+细节自适应”的智能体[4] - “生态位”指高维原则或哲学不变性,例如“愿意承受别人不愿承受的东西”,这导致生态位长期供给不足,从而存在超额收益[4] - 例如,价值投资的生态位(长期、低换手、充裕现金流、安全边际、逆市场情绪)因人性弱点(如没耐心、不接受回撤、追热点)而并不拥挤[4] - 趋势跟踪的生态位同样存在,其不变的是市场内生的趋势结构,变的是产业、技术、经济周期等具体因素[5] - 趋势策略存在极高的心理成本,如频繁假突破止损、大趋势中途剧烈震荡、长时间无趋势、反转时大幅回吐等,这构成了多数人难以逾越的壁垒[5][6] - 长期跑赢的智能体(稳定生态位占据者)具有稳定的核心偏好、风险偏好、时间视野和基本信念(高维不变),但其底层预测规则持续进化(低维自适应),不断淘汰失效规则并生成新规则,保持少量有效规则[5] - 别人只能学习其具体买卖点(低维),但无法复制其高维结构与适应速度,因此其优势不会被学走[5] 模型的理论贡献与影响 - 圣塔菲人工股票市场是行为金融学与复杂系统科学结合的里程碑式计算模型,是复杂经济学、演化证券学、行为金融学的核心实验平台[6] - 其核心贡献之一是统一了两种市场观,证明有效市场与复杂市场是同一模型在不同参数下的状态,而非互斥理论[7] - 模型首次在计算模型中内生产生了泡沫、崩盘、技术交易、波动聚集等有效市场假说难以解释的现象,为行为金融与复杂经济学提供了可复现的实验证据[7] - 模型开创了基于Agent的计算金融学方法论,成为研究市场微观结构、投资者行为、政策模拟的主流工具[7] - 后续出现了多个改进版,并被广泛用于高频交易、监管政策、ESG、加密货币等场景的模拟[7]
推理提速 10 倍,成功率暴涨 30%!极佳视界发布全新世界模型GigaWorld-Policy
机器之心· 2026-03-28 12:45
核心观点 - 极佳视界发布全新世界-动作模型GigaWorld-Policy,通过创新的“以动作为中心”架构和分层训练法,在推理速度、训练效率和真机任务成功率上实现重大突破,标志着世界模型驱动的机器人迈入高频实时闭环控制的新阶段 [2] 模型性能突破 - 推理速度相比当前主流模型(如Motus、Cosmos Policy)提升10倍 [2][5] - 训练效率相比传统视觉语言动作模型训练方案提升10倍 [2][8] - 真机任务平均成功率逼近85%,相比Cosmos-Policy等对手,成功率绝对值提升超过30% [2][17] 技术创新:以动作为中心的架构 - 提出“以动作为中心”的新范式,解决传统架构因需同时生成未来视觉与动作而导致的跨模态耦合与高计算延迟问题 [5] - 基于轻量级世界模型GigaWorld-0.5,将视觉观测、机器人状态及动作序列映射到统一嵌入空间,通过单一Transformer主干网络协同建模,消除模态割裂 [5] - 采用“训繁推简”混合策略:训练时引入因果掩码机制,统一建模动作与未来视觉Token以利用高密度监督信号;推理时舍弃视频预测分支,仅保留轻量化动作生成模块,从根本上规避结构性计算冗余 [5][9] - 该架构在实现高质量策略输出的同时,大幅降低显存占用,为工业级大规模部署铺平道路 [5] 训练方法:三段式高效训练Pipeline - 采用分层训练范式,最大化挖掘海量视频数据价值 [8] - **第一阶段:通用物理世界预训练**。利用海量互联网视频数据,让基础模型建立对通用物理规律和视觉动态的基础认知 [10] - **第二阶段:具身场景沉浸式微调**。引入数千小时涵盖第一人称、真机及仿真的多源操作视频,让模型专攻具身交互场景,掌握特定时空演变规律 [10] - **第三阶段:极小样本动作对齐**。在强大“世界观”基础上,仅需极少量的真机动作标签数据,即可将预训练世界模型与机器人动作预测精准对齐,快速打通“观测-动作-未来视觉”的因果映射 [10] 真机实测表现 - 在涵盖抓取、装配、物品整理等多种典型机器人任务的严苛评测中,GigaWorld-Policy是唯一同时实现高成功率与高实时控制频率的模型 [13] - 对比Motus,不仅大幅缩减显存占用,更实现10倍推理提速,达到毫秒级响应能力,这是机器人应对现实环境动态干扰、实现高成功率的底层基石 [17] - 即便对比某些主打极速推理的模型,GigaWorld-Policy凭借对物理世界规律的深刻理解依然稳占上风 [17] 行业意义与影响 - 该模型是对传统具身智能策略学习的一次重要范式重构,切中了传统世界-动作模型推理延迟高、视觉与动作表征耦合过深的问题 [15] - 让世界模型在机器人领域的落地应用更具实用性,为机器人在真实物理世界中的实时、高效操控提供了极具价值的新解法 [15] - 标志着由世界模型驱动的机器人真正迈入了“高频实时闭环控制”的落地新纪元 [2]
突发|华为诺亚方舟实验室主任王云鹤离职
机器之心· 2026-03-28 12:45
行业高层人事变动 - 2026年以来,国内AI圈经历一系列高层人事变动,表明行业正经历一次深刻的结构性转折[3] - 华为诺亚方舟实验室主任王云鹤官宣离职,成为行业焦点[1][25] 王云鹤个人背景与职业履历 - 王云鹤生于1991年,本科就读于西安电子科技大学数学与应用数学专业,2018年博士毕业于北京大学智能科学系[5] - 其研究方向包括深度学习、模型压缩、机器学习、计算机视觉等[5] - 博士毕业前已在华为诺亚方舟实验室实习,毕业后加入并担任高级工程师,后续升任主任工程师和技术专家[8] - 2021年担任华为算法应用部部长,负责高效AI算法的创新研发与应用,其“大幅提升算力的高效能乘法器和加法神经网络”获选华为第四届“十大发明”[8] - 2025年3月接班姚骏,担任华为诺亚方舟实验室主任,在华为工作超过8年[8] - 他是一位活跃的知乎答主,是“深度学习”话题的优秀答主[11] 王云鹤的学术成就与研究贡献 - 谷歌学术引用量突破33,000次(33,921次),h指数为64,i10指数为158[13][14] - 引用量最高的论文是CVPR 2020的“GhostNet: More features from cheap operations”,引用次数达6,109次,该研究提出了一种新型的端侧神经网络架构[14][15] - GhostNet在ImageNet分类任务上,在相似计算量情况下Top-1正确率达75.7%,高于MobileNetV3的75.2%[16] - 在Vision Transformer方向成就斐然,其参与发表的综述文章“A survey on vision transformer”引用量高达5,528次[18] - 参与的重要研究“Pre-trained image processing transformer”及“Transformer in transformer”引用次数均逼近3,000次[18] - 这些工作系统性地优化了自注意力机制在视觉特征提取中的计算效率,推动了Transformer架构在视觉任务中的应用与普及[18] 王云鹤对AI技术的前沿见解 - 他认为Transformer是“量变到质变长期积累得到的范式”,而扩散模型在建模方式上可能有潜力对自回归带来很大冲击[21] - 他系统性地梳理了扩散语言模型当前面临的10个核心挑战与优化方向,涵盖推理高效的架构设计、更适配的词表探索、更好的优化范式等多个维度[21] - 他强调最理想的扩散模型不应遵循现有自回归范式,应像人思考一样具有结构性,并建议未来AI模型设计可借鉴人类多尺度思考的特点,探索具有层级联系的词表结构[21] - 提出将离散扩散模型与视觉、语言及动作模块在具身智能等场景下融合,有望探索出更加统一的模型结构与训练范式[21] - 在其主导的论文《DLLM Agent: See Farther, Run Faster》中,团队探讨了底层语言模型的生成范式(扩散DLLM vs 自回归AR)对智能体规划、工具使用及决策轨迹的深刻影响[22] - 其提出的DLLM智能体可以实现更高效的全局规划,在最终准确率相当的情况下,端到端速度更快,交互与工具调用更少,并减少了冗余与回溯[24] 离职影响与未来展望 - 王云鹤作为在华为效力8年有余的AI领军人物,主导了多项具有国际影响力的底层算法创新,他的离职是行业内的一大焦点[25] - 他带着对扩散语言模型与通用人工智能统一架构的深刻思考离开,其下一段职业旅程值得整个行业持续关注[26]
美图靠AI一年收入38亿
第一财经· 2026-03-28 12:42
2025财年核心财务与运营表现 - 公司2025年总收入同比增长28.8%,达到38.6亿元人民币(3,858,738千元)[3][4] - 归属母公司权益持有人净利润同比下降12.7%至7.0亿元人民币(697,563千元),主要受去年同期加密货币收益及向阿里发行可转股债券开支影响[3][4] - 经调整后归属母公司权益持有人净利润同比增长64.7%至9.7亿元人民币(965,347千元)[3][4] - 整体毛利率为73.6%,较2024年的76.0%下降2.4个百分点[4] - 公司整体月活跃用户达到2.76亿,其中海外月活用户首次突破1亿[3] 分业务收入构成 - 影像与设计产品收入增长迅猛,同比增长41.6%至29.5亿元人民币(2,954,033千元),是收入增长的核心驱动力[4] - 广告业务收入同比微降1.3%至8.4亿元人民币(842,595千元)[4] - 其他业务收入同比增长8.8%至6211万元人民币(62,110千元)[4] 市场环境与公司股价表现 - 年初至财报发布日,公司港股股价下跌近33%,报4.73港元/股,总市值216.6亿港元[4] - 市场担忧主要源于“大模型吞噬应用”的行业论调,以及地缘政治风险驱使资金流向高确定性资产[4] 公司对“大模型吞噬应用”论调的回应与核心竞争力 - 公司创始人认为“大模型吞噬应用”不成立,模型与应用在AI生态链上并非完全覆盖关系,尤其在垂直场景,通用大模型缺乏“交付完整结果”的服务能力,这为应用开发者提供了机会[5] - 以电商图片设计为例,公司核心竞争力在于解决用户痛点:通用大模型需反复提示调整、输出风格趋同且无法管理商家历史资产;而公司能基于精细的行业经验和数据积累,提供高效、可管理资产的解决方案以实现更好转化[5] - 公司通过深入垂直场景调研构建壁垒,产品经理深入广州、义乌、杭州及美国等地与商家频繁接触,迭代产品,这是巨头不会针对垂直场景去做的事情[5] AI产品战略与进展 - 2025年最重要的产品进展是将AI智能体的能力接入大部分产品中[6] - 公司近期宣布接入“龙虾”(OpenClaw),旨在覆盖全球影像制作中的个人与企业场景[6] - 公司认为“龙虾”未来将成为很多模型或产品的标配,其构建的插件生态将非常繁荣,因此需要提前布局[7] - 智能体的接入带动了更多Token付费,并提升了用户平均付费[7] 公司发展展望 - 在AI的宏大叙事之外,垂直细分市场(垂直缝隙)可能更有利于应用公司生长出商业果实[8]