行业投资评级 - 投资评级为“看好”,并维持该评级 [7] 报告核心观点 - 月之暗面发布关于注意力残差(AttnRes)的论文,预览了下一代大模型的关键架构创新,标志着AI模型商业化落地正在加速 [1][2][5] - 该架构创新通过提升参数信息利用率和计算效率,有望驱动大模型竞争进入“效率与质量驱动”的新阶段,并为复杂应用规模化落地提供降本基础 [12] - 底层架构的重构将深化对基础设施的协同要求,看好“架构创新”与“算力基建”共振带来的产业链机遇 [12] - 看好Kimi模型竞争力提升及其资本化进程,认为其将强化在Agent与复杂任务场景中的优势,并带动模型即服务(MaaS)商业化能力兑现与云端高质量算力需求 [12] 事件与架构创新总结 - 事件描述:3月16日,月之暗面发布论文,提前预览了下一代模型的关键模块——注意力残差(Attention Residuals, AttnRes) [2][5] - 核心定位:AttnRes是对大模型底层架构的创新,旨在动态重构跨层信息聚合,解决传统Transformer深层网络中历史信息被“等权累加”稀释的痛点 [12] - 机制原理:摒弃固定的残差相加,引入注意力机制,使模型每一层能动态“检索”并按需调用早期层的特征 [12] - 性能提升:将该机制集成至Kimi Linear架构后,模型在多项复杂任务上取得显著提升,例如在科学问答(GPQA-Diamond)上的得分提升超过20% [12] 工程方案与效率优势 - 工程挑战:全注意力残差会带来通信与显存开销激增的问题 [12] - 解决方案:团队首创了“分块注意力(Block AttnRes)”工程方案,结合跨阶段缓存与两阶段计算策略 [12] - 效能表现:该方案将额外的端到端训练耗时增加控制在不到4%,推理延迟开销不足2%,并显著降低了长上下文场景下的显存需求 [12] - 效率优势:在同等验证损失下,Block AttnRes展现出约1.25倍的计算效率优势,证明了其在大规模模型与长上下文场景中实际部署的工程可行性 [12] 行业影响与产业链机遇 - 竞争焦点演变:未来头部模型厂商的竞争焦点正逐步拓宽,架构创新带来的边际性能提升将成为拉开能力梯度的核心变量 [12] - 发展阶段判断:大模型演进进入“效率与质量驱动”阶段,架构优化重组了Scaling Law(规模定律) [12] - 产业链机遇:AttnRes等新架构对适配硬件提出了更高要求,有望驱动底层硬件与软件栈加速迭代 [12] - 关注方向:当前时点应关注核心算力芯片、前沿架构技术方案(如新型网络互联与长上下文存储优化)、以及云端MaaS服务 [12]
AI应用正当时:Kimi发布论文预览下一代模型架构,模型商业化落地继续加速