文章核心观点 智谱公司发布新一代基础模型GLM-5技术报告,该模型旨在推动编程范式从“氛围编程”转向“智能体工程”,并通过四大技术创新实现了性能的大幅跃升,同时全面兼容国产算力生态并开源模型以促进高效、面向智能体的通用人工智能发展 [2][3][4] 模型核心技术创新 - 引入DSA稀疏注意力机制:采用全新架构,根据Token重要性动态分配注意力资源,在不折损长上下文理解和推理深度的前提下,大幅削减算力开销,使模型参数规模成功扩展至744B (7440亿),同时训练Token规模提升至28.5T (28.5万亿) [2] - 构建全新的异步RL基础设施:基于“训练与推理解耦”设计,进一步实现“生成与训练”的深度解耦,将GPU利用率推向极致,支持大规模的智能体轨迹探索,大幅减缓同步瓶颈,使RL后训练流程效率实现质的飞跃 [3] - 提出全新的异步Agent RL算法:使模型能够从多样化的长周期交互中持续学习,针对动态环境下的规划与自我纠错能力进行深度优化,这是GLM-5在真实编程场景中表现卓越的底层逻辑 [3] - 全面拥抱国产算力生态:模型原生适配中国GPU生态,全面兼容七大主流国产芯片平台:华为昇腾、摩尔线程、海光、寒武纪、昆仑芯、沐曦与燧原 [3] 模型性能与能力提升 - 编程与智能体能力:GLM-5旨在成为下一代AI智能体更高效、更实用的基础模型,其核心是推动从“氛围编程”到“智能体工程”的范式转变 [2][3] - 开源策略:智谱向社区开源GLM-5,以进一步推动高效的、面向智能体的通用人工智能发展,并坚定探索技术前沿,构建更高效、更智能的底层系统 [3][4] 技术细节与架构 - 架构演进:GLM-5在前代模型GLM-4.5的智能体、推理与编程能力基础上,采用稀疏注意力以大幅降低推理成本,同时保持长上下文能力无损 [2] - 训练效率:通过构建新型异步强化学习基础设施,将生成过程与训练过程解耦,从而大幅提升了后训练的迭代效率 [2]
智谱发布GLM-5技术报告 披露其实现性能大幅跃升的技术细节