Workflow
SOP2Workflow
icon
搜索文档
华为升级行业Agent算法架构!MindScale自己写prompt和工作流,KV Cache减少5.7倍token
新浪财经· 2026-02-12 20:13
华为诺亚方舟实验室发布MindScale算法包 - 华为诺亚方舟实验室近期更新了面向行业应用的算法包MindScale,旨在将大模型技术转化为实际生产力 [1][13] - 该算法包融合了实验室的算法创新基因与华为行业智能化业务实践经验,并提供了技术论文与适配昇腾硬件的代码实现 [1][12][13][25] 行业Agent应用的核心挑战 - 行业Agent的普及面临四大核心挑战:工作流手工维护依赖专家经验、历史知识复用困难、训练与推理效率存在瓶颈、复杂推理场景的测评指标不准确 [3][4][16][17] - 工作流手工维护需要专家将业务规则“翻译”为Agent工作流 [4][17] - 历史知识复用难体现在历史推理路径与反馈无法有效使Agent系统自演进 [4][17] - 训推效率瓶颈源于大量模型部署与迭代需求以及思考路径变长带来的成本压力 [4][17] - 复杂推理测评的难点在于多步、多工具交织的推理过程,使得单精度指标无法准确反映模型效果 [4][17] MindScale提供的解决方案与技术特性 - 针对工作流开发,算法包包含自进化的Agent算法EvoFabric,其SOP2Workflow功能可从自然语言文档与历史工具库直接生成可执行工作流 [3][7][16][20] - 工作流生成基于状态图引擎内核,支持混编Agent、工具等多种图节点,并支持DSL文件的导入与导出以实现快速复制与部署 [7][20] - 算法框架具备基于记忆的演进能力,可利用轨迹记忆和评估结果优化上下文,实现Agent性能的持续提升 [7][20] - 在提示词优化方面,提供了SCOPE算法,可在每步推理间进行在线优化,在特定场景取得**20%以上**的精度提升 [7][20] - 同时提出了“大模型prompt优化器”C-MOP,通过创新策略实现基于正负例反馈的prompt自动优化闭环 [8][21] 算力效率优化与硬件适配 - MindScale注重面向行业场景的训练与推理效率优化 [10][23] - 其TrimR(工业级思维链动态压缩算法框架)在MATH、AIME、GPQA等基准测试中,几乎不影响准确率的前提下显著降低推理时延,大并发场景最高可实现约**70%** 的提速 [10][14][23][26] - TrimR通过一个预训练的轻量验证器在线检测并截断无用中间思路,无需微调大模型,并配套工业级异步在线系统以适配大并发生产场景 [14][26] - 提供了新的基于KV Cache的推理方案KV-Embeddings,将其视为一种轻量表示,在链式表示推理等场景中性能可持平或反超专用模型,同时将生成token数最高减少**5.7倍** [12][25] - MindScale包含了适配昇腾硬件的代码实现,支持基于国产算力构建高精度、高效的Agent [12][25]