行业背景与核心问题 - 科学计算领域在过去几十年积累了数量空前的开源软件工具,覆盖生物信息学、化学模拟、材料计算、物理仿真与工程设计等多个学科方向,在GitHub等平台上有成千上万个代码仓库 [2] - 但绝大多数科学软件停留在“被发布过”的状态,而非“可以直接运行”,在真实科研中部署工具常需花费数天甚至数周解决编译失败、依赖冲突、系统不兼容等问题 [2] - 这种高度依赖个人经验的临时运行环境难以被他人复现或复用,导致每个研究者和实验室都在手工维护自己的环境,而非基于共享、可复现的执行基础设施工作 [2] - 这种模式在结构上限制了科学软件的可复现性、大规模评估以及系统性集成,即便容器化、云计算和HPC平台已降低算力门槛,“部署瓶颈”依然长期制约科学软件的可用性 [2] - 随着AI for Science(AI4S)兴起,该问题被进一步放大,在新范式中AI系统需要与真实科学工具紧密交互,如调用求解器、执行模拟程序、运行分析管线、处理真实数据 [3][4] - 工具是否“真的能跑”从工程细节变为第一性问题,在Agentic Science场景中表现更尖锐,若工具依赖隐含环境且执行脆弱,智能体的规划将无法落地,执行失败也无法被结构化分析或转化为可学习轨迹 [5][6] - 工具是否部署就绪,已成为制约AI4S与Agentic Science规模化发展的结构性瓶颈,科学软件的核心问题不在于工具不够多,而在于缺乏能将工具系统性转化为可执行事实的共享基础设施 [7] 公司解决方案:Deploy-Master - 深势科技提出Deploy-Master,这是一个以执行为中心的一站式自动化工作流,旨在系统性解决科学软件的部署瓶颈 [1][8] - 该方案围绕部署的连续链路设计,涵盖工具能否被发现、是否被正确理解、能否构建环境以及是否真的可以被执行 [9][10] - Deploy-Master已用自动化工作流一次性部署验证超5万个工具,为Agentic Science铺平道路 [1] 技术实现与流程 - Search Agent(发现阶段):从91个科学与工程领域出发构建学科空间,使用语言模型扩展搜索关键词,在GitHub与公共网络进行大规模检索,通过依赖关系、引用关系等信号迭代扩展初始“锚点”仓库,避免关键词搜索盲区 [12] - 通过多阶段漏斗流程,将最初约50万个仓库收敛为52,550个进入自动部署流程的科学工具候选,首次以结构化方式刻画了真实科学工具世界的规模与边界 [12] - Build Agent(构建阶段):系统遍历仓库中的零散、不完整甚至矛盾的构建线索,必要时补充信息检索以生成初始构建方案 [15] - 引入双模型评审与辩论机制:一个模型提出构建规格,另一个独立审查并寻找潜在不一致、缺失依赖或环境假设,提出修正建议,通过多轮交互形成稳定方案,将构建成功率从单一模型的50%–60%提升至95%以上 [15] - 每个工具通过一个最小可执行命令进行验证,只有通过验证的工具才被视为成功部署,并被结构化、注册和发布到玻尔与SciencePedia平台,使其可被直接使用或被其他agent调用 [15] 部署成果与数据分析 - 从构建时间分布看,大规模部署过程不均匀,大多数工具可在7分钟左右完成构建,但整体呈明显长尾特征,部分涉及复杂编译流程、深层依赖的工具构建时间显著更长 [17] - 在成功部署的50,112个工具中,覆盖了170多种编程语言,Python占据最大比例,其次是C/C++、Notebook形式的工具、R、Java等,绝大部分语言部署成功率稳定在较高水平 [17] - 少数成功率较低的语言主要集中在依赖复杂编译链或系统级库的场景,如C/C++、Fortran及部分R工具,这反映了其工具链对底层环境耦合程度更高,放大了构建规格的不确定性 [17] - 在2,438次失败的构建尝试中,失败原因高度集中,最主要的来源是构建流程错误,包括构建步骤与仓库状态不一致、关键依赖缺失、编译器或系统库不匹配等,这类失败远多于资源不足、网络异常或权限问题 [18] - 资源相关错误在高并发阶段出现过,并推动了对调度策略和隔离机制的后续改进,表明在规模化部署中,失败应被视为系统暴露问题并自我修正的信号 [18] - 通过统一执行基础设施,得以系统观察科学软件在真实环境中的部署行为,识别哪些环节最容易失败、哪些隐含假设最常被触发、哪些工具链最容易放大不确定性 [18] - 这种可观测性让“科学软件难以部署”从经验判断转化为可量化、可分析、可持续改进的工程对象 [19][20] 对Agentic Science与行业的意义 - Deploy-Master的直接产出是一个由数万条执行验证工具构成的集合,为社区Agent与各类Master Agent提供了长期缺失的基础前提 [21] - 对Agent而言,只有当工具被统一构建、验证并注册为可执行能力,Agent才真正拥有稳定的action space,规划、执行与学习之间的闭环才得以成立 [22] - 这使得不同来源的社区Agent可以共享同一批经过执行验证的工具能力,而不再各自维护脆弱、不可复现的运行环境 [22] - 科学工具被视为自动化部署中最困难的一类,因其依赖复杂、系统耦合强、文档不完整、对环境高度敏感,在此“最难场景”中能在万级规模下稳定产生可运行工具,表明问题核心在于是否建立了以执行为核心的基础设施 [24] - 这一判断同样适用于更广泛的软件工具生态,包括工程工具、数据处理系统、专业软件乃至各类Agent Tooling,只要工具需要被执行,其部署问题就无法绕开“不完美信息”这一现实前提 [25] - 在Agentic Science时代,执行不是推理后的附属步骤,而是所有能力得以成立的前提,当“工具能不能跑”成为被系统性验证的事实,科学智能体才真正开始拥有与现实世界交互的基础 [26]
这脑洞神了,两AI“互喷”,竟治好祖传科研软件95%老毛病?
36氪·2026-01-09 20:22