科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令
量子位·2026-03-15 12:38

LabClaw产品概述 - 产品是由斯坦福大学和普林斯顿大学团队推出的开源“科研版龙虾”工具,旨在通过AI自动化改变科研工作方式[1] - 其核心是一个包含211个生产级技能文件的“技能包”,供AI在研究生物医学时直接调用,用户无需自行设计提示词[9][11][12] - 使用方式极为简便,研究人员只需通过一行命令即可调动整个AI“龙虾军团”自动执行任务[3] 产品功能与核心价值 - LabClaw能自动化处理科研中的多项任务,包括盯实验数据、跑分析模型、翻文献、写实验记录等,人类只需在关键环节进行决策[3][4] - 该工具能显著提升科研效率与产出,被描述为有助于“顶刊的路子走宽了,科研人的头发保住了”[5] - 其设计理念得到了英伟达作为“Founding Partners”的支持[6] LabClaw技能库(Skill)详情 - 技能库按研究方向分类,涵盖多个生物医学及数据科学领域,具体包括:生物学与生命科学(技能数量未明确列出)、实验室操作系统与自动化(7个)、视觉与XR(5个)、药学与药物发现(36个)、医学与临床(20个)、通用与数据科学(48个)以及文献与检索(29个)[12] - 每个技能文件(SKILL.md)都会明确指导AI何时使用、如何调用以及预期产出什么结果[12] - 文章列举了典型工作流及其对应的示例技能,例如:单细胞与空间组学(anndata, scanpy)、药物发现(rdkit, diffdock)、临床精准医疗(clinicaltrials-database)、统计分析(scikit-learn)以及文献综述与写作(pubmed-search, scientific-writing)等[14] 高级应用:AI实验室助手 - LabClaw的技能可以进一步组合,被部署成一个不会下班的AI实验室助手(Always-On Lab Agent),长期运行于实验室环境中[18] - 该助手能持续读取显微镜、传感器或摄像头的数据流,结合图像、数据和日志自动监控实验进程,并在发现异常时触发分析、生成报告并提醒研究人员[19][21][24] - 此模式实现了从单纯工具到主动、持续协同的实验室智能体的升级[26] 生态系统:LabClaw与LabOS的协同 - 团队为LabClaw专门配备了名为LabOS的操作系统,两者结合形成一套完整的AI-XR协同科学家系统[27][28][30] - LabOS被定义为全球首个此类系统,由斯坦福大学丛乐教授和普林斯顿大学王梦迪教授团队联合推出[30] - 系统架构中,LabClaw类比为应用市场(提供各种技能APP),而LabOS则是底层操作系统[29] - LabOS集成了“大脑”(多智能体规划与推理)、“眼睛”(专属视觉语言模型LabOS-VLM,用于理解实验操作)和“身体”(XR眼镜与实验机器人),实现人机协同实验[38] - 典型应用场景是:研究人员佩戴XR眼镜启动系统,通过语音指令(如“找黑色素瘤的免疫治疗靶点”)驱动LabOS调用LabClaw中的相应技能,从而在AI指导下完成从数据分析、实验操作到论文生成的全流程协同工作[40][41] 团队背景与系统优势 - 项目负责人丛乐是斯坦福大学医学院副教授,在CRISPR基因编辑领域贡献卓著,曾在Science、Cell、Nature等顶刊发表多篇论文[34][35] - 另一位负责人王梦迪是普林斯顿大学教授、人工智能创新中心主任,是AI与控制系统领域的核心学术带头人[36][37] - 该组合系统具有良好的扩展性,新的科研需求可通过在LabClaw中安装新技能来满足,无需重新开发整个系统[43] - 整体而言,该系统将AI辅助科研的门槛降低到了“一条指令”的程度[45]