Workflow
LabOS
icon
搜索文档
科研人有自己的“吃虾”方式!斯坦福普林斯顿最新开源,仅需一行指令
量子位· 2026-03-15 12:38
LabClaw产品概述 - 产品是由斯坦福大学和普林斯顿大学团队推出的开源“科研版龙虾”工具,旨在通过AI自动化改变科研工作方式[1] - 其核心是一个包含**211个**生产级技能文件的“技能包”,供AI在研究生物医学时直接调用,用户无需自行设计提示词[9][11][12] - 使用方式极为简便,研究人员只需通过一行命令即可调动整个AI“龙虾军团”自动执行任务[3] 产品功能与核心价值 - LabClaw能自动化处理科研中的多项任务,包括盯实验数据、跑分析模型、翻文献、写实验记录等,人类只需在关键环节进行决策[3][4] - 该工具能显著提升科研效率与产出,被描述为有助于“顶刊的路子走宽了,科研人的头发保住了”[5] - 其设计理念得到了英伟达作为“Founding Partners”的支持[6] LabClaw技能库(Skill)详情 - 技能库按研究方向分类,涵盖多个生物医学及数据科学领域,具体包括:生物学与生命科学(技能数量未明确列出)、实验室操作系统与自动化(**7个**)、视觉与XR(**5个**)、药学与药物发现(**36个**)、医学与临床(**20个**)、通用与数据科学(**48个**)以及文献与检索(**29个**)[12] - 每个技能文件(SKILL.md)都会明确指导AI何时使用、如何调用以及预期产出什么结果[12] - 文章列举了典型工作流及其对应的示例技能,例如:单细胞与空间组学(anndata, scanpy)、药物发现(rdkit, diffdock)、临床精准医疗(clinicaltrials-database)、统计分析(scikit-learn)以及文献综述与写作(pubmed-search, scientific-writing)等[14] 高级应用:AI实验室助手 - LabClaw的技能可以进一步组合,被部署成一个**不会下班的AI实验室助手**(Always-On Lab Agent),长期运行于实验室环境中[18] - 该助手能持续读取显微镜、传感器或摄像头的数据流,结合图像、数据和日志自动监控实验进程,并在发现异常时触发分析、生成报告并提醒研究人员[19][21][24] - 此模式实现了从单纯工具到主动、持续协同的实验室智能体的升级[26] 生态系统:LabClaw与LabOS的协同 - 团队为LabClaw专门配备了名为LabOS的操作系统,两者结合形成一套完整的AI-XR协同科学家系统[27][28][30] - LabOS被定义为全球首个此类系统,由斯坦福大学丛乐教授和普林斯顿大学王梦迪教授团队联合推出[30] - 系统架构中,LabClaw类比为应用市场(提供各种技能APP),而LabOS则是底层操作系统[29] - LabOS集成了“大脑”(多智能体规划与推理)、“眼睛”(专属视觉语言模型LabOS-VLM,用于理解实验操作)和“身体”(XR眼镜与实验机器人),实现人机协同实验[38] - 典型应用场景是:研究人员佩戴XR眼镜启动系统,通过语音指令(如“找黑色素瘤的免疫治疗靶点”)驱动LabOS调用LabClaw中的相应技能,从而在AI指导下完成从数据分析、实验操作到论文生成的全流程协同工作[40][41] 团队背景与系统优势 - 项目负责人丛乐是斯坦福大学医学院副教授,在CRISPR基因编辑领域贡献卓著,曾在Science、Cell、Nature等顶刊发表多篇论文[34][35] - 另一位负责人王梦迪是普林斯顿大学教授、人工智能创新中心主任,是AI与控制系统领域的核心学术带头人[36][37] - 该组合系统具有良好的**扩展性**,新的科研需求可通过在LabClaw中安装新技能来满足,无需重新开发整个系统[43] - 整体而言,该系统将AI辅助科研的门槛降低到了“一条指令”的程度[45]
黄仁勋GTC开场:「AI-XR Scientist」来了
36氪· 2025-11-20 10:21
核心观点 - 由斯坦福大学丛乐教授与普林斯顿大学王梦迪教授团队联合英伟达发布的LabOS系统,是全球首个融合AI、XR与机器人技术的“协研科学家”平台,旨在通过构建实验室“世界模型”,实现从假说生成到实验验证的端到端闭环,开启人类与机器智能协同进化的科学发现新范式 [2] 系统概述与发布 - LabOS是一个智能平台系统,首次将多模态感知、自我进化智能体与扩展现实技术融为一体,无缝衔接干实验的AI计算推理与湿实验的实时人机协同操作 [2] - 该系统由英伟达CEO黄仁勋在GTC大会上亲自展示,标志着科学发现范式的根本性跃迁 [2] 技术架构与核心突破 - **会思考的“脑”**:系统包含规划、开发、评审与工具创建四大自我进化AI智能体,能通过“工具海洋”模块从海量文献数据中自主创建新工具,实现推理能力的持续进化 [5] - **能理解的“眼”**:团队训练了专用的LabOS-VLM视觉语言模型,其235B参数版本在实验室错误检测任务上准确率突破90%,远超通用模型 [6][9] - **可协作的“手”**:通过XR眼镜实现人机一体化协作,系统每5-10秒分析一次视频流,提供实时指导、错误告警,并协同调度LabOS Robot机器人参与操作 [6] - 为构建实验室“世界模型”,团队创建了LabSuperVision基准,包含200多个第一人称视角实验视频,发现领先的通用AI模型在此基准上表现不佳 [8] 应用实证与效能 - **大幅提升科研效率**:据开发者称,该系统可将过去需数年的工作缩短至数周,将耗资数百万美元的研究降至几千美元,并将培训顶尖科研人才的周期从几个月降至几天 [3] - **自主发现癌症免疫治疗新靶点**:在黑色素瘤研究中,系统通过CRISPR激活筛选自主识别候选基因CEACAM6,并完成从计算分析到湿实验验证的端到端闭环 [15][16] - **生成并验证科学假说**:在细胞融合机制研究中,系统自主提名核心调控基因ITSN1,并通过CRISPR干扰实验验证了其功能 [19] - **实现实验技能传承**:通过XR眼镜实时指导与记录,将专家的隐性知识转化为标准化数字流程,助力新手快速掌握干细胞CRISPR基因编辑等复杂技术 [22] 行业影响与未来愿景 - LabOS旨在“与AI共同拓展科学的边界”,通过构建人类与机器智能协同进化的科研生态系统,打破传统实验室依赖个人经验、难以复现和规模化的桎梏,从根本上加速科学发现进程 [24] - 该创新标志着AI从纯数字世界的“理论家”向能够理解并操作真实物理实验的“具身科学家”进化,为科学研究带来了动态演进的“世界模型” [2][5]
黄仁勋GTC开场:「AI-XR Scientist」来了!
机器之心· 2025-11-20 10:07
LabOS平台核心突破 - 全球首个融合AI与XR技术的协研科学家平台,首次将多模态感知、自我进化智能体与扩展现实技术无缝衔接,构建从假说生成到实验验证的端到端闭环[3][4] - 系统具备"脑-眼-手"协同能力:自我进化AI智能体负责思考,专用视觉语言模型负责理解,XR眼镜与机器人系统负责物理操作[6][8] - 可将数年研究缩短至数周,数百万美元成本降至几千美元,数月培训周期压缩至几天[4] 技术架构创新 - **思考能力**:包含规划、开发、评审与工具创建四大智能体,能通过"工具海洋"模块从文献中自主创建新工具,实现推理能力持续进化[8] - **视觉理解**:训练专用LabOS-VLM模型,在实验室错误检测任务中准确率突破90%,远超通用模型(Gemini、GPT-4o等仅得2-3分/5分)[13] - **物理协作**:通过XR眼镜每5-10秒分析视频流,实时提供操作指导,并调度LabOS Robot机器人参与实验,所有交互通过手势和语音完成[8] 应用案例展示 - **癌症靶点发现**:自主识别黑色素瘤细胞中NK细胞杀伤抵抗基因CEACAM6,并通过TCGA数据验证其临床相关性,实现从计算推理到实验验证的完整闭环[22] - **机制研究**:通过整合通路分析自主提名ITSN1为核心调控基因,经CRISPR干扰实验验证其确实显著抑制细胞融合过程[25] - **干细胞工程**:通过XR眼镜实时指导CRISPR基因编辑操作,自动记录专家实验形成标准化流程,显著提升实验复现性与技能传承效率[29] 行业影响与愿景 - 打破传统实验室依赖"手艺"与个人经验的局限,构建人类与机器智能协同进化的科研生态系统[32] - 旨在"与AI共同拓展科学边界",推动科学发现范式的根本性跃迁,加速生命科学领域研究进程[32][34]
丛乐/王梦迪团队推出AI协作科学家,实时指导和纠正实验操作,让小白秒变实验高手
生物世界· 2025-10-20 17:00
文章核心观点 - 由斯坦福大学和普林斯顿大学华人团队开发了名为LabOS的AI-XR Co-Scientist平台,该平台融合人工智能与扩展现实技术,旨在通过智能感知与虚实交互重新定义科学研究的边界,使AI能够“看见”并与人类科学家协作[2][3][6] - LabOS是首个将计算推理与真实实验相结合的AI协作科学家,通过多模态感知、自进化AI智能体以及XR支持的人机协作实现目标,能将真实实验室转变为人类和机器发现共同演进的智能协作空间[6][7] - 该平台展示了从癌症免疫疗法靶点发现到干细胞工程等各类应用中的潜力,标志着实验室进入人机协作的新纪元,未来有望成为每个实验室的“标准配置”[7][29] LabOS平台架构与核心功能 - LabOS核心由四类AI智能体组成:规划智能体负责将科学目标分解为可执行模块、开发智能体生成代码并执行复杂分析、批评智能体评估结果并优化流程、工具创建智能体从文献与数据中自主扩展工具库[9] - 该架构使LabOS能自主完成从假设生成、实验设计到数据分析的完整科研流程,并通过持续学习不断进化[12] - 在生物医学推理基准测试中,LabOS在Humanity's Last Exam: Biomedicine中达到32%的准确率,在LAB-Bench: DBQA中达到61%的准确率,领先现有模型达8%,且性能随使用时间提升[12] 视觉语言模型的技术突破 - 研究团队构建了LabSuperVision基准,包含200多个真实实验视频,由专家标注步骤、错误与参数[14] - 测试发现顶尖AI模型在协议对齐与错误识别任务中得分仅2-3分,研究团队以此训练了LabOS-VLM,通过监督微调与强化学习使模型能精准解析实验视频[14] - LabOS-VLM-235B版本在错误检测中准确率超90%,能实时识别操作错误并生成步骤指导,成为实验室视觉推理的可靠“眼睛”[14] XR眼镜实现的人机协作交互 - LabOS的湿实验模块通过扩展现实眼镜实现与人类科学家的无缝交互,研究人员佩戴轻量级AR眼镜实时传输第一视角视频至AI服务器[17] - AI每5-10秒分析视频片段,返回结构化指令包括步骤指导、错误提示和手势交互,支持语音与手势控制避免污染[17] - 系统通过多视角相机与高斯泼溅算法构建实验室的3D/4D数字孪生,支持场景回放与模拟训练,提升操作精度并将专家经验数字化[18] 实际应用场景验证 - 在癌症免疫治疗靶点发现中,LabOS分析了CRISPR激活筛选数据,通过多步推理将CEACAM6从低优先级基因提升为NK细胞抗肿瘤的关键靶点,湿实验证实其激活显著增强了肿瘤对NK杀伤的抵抗[21] - 在细胞融合机制研究中,AI智能体提出ITSN1为细胞融合调控因子,研究团队通过CRISPR干扰实验验证了其功能,展示了从假设生成到湿实验验证的闭环能力[23] - 在干细胞工程指导中,LabOS通过XR眼镜实时指导iPSC的基因编辑与慢病毒转导操作,记录专家流程并辅助新手规避常见错误,实现“AI导师”功能[25]