文章核心观点 - 由斯坦福大学和普林斯顿大学华人团队开发了名为LabOS的AI-XR Co-Scientist平台,该平台融合人工智能与扩展现实技术,旨在通过智能感知与虚实交互重新定义科学研究的边界,使AI能够“看见”并与人类科学家协作[2][3][6] - LabOS是首个将计算推理与真实实验相结合的AI协作科学家,通过多模态感知、自进化AI智能体以及XR支持的人机协作实现目标,能将真实实验室转变为人类和机器发现共同演进的智能协作空间[6][7] - 该平台展示了从癌症免疫疗法靶点发现到干细胞工程等各类应用中的潜力,标志着实验室进入人机协作的新纪元,未来有望成为每个实验室的“标准配置”[7][29] LabOS平台架构与核心功能 - LabOS核心由四类AI智能体组成:规划智能体负责将科学目标分解为可执行模块、开发智能体生成代码并执行复杂分析、批评智能体评估结果并优化流程、工具创建智能体从文献与数据中自主扩展工具库[9] - 该架构使LabOS能自主完成从假设生成、实验设计到数据分析的完整科研流程,并通过持续学习不断进化[12] - 在生物医学推理基准测试中,LabOS在Humanity's Last Exam: Biomedicine中达到32%的准确率,在LAB-Bench: DBQA中达到61%的准确率,领先现有模型达8%,且性能随使用时间提升[12] 视觉语言模型的技术突破 - 研究团队构建了LabSuperVision基准,包含200多个真实实验视频,由专家标注步骤、错误与参数[14] - 测试发现顶尖AI模型在协议对齐与错误识别任务中得分仅2-3分,研究团队以此训练了LabOS-VLM,通过监督微调与强化学习使模型能精准解析实验视频[14] - LabOS-VLM-235B版本在错误检测中准确率超90%,能实时识别操作错误并生成步骤指导,成为实验室视觉推理的可靠“眼睛”[14] XR眼镜实现的人机协作交互 - LabOS的湿实验模块通过扩展现实眼镜实现与人类科学家的无缝交互,研究人员佩戴轻量级AR眼镜实时传输第一视角视频至AI服务器[17] - AI每5-10秒分析视频片段,返回结构化指令包括步骤指导、错误提示和手势交互,支持语音与手势控制避免污染[17] - 系统通过多视角相机与高斯泼溅算法构建实验室的3D/4D数字孪生,支持场景回放与模拟训练,提升操作精度并将专家经验数字化[18] 实际应用场景验证 - 在癌症免疫治疗靶点发现中,LabOS分析了CRISPR激活筛选数据,通过多步推理将CEACAM6从低优先级基因提升为NK细胞抗肿瘤的关键靶点,湿实验证实其激活显著增强了肿瘤对NK杀伤的抵抗[21] - 在细胞融合机制研究中,AI智能体提出ITSN1为细胞融合调控因子,研究团队通过CRISPR干扰实验验证了其功能,展示了从假设生成到湿实验验证的闭环能力[23] - 在干细胞工程指导中,LabOS通过XR眼镜实时指导iPSC的基因编辑与慢病毒转导操作,记录专家流程并辅助新手规避常见错误,实现“AI导师”功能[25]
丛乐/王梦迪团队推出AI协作科学家,实时指导和纠正实验操作,让小白秒变实验高手
生物世界·2025-10-20 17:00