脑机接口(BCI)

搜索文档
Nature头条:用AI增强脑机接口,帮助瘫痪者更好地控制机械臂
生物世界· 2025-09-03 12:33
脑机接口技术突破 - 加州大学洛杉矶分校研究团队开发人工智能增强的非侵入式脑机接口系统 采用共享自主权架构 使AI副驾与人类主驾协同控制[3][8][10] - 该系统使瘫痪者控制计算机光标任务表现提升3.9倍 健康参与者表现提升2.1倍 机械臂抓取任务成功率高达93%[4][10] - 混合自适应解码算法融合卷积神经网络与类ReFIT卡尔曼滤波器 通过脑电图信号解码实现四名受试者(含一名瘫痪者)对光标和机械臂的操控[10] 技术实现原理 - AI副驾系统通过解读使用者意图辅助行动 推断用户目标并帮助完成动作 减少对大脑活动信号的依赖[10][11] - 系统在光标控制与机械臂抓放任务中双线验证 显著提升任务完成速度与完成率[8][10] - 研究强调需平衡AI与人类控制权 避免AI违背人类意图 维持使用者自主权[11] 学术影响与发表 - 研究成果于2025年9月1日发表于Nature Machine Intelligence 获Nature官网头条报道[3][6] - 论文标题为《Brain–computer interface control with artificial intelligence copilots》 通讯作者为Jonathan C. Kao[3][11]
Cell:“读心术”来了!脑接机口实时解读“内心独白”,自带密码保护,防止隐私泄漏
生物世界· 2025-08-17 13:03
脑机接口技术突破 - 开发首个用于解码内部言语的脑机接口系统 依赖大脑缘上回信号处理无声语言活动如默读或自我对话[2] - 系统通过植入运动皮层的微电极收集大脑信号 测试对象为四名因中风或运动神经元疾病导致言语困难者[6] - 内部言语与尝试发声信号源于相同大脑区域 神经信号特征相似但内部言语信号较弱[7] 性能表现与技术创新 - 脑机接口对想象语句的解码准确率达74% 与早期针对尝试发声的脑机接口准确率相当[8] - 采用人工智能模型识别音素 通过语言模型实时拼接为单词和句子 词汇量达125000个[9] - 系统可探测自发自我对话 例如在无指令情况下成功解码参与者默数1、2、3等数字[11] 隐私保护机制 - 添加密码保护功能 需使用者想象预设密码"Chitty-Chitty-Bang-Bang"后方启动解码 密码识别准确率超98%[3][11] - 密码机制防止意外解码非意图表达的言语 通过高保真度解决方案保障用户隐私[15] 核心科学发现 - 证实尝试性言语、内部言语和感知言语在运动皮层中存在共同表征[15] - 内部言语脑机接口可解码通用句子并改善用户体验 适用于认知任务中的个人内部言语解读[15]
马斯克脑机接口科幻式蓝图现实吗?
科技日报· 2025-07-02 07:51
技术进展与成果 - 已有7名志愿者接受N1植入体手术 帮助脊髓损伤和渐冻症患者恢复部分行动和沟通能力 [2] - 通过微加工和光刻技术提升单个通道连接的神经元数量 混合信号芯片设计增加物理通道数量 [2] - 2025年Q4计划实现言语皮层植入 直接从大脑信号解码词语并转换为语音 [3] - 2026年电极数量将提升至3000个 尝试让盲视参与者恢复超人级别多波段视觉 [3] - 2027年通道数增至10000个 首次实现运动 言语和视觉皮层多设备植入 [3] - 2028年每个接口拥有超25000个通道 可访问大脑任意部分并治疗精神疾病 疼痛等 [3] 长期愿景 - 最终目标是构建全脑接口 实现生物大脑与外部机器的高带宽连接 [3] - 全脑接口将能监听和写入脑中任何位置的神经元 快速无线传输数据 [3] - 促进人类意志与AI融合 可能推动人类文明发展 [5] 应用案例 - 患者艾利克斯通过脑电波操作CAD软件设计机械零件 [2] - 渐冻症患者巴德恢复沟通能力 迈克继续从事户外测绘工作 [2] 技术挑战 - 专家对2028年实现人类与AI意识互联的目标持怀疑态度 认为当前对大脑意识理解有限 [4] - 局部电极插入可能无法有效解码复杂的人类意识 [4] 社会议题 - 脑电波数据高度敏感 存在隐私泄露和滥用风险 [4] - 技术可能影响个体身份认同 对社会结构和个人关系产生未知影响 [5]
脑机接口首次让语言障碍患者实现说话唱歌
财联社· 2025-06-13 22:30
脑机接口技术突破 - 一种新型脑机接口(BCI)系统能够将神经活动转化为富有表现力的语音和歌唱,包括语调变化、单词强调以及3个音调的哼唱[1] - 该系统使用人工智能解码脑电活动,在神经活动发出说话意图信号的10毫秒内生成语音,相比早期BCI的3秒延迟有显著改进[1] - 该技术首次实现了不仅能再现说话意图,还能复制包括音调、音高、重音等自然语言特征[1] 技术实现细节 - 系统采用256个1.5毫米长的硅电极植入大脑运动控制区域[2] - 深度学习算法每10毫秒捕捉一次大脑信号,实时解码试图发出的声音而非具体词语或音素[2] - 算法通过病人生病前的采访录音训练,使合成声音个性化,听起来像病人自己的声音[2] 临床应用表现 - 45岁肌萎缩侧索硬化症患者在使用后能够拼写单词、回答开放式问题和使用训练数据库外的单词表达[2] - BCI能识别疑问句或陈述句意图,判断句子中需要强调的词语并相应调整语调[3] - 患者反馈合成声音让他"感到高兴",感觉像"真实声音"[2] 行业评价 - 该技术被评价为"语音BCI领域的圣杯",实现了真实、自发、连续的讲话[1] - 专家认为该装置功能"对于患者的日常使用至关重要",代表了一种范式转变[3] - 相比早期只能产生单调语音的BCI,新技术引入了人类语言中所有重要元素[3]