Workflow
Wearable Devices Introduces AI-Powered LLM for Next-Level Gesture Control

文章核心观点 - 可穿戴设备公司宣布在人机交互领域取得重大进展,开发大型运动单位动作电位模型(LMM),旨在通过神经数据提供个性化、直观的手势控制,有望重塑人机交互方式 [1] 公司介绍 - 可穿戴设备公司是一家开创性成长型公司,通过人工智能驱动的神经输入技术革新人机交互,产品包括适用于iOS的Mudra Band和适用于安卓的Mudra Link,提供直接面向消费者销售和企业许可的双渠道商业模式 [7] - 公司普通股和认股权证分别在纳斯达克以“WLDS”和“WLDSW”为代码进行交易 [8] LMM技术介绍 - LMM技术基于自然语言处理中大型语言模型(LLM)的成功经验开发,旨在通过解码运动单位动作电位(MUAP),利用大数据让设备以前所未有的速度和精度理解和预测用户意图,实现无缝、自然的交互 [3] - LMM技术核心是个性化,能学习用户个体特征,创建独特神经特征,实现贴合个人自然动作的手势控制,让交互轻松直观 [4] LMM技术潜力 - 该技术虽仍在开发中,但有潜力重新定义人机交互,使现有技术实现用户个性化,推动可穿戴技术融入日常生活 [2][5] LMM技术应用与未来规划 - 公司旗舰产品如适用于苹果手表的Mudra Band和用于通用设备控制的Mudra Link已展示神经接口的能力,LMM技术可进一步提升其用户体验 [5] - 随着空间计算成为下一代计算平台,LMM技术将提供所需的直观自然交互,公司计划与领先企业合作,将LMM集成到下一代扩展现实(XR)平台 [6]