ElevenLabs CEO:语音将成为AI的下一个交互界面
搜狐财经·2026-02-06 23:18

行业趋势:语音成为下一代AI核心交互界面 - 语音正在成为AI的下一个主要交互界面 随着模型超越文本和屏幕 语音将成为人们与机器交互的主要方式[2] - 行业巨头如OpenAI和谷歌都将语音作为下一代模型的核心重点 苹果也通过收购等方式悄悄构建始终在线的语音技术[2] - 随着AI扩展到可穿戴设备、汽车和其他新硬件中 控制方式正在从点击屏幕转向语音交互 使语音成为AI发展下一阶段的关键战场[2] 技术演进:从模拟语音到智能体协同 - ElevenLabs等公司开发的语音模型已超越简单模拟人类语音 开始与大语言模型的推理能力协同工作[2] - 未来的语音系统将不再需要拼写出每个指令 而是越来越依赖于持续的记忆和随时间建立的上下文 使交互感觉更加自然[3] - 这种向智能体化的转变是正在发生的最大变化之一 AI系统将获得护栏、集成和上下文 从而能够在用户较少明确提示的情况下做出响应[3] 公司动态:ElevenLabs的融资与合作 - ElevenLabs本周完成5亿美元融资 估值达到110亿美元[2] - ElevenLabs已经与Meta合作 将其语音技术带到包括Instagram和Horizon Worlds在内的产品中[4] - 公司愿意与Meta在其Ray-Ban智能眼镜上进行合作 以扩展语音驱动界面到新的形态因子[4] 技术部署与硬件适配 - 高质量的音频模型主要存在于云端 但ElevenLabs正在朝着混合云端和设备处理的方向发展[3] - 这一举措旨在支持新硬件 包括耳机和其他可穿戴设备 在这些设备中 语音成为一个持续的伙伴[3] - 键盘等传统输入方式开始显得“过时” 虽然屏幕在游戏和娱乐方面将继续发挥重要作用[3] 未来愿景与应用场景 - 希望在未来几年内 所有的手机都能重新回到口袋里 人们可以沉浸在周围的真实世界中 用语音作为控制技术的机制[2] - 在可穿戴设备等新硬件中 语音成为一个持续的伙伴 而不是用户决定何时使用的功能[3]