主动式AI
搜索文档
独家|蚂蚁、美团入局 AI 硬件, Looki 完成超 2000 万美元 A 轮融资
Founder Park· 2026-01-05 08:33
公司融资与资本背景 - AI硬件创业公司Looki已完成超2000万美元A轮融资 本轮融资由蚂蚁集团领投 美团龙珠、华登、中关村资本跟投 老股东BAI资本连续两轮超额追投 阿尔法公社、同歌创投持续加码[2] - 融资完成后 公司将重点加强组织人才建设、模型迭代、产品研发及供应链整合 加速在AI原生硬件赛道上的技术积累和下一代交互入口的探索[2] - 在AI硬件百花齐放的2025年 此轮融资标志着资本重新聚焦于能够将多模态AI能力融合到硬件的头部品牌[3] 公司团队与创立背景 - 公司成立于2024年5月 一年多时间已连续完成4轮融资[4] - 公司由两位卡内基梅隆大学校友联合创办 CEO孙洋曾任美团智能硬件负责人、Momenta高级研发总监 Google Assistant创始成员之一 CTO刘博聪曾任美团自动驾驶算法负责人、Pony.ai创始成员[4] - 团队成员来自清华大学、北京大学、多伦多大学等知名院校 曾就职于Google、Amazon、Qualcomm、字节跳动等公司 在AI算法、AI产品、硬件工程等方面具备丰富经验[4] 产品发布与市场表现 - 2025年8月 公司发售世界首款可穿戴的多模态AI硬件Looki L1国际版 在海外和国内社交媒体引发大量关注 数千台备货很快销售一空[5] - 2025年12月 公司在京东平台上线国内版本 截至目前全球累计销量近万台[5] - 用户人均使用时长从最初的6.2小时一路攀升至7.9小时 并且仍在持续增长[11] 产品定位与核心功能 - Looki L1开创了一个全新的硬件品类 主打日常的记录和陪伴 通过视频、图片和音频等形式的记录 为用户梳理生活碎片 提供生活建议和情绪价值 在用户社区里被称为“人生回看器”[8] - 产品功能包括回溯日常生活碎片 洞察用户行为和情绪 为用户生成每日总结vlog、日常片段的洞察分析、生活连载漫画等[8] - 公司选择更加偏向生活的场景 区别于传统event-based的运动相机[8][11] 技术演进与新品发布 - 公司将在CES上发布全新功能“主动式AI” 该功能基于“场景自适应式智能” 在充分了解用户后可实时理解用户正在做的事情 并主动提供信息、提醒和关心[12][13] - 主动式AI示例包括:提醒咖啡摄入过量建议换水 提醒久坐后起身走动[14][15] - 针对CES场景特别开发的功能包括:高频记录所见所得与对话 分析对哪个展位更感兴趣 总结参观展商重点信息 提供逛展建议等[17] - 公司计划从“被动记录”走向主动识别关键时刻并发起服务的“前瞻型伙伴” 并将在不久后向全球Looki L1用户全量推送此功能[17] 行业对标与市场潜力 - 随着大模型能力增强 AI能够对文字、音频、图片、视频等多模态内容进行分析、整理、总结 通过整理用户线上线下的context向用户提供额外价值[8] - 典型对标产品Plaud通过收集整理工作会议等音频场景 创造AI录音卡片新品类 年收入已达数亿美元 该赛道也有出门问问、钉钉等公司入局[8]
从「被动」到「主动」,为什么给耳机装上「眼睛」后AI范式变了?
机器之心· 2026-01-04 13:43
文章核心观点 - AI硬件正加速脱离屏幕,向“无屏、主动式AI”方向发展,其核心在于通过多感官协同的分布式硬件系统,实现一个“始终在场”、能主动感知环境并介入用户生活的AI助理 [3][4][18][21][49] - 中国公司在“无屏、主动式AI”硬件领域已先行一步,光帆科技发布的Lightwear AI全感穿戴设备是全球首款具备视觉感知能力的主动式AI耳机,代表了这一方向的重要实践 [3][16] - 视觉感知是实现主动智能的基石,它使AI能够理解真实世界,建立世界模型,从而预测行动时机,实现从被动响应到主动协作的质变 [25][26][32][33] - 实现真正的主动智能不能依赖单一硬件,必须走向多设备(如耳机、手表、充电盒)的分布式协同,由统一的AI大脑调度,以覆盖全天候、全感知场景 [36][37][39][49][51] AI硬件行业趋势与驱动力 - **趋势:AI硬件“物种大爆发”**:2025年全球密集涌现多种AI硬件新形态,包括AI眼镜、耳机、手机、Pin、戒指、项链、手环等,AI正在脱离屏幕寻找新的“肉身” [17][18] - **技术驱动力**:大模型能力持续跃迁,已能支撑复杂场景理解和长链路任务稳定执行(如AI Agent),且响应速度进入“1秒俱乐部”,交互体验逼近真人对话 [18] - **成本与供应链优势**:推理与部署成本持续下探,叠加中国在制造与供应链上的系统性优势,让中国玩家在此轮AI硬件竞赛中尤为活跃 [19] - **行业焦点**:个人穿戴与随身设备是“杀手级AI硬件”的焦点,耳机这一高频入口正在被重新定义 [62][63] 光帆科技Lightwear AI产品详解 - **产品构成**:一套由AI耳机、智能手表及独特充电盒组成的组合式终端,三款设备实时协同,扮演“始终在场”的AI助理 [3][4][6] - **核心硬件:AI耳机** - 全球首款具备视觉感知能力的主动式AI耳机,左右耳塞各置一枚200万像素摄像头,实现双目视觉感知 [3][12][28] - 摄像头用于AI“看”世界,支持“阅后即焚”,侧重语义理解而非光学美感 [30] - 加入摄像头和更大电池后,单只耳机重量控制在11g,远低于常见智能眼镜约40g的重量,佩戴舒适度与行业头部耳挂式耳机相当 [61] - **协同硬件:智能手表** - 负责“显示”和“触控”,补齐语音交互短板,可呈现验证码、导航等视觉信息 [39][41][42] - 作为持续工作的身体传感器,采集心率、血氧、睡眠等数据,使AI能感知用户身体状态并给出针对性建议 [43] - **协同硬件:充电盒** - 内置2020mAh电池、eSIM卡、定制化AI通信协议、高精度GPS、算力、独立麦克风和扬声器 [45] - 可脱离手机直接联网,即便不佩戴耳机,用户也可通过语音与AI交互,覆盖洗澡、起床等场景 [45][48] 主动式AI的理念与实现路径 - **核心理念**:消除“认知摩擦”,从被动式智能转向主动式智能 [21] - 被动式智能:需用户明确唤醒和指令,存在交互负担(如需用手机App拆解需求为Prompt) [21] - 主动式智能:持续云端计算,感知并理解用户情境与记忆,在合适时机主动介入(如路过商店时提醒买果汁) [21] - **实现基石:视觉感知**:视觉是“主动性”的唯一基石,使AI能理解物理世界的空间结构、物体关系与动态变化,建立稳定的世界模型,形成与用户的“共同注意力” [25][26][32] - **必经之路:多感官协同**:单一硬件存在感知盲区,必须通过多设备分工协作、彼此补位,才能逼近全天候、全感知的主动智能状态 [36][37][38][39] - **交互分寸感**:系统需具备场景判断能力,评估用户是否忙碌、是否适合打断、介入是否有价值,并将此逻辑写入底层系统,避免AI从“贴心”变为“打扰” [59] 技术架构与工程挑战 - **分布式系统架构**:主动智能属于一个协同运作的分布式系统,而非单一硬件 [51] - **端云结合操作系统**:光帆科技自研Lightware OS,建立类似“生物神经系统”的层级分工与调度机制 [52] - **云端**:作为最聪明、算力最强的大脑,负责调用大模型完成语音/图像理解、意图识别及复杂推理决策 [54][55] - **充电盒**:具备算力,作为流量调度站,内置4G eSIM保证“永不掉线”,在毫秒级内判断请求类型并推送至云端,网络波动时利用本地算力进行“行为缓冲” [56] - **耳机**:作为“感官末梢”,只运行最轻量的AI任务(如语音唤醒、低像素物体轮廓识别),以极低功耗换取随时在场体验 [57] - **核心工程挑战** - **算力承载**:如何让仅重几克的设备承载接近大模型的“灵魂” [52] - **多设备协同**:多设备间实时通信、多芯片高效协作,需在硬件层、驱动层、通信层同时解决 [60] - **硬件工艺平衡**:在耳机中加入摄像头需权衡体积、重量、续航、散热与佩戴舒适度 [61] 公司背景与行业影响 - **创始人背景**:光帆科技创始人董红光是小米早期员工(第89号),长期负责操作系统与智能化核心工作 [16] - **发展速度**:成立仅一年多,已吸引一批颇具分量的投资机构入局 [16] - **行业活动**:将于2026年1月6-9日携全球首款主动式AI耳机亮相CES [63] - **行业对标**:其追求的“全天候、全感知、主动智能”助理,在理念上与谷歌的Project Astra高度一致,但后者尚未脱离手机,而光帆科技选择让AI不再依附手机、建立新交互范式 [21][24] - **未来方向**:设备边界将持续模糊,未来一定是多设备联动,由一个统一的AI大脑进行调度,光帆科技后续还将接入更多形态终端(如脖挂、眼镜、项链) [49]
光帆科技发布全球首款具备视觉感知能力的主动式AI耳机
新浪财经· 2025-12-25 19:42
产品发布与定位 - 光帆科技正式推出全球首款具备视觉感知能力的主动式AI耳机,即光帆Lightwear AI全感穿戴设备 [1][5] - 该产品由开放式耳挂AI耳机与智能手表协同构成,搭载自研原生AI操作系统Lightware OS,旨在重新定义AI时代的人机交互体验 [1][5] - 产品定位为AI时代的“个人助理”,区别于传统的“被动指令式”AI硬件,致力于自主处理日程管理、机酒预定、打车出行、餐厅推荐等工作生活高频任务 [1][5] - 研发初衷是打造一款具备“全感知、全天候、主动式AI”特点的“AI助理”硬件 [1][5] 硬件配置与技术特性 - 耳挂侧搭载双目视觉感知模组,使AI能实时“看懂”周围环境、识别物体与场景,并据此主动提供服务 [2][6] - 耳机采用首创低功耗语音影像唤醒技术,在集成多种传感器下,单次通话续航达9小时,单耳重量仅为11克 [2][6] - 产品采用医疗级亲肤液态硅胶材料,是首个获得SGS舒适佩戴认证的开放式耳机 [2][6] - 设备内置eSIM卡与定制化AI通信协议,可脱离手机独立联网,并结合高精度GPS模块,在运动、出行等场景提供无缝体验 [2][6] - 充电盒集成金融级指纹识别模组,配备独立麦克风与扬声器,用户未佩戴耳机时也能接收信息、处理通话 [2][6] - 协同工作的智能手表提供全彩显示与触控能力,并集成心率、血氧、睡眠、压力等多维体征数据,使AI能基于用户身体状态主动调整服务方式 [2][6] 软件系统与协同体验 - 公司强调Lightwear并非“耳机+手表”的简单叠加,而是通过软硬件协同实现1+1>2的整体AI体验 [3][7] - 自研的原生AI操作系统Lightware OS被定位为“智能中枢”,能连接多类大模型、调度各类传感器与硬件、接入更多应用,以主动且多样式化方式与用户交流 [3][7] 上市计划与公司背景 - 光帆Lightwear AI全感穿戴设备计划于明年第一季度正式上市,目前已开放预约,并计划于1月中旬启动用户公测计划 [3][7] - 公司成立仅一年,已连续完成多轮融资,投资方包括韶音、歌尔、联想、宁德、兆易创新等产业巨头 [3][7]
摆脱智能手机,可穿戴设备是否存在另一条AI路线?
钛媒体APP· 2025-12-25 16:29
行业背景与痛点 - AI大模型出现后,硬件厂商普遍认为现有终端设备有被重做一遍的潜力[2] - AI眼镜被视为最有希望取代手机的下一代终端技术路线之一,但目前受限于“续航、重量与性能”的不可能三角,即使出货量最大的Meta也未能实现全天候佩戴[2] - 智能眼镜发展多年,显示技术、产品功能仍不成熟,产品过重导致无法长期佩戴[2] - 相对而言,耳机产品已发展成熟,是用户更容易做出购买决策的产品,但普通耳机功能有限[2] 公司战略与产品理念 - 光帆科技创始人董红光认为,理想的AI硬件不应仅是手机或眼镜的延伸,新的AI硬件若仍需依托手机,则创业必要性不存在[3] - 公司认为手机已不适合作为AI助理的硬件形态,因为用户不可能总举着手机或手机摄像头与AI交流并让其感知环境[3] - 公司专注于用AI能力改造耳机,如同当年从功能手机改造到智能手机[2] - 公司致力于打造不依托于手机的独立AI硬件路线,其产品可自主完成任务,无需手机参与[3][5] 核心产品:光帆Lightwear AI全感穿戴设备 - 产品由集成双目视觉感知模组的AI耳机与智能手表组成[4] - 耳机耳挂侧搭载200万像素摄像头,使AI能实时“看懂”周围环境、识别物体与场景,并据此主动提供服务[4] - 智能手表可在抬腕间呈现关键信息,避免持续占用视线,并集成心率、血氧、睡眠、压力等多维体征数据,使AI能基于用户身体状态主动调整服务[4] - 产品具备视觉感知能力,定位为主动式AI耳机,区别于传统的“被动指令式”AI硬件[2] - 产品旨在实现日程管理、机酒预定、打车出行、餐厅推荐等工作生活场景中高频任务的自主处理[2] 产品功能与应用场景 - 在餐厅场景,用户语音提问后,设备可主动完成个性化口味比对、附近更优餐厅推荐、位置告知、主动取号及智能提醒到号等系列操作[4] - 在工作场景,可完成自动日程安排并解决冲突、智能答复、匹配合适航班和酒店、下单机酒等全流程操作[4] - 在运动、压力过高等场景,AI能基于体征数据进行适时提醒与情绪干预[4] 核心技术:原生AI操作系统Lightware OS - Lightware OS是设备能够不依托手机、自主执行任务的关键[6] - 该系统并非单一模型,而是一个能连接多类大模型、调度各类传感器与硬件、接入更多应用的“智能中枢”[7] - 该系统通过标准化接口,降低了AI硬件与原生应用的开发门槛[7] - 系统实现AI耳机和智能手表的硬件端接入,并接入了各类生活服务应用类的场景服务[7] 硬件与算力支撑 - 在耳机盒上集成了eSIM组件,使穿戴设备可脱离手机独立联网工作[8] - 结合高精度GPS模块,在运动、出行等场景提供差异化体验,支持全天候使用[8] - 充电盒集成了指纹识别模组,配备独立麦克风与扬声器,用户未佩戴耳机时也能接收信息、处理通话[8] 行业未来展望 - 随着AI持续演进,从人机交互角度看,未来AI硬件将朝多设备协同方向发展[9] - 未来趋势是一个云端的大脑,控制各种设备,执行不同的用户指令和任务[9]
告别「手搓Prompt」,前美团高管创业,要让物理世界直接成为AI提示词
机器之心· 2025-12-16 10:31
行业背景与核心逻辑 - AI硬件赛道在2025年呈现一片喧嚣,众多玩家试图摆脱智能手机的束缚,其底层逻辑在于当前AI缺乏“在场感”[1] - 被困在对话框里的大模型如同“缸中之脑”,依赖用户手动将场景转化为文字描述的交互方式低效且反人性,大模型因缺乏物理世界的上下文语境而处于数据饥渴中[1] - 行业普遍认为,人机交互将从Chatbot走向Agentic AI(代理式AI),自主AI代理市场将在未来三年迎来爆发性增长,而记忆与上下文是这场进化的核心护城河[17] 公司产品与定位 - Looki L1是一款AI原生多模态可穿戴设备,旨在将实时视听信号转化为模型上下文,让物理世界本身成为驱动AI思考与服务的最高效Prompt[4] - 该产品形态为挂坠,重量仅30g,支持磁吸或直接佩戴,其核心使命是作为“长在物理世界里的数据接口”,解决物理世界的数据饥渴,帮用户积累私有数据资产[6][29] - 公司选择挂坠形态,是在当前供应链能力下,为实现“全天候静默采集”这一核心需求的最佳妥协方案,旨在规避AI眼镜在续航、重量和功能上存在的“不可能三角”[8] 技术架构与创新 - 产品技术源于自动驾驶基因,团队将自动驾驶“从环境感知到自主决策”的闭环逻辑复用到日常生活场景,以填补大模型对物理世界的认知盲区[3][10] - 设备本质上是一个庞大的、始终在线的多模态感知器,支持1080P/30帧画面,待机12小时拍摄,全天候吸收环境信息[8] - 公司在云端构建了一套高效的上下文管理机制,能够根据查询需求在海量数据中精准提取关键特征,以应对多模态数据的Context爆炸问题,而非将所有素材灌入模型[14] - 系统通过工程优化,使AI能准确理解并串联起跨度极长的时间切片,以解决大模型处理大量多模态数据流(如数十万级别)时容易产生“幻觉”的痛点[14] - 通过“智能间隔拍摄”技术,确保在极低功耗下实现海量视听数据的实时采集[19] 数据与隐私策略 - 公司沿用自动驾驶的“数据飞轮”逻辑来重塑用户的个人记忆,从硬件端收集数据,到建立多层级数据索引和多任务拆解,最终打造一套高效工作的Agentic System[12] - 公司构建的是用户生活的私有上下文,装载了用户独一无二的经历与轨迹,这与装载人类通用知识的GPT形成对比[15] - 通过端侧隐私过滤与App手动上传机制,确保数据流转的安全性,最终将物理世界的切片转化为结构化的“云端记忆库”[14] 核心功能与应用场景 - 目前交付给用户最显性的功能是“AI自动剪辑”,算法能自动识别一天中的高光时刻,并自动生成有叙事逻辑的Vlog,切中了热爱记录但被后期剪辑劝退的用户痛点[20] - 随着记忆库的沉淀,产品将能够进行推理,例如在用户点夜宵前基于全天摄入主动发出“热量预警”,或在用户情绪激动时基于对话语境提供理性的沟通建议[24] - 这种基于实时物理反馈的交互,让AI从“被动问答”进化为“主动共鸣”,是AI硬件区别于手机App、能够真正接管用户生活的核心价值[28]
全球首款可全天候佩戴的隐形显示AI眼镜,Gyges Labs完成新一轮融资|早起看早期
36氪· 2025-11-22 09:11
公司融资与团队背景 - 近期完成新一轮融资,投资方包括Granite Asia和璀璨资本,资金将用于新产品研发和供应链投入[5] - 公司成立于2022年,总部位于新加坡,软件及AI团队在美国硅谷,并利用中国供应链优势[5] - 创始团队来自斯坦福、UCLA、清华等知名高校,CEO曾参与开发全球首款AR智能隐形眼镜,COO拥有超过10年消费电子行业经验,CTO曾参与苹果Vision Pro研发,首席科学家曾就职于Google[5] - 公司80%的员工为研发人员[5] 核心产品与技术优势 - 首款产品HallidayGlasses于2025年1月发布,是全球首款具备隐形显示能力的AI眼镜,并成为史上最大AI眼镜众筹项目[6] - 采用自研的DigiWindow视网膜投影技术,显示内容直接投射到视网膜,仅佩戴者可见,无需镜片反射,实现隐秘显示[8] - 显示模组体积最小可达2x2x2毫米,为全球最轻小的近眼显示光学方案,使智能眼镜轻盈、小巧、低功耗[10] - 产品重量仅28克,续航达12小时,支持远视到近视800度的调节,外观与普通眼镜无区别[10] - 搭载主动式AI引擎,可根据不同场景主动生成信息,而非传统被动回答[10] 市场定位与发展规划 - 产品适用场景包括AI翻译、查看演讲稿、阅读微信消息、音频转会议纪要、导航等[8] - 当前主要面向海外市场发售,后续计划进入中国市场[10] - 公司计划将光学能力、AI能力及行业解决方案开放给合作伙伴[11] - 将于2026年起逐步推出包括可独立运作的智能戒指在内的各类智能可穿戴产品[11] 行业趋势与投资人观点 - 端侧AI被视为消费科技的下一个超级入口[12] - 公司精准把握行业趋势,将前沿AI转化为日常可用的随身智能,让AI自然融入日常场景[12] - 公司在智能眼镜行业尚处摸索阶段时,凭借对“隐形”与“主动”两大核心体验的前瞻性洞察,卡位下一代人机交互入口[12]
朱啸虎投的第一个AI硬件公司,又完成一轮融资
36氪· 2025-11-20 09:12
公司融资与团队背景 - 公司于2025年10月完成Pre A+轮融资,投资方为Granite Asia和璀璨资本 [1] - 此前在2024年11月完成数千万人民币量级的Pre-A轮融资,由金沙江创投领投,韶音创始人陈皞等参与投资 [3] - 公司CEO为斯坦福大学博士贾捷阳,CTO曾参与苹果Vision Pro研发,COO拥有十多年消费电子产品经验,AI负责人为前Google綦思源博士 [3] 产品核心理念与设计 - 公司核心理念为"Glass First",即产品首先必须是一副能够日常佩戴的眼镜 [6] - 通过自研的"DigiWindow"技术,将显示模块置于眼镜横梁,实现直射入眼视网膜成像,该技术被称为"全世界最小的近眼显示系统" [8][10] - 此设计使整机重量控制在35克(不带镜片约28克),彻底告别传统智能眼镜粗大镜腿,外观接近普通眼镜,功耗极低,实现全天候佩戴且信息显示不被他人察觉 [10][12] 功能策略与AI应用 - 产品策略上做"功能减法",最鲜明体现是产品没有摄像头,以规避续航、外观和隐私难题 [14][15] - 专注于基于语音和声音感知的单色信息提示功能,实现"主动式AI" [15] - AI具体功能包括实时翻译与会议纪要、主动知识外挂(如显示陌生词汇释义)、即时信息纠错(如纠正地理常识错误) [16] 公司愿景与未来布局 - 公司定位并非"AI眼镜公司",而是"AI可穿戴公司",核心是打造下一代的显示、交互和计算平台 [17] - 该平台被视为一套分布式系统,旨在通过眼镜、戒指等穿戴式设备实现24小时AI陪伴,克服智能手机等携带式设备占手的劣势 [17] - 眼镜是首个产品形态,第二个产品智能戒指计划于2026年CES发布,最终愿景是将AI能力赋予各类可穿戴设备,增强人的能力 [20]
朱啸虎投的第一个AI硬件公司,又完成一轮融资
量子位· 2025-11-20 08:30
公司融资与团队背景 - 公司于2025年CES亮相其AI眼镜产品,并创下近400万美元的众筹记录 [1] - 公司在2024年10月完成Pre A+轮融资,投资方为Granite Asia和璀璨资本 [2] - 公司在2024年11月完成数千万人民币量级的Pre-A轮融资,由金沙江创投领投,韶音创始人陈皞等参与投资 [4] - 公司CEO为斯坦福大学博士贾捷阳,曾在多家硅谷初创公司担任核心研发职责,CTO吕正曾参与苹果Vision Pro研发,COO邓旭东拥有十多年消费电子产品经验,AI负责人綦思源博士曾就职于Google [4] 产品核心理念与设计 - 公司坚持"Glass First"理念,强调产品首先必须是一副能够日常佩戴的眼镜 [7] - 目标是打造一副可以天天佩戴且不会被任何人察觉是智能眼镜的产品 [10] - 通过自研的DigiWindow技术,实现了"全世界最小的近眼显示系统",将显示模块置于眼镜横梁,通过直射入眼在视网膜成像 [11][13] - 该设计使整机重量控制在35克(不带镜片约28克),功耗极低,实现全天候佩戴,并避免了传统智能眼镜粗大镜腿的问题 [14] - 显示系统无漏光和彩虹纹干扰,使佩戴者获取信息时对面的人无法察觉,实现"显示,但是不显露" [15][17] 功能策略与AI体验 - 产品Halliday没有摄像头,通过"功能减法"换取"体验加法",避免了续航、外观和隐私三大难题 [19][21][22] - 功能上做极简减法,只做单色、以信息提示为主的功能,专注基于语音和周边声音感知的AI功能 [23][25] - 实现"主动式AI"功能,包括实时翻译与无延时的会议纪要、主动知识外挂(如会议中显示陌生词汇释义)、即时"谎言"纠错 [26][27] - AI助手的设计避免了社交尴尬,无需主动询问即可融入工作生活 [27] 公司愿景与未来布局 - 公司定位为"AI可穿戴公司",核心是"AI+可穿戴",而非单一的AI眼镜公司 [30] - 终极目标是打造下一代的显示、交互和计算平台,该平台可能是一套分布式系统 [31] - 智能眼镜是第一个产品形态,第二个产品将是智能戒指,计划于2026年CES发布 [33] - 愿景是通过将AI能力赋予各式可穿戴设备,让人能力变得更强大,实现"分布式超人" [35]
全球首款可全天候佩戴的隐形显示AI眼镜,Gyges Labs完成新一轮融资|硬氪首发
36氪· 2025-11-19 09:29
融资与公司概况 - AI可穿戴科技公司Gyges Labs近日宣布完成新一轮融资,投资方包括Granite Asia和璀璨资本,资金将用于新产品研发和供应链投入 [1] - 公司成立于2022年,总部位于新加坡,软件及AI团队设立在美国硅谷,并利用中国供应链优势,拥有先进光学、主动式AI等独特技术 [1] - 创始团队来自斯坦福、UCLA、清华等知名高校,曾任职于国内外知名企业,CEO曾参与全球第一款AR智能隐形眼镜开发,CTO曾参与苹果Vision Pro研发,首席科学家曾就职于Google,公司80%的员工为研发人员 [1] 核心产品与技术特点 - 首款产品Halliday Glasses具备隐秘显示能力,是全球首款隐形显示AI眼镜,其显示内容通过自研的DigiWindow技术直接投射到视网膜,仅佩戴者可见,显示模组体积最小可达2x2x2毫米 [3] - 该技术创造了全球最轻小的近眼显示光学方案,使智能眼镜能轻松集成到普通眼镜框架内,产品重量仅28克,续航达12小时,支持远视到近视800度 [3] - 另一核心技术是主动式AI引擎,专为可穿戴设备定制,可根据不同场景主动生成可能需要的信息,而非传统被动回答 [4] 市场表现与未来规划 - Halliday Glasses于2025年1月发布,上线后成为史上最大AI眼镜众筹项目 [1] - 产品目前主要在海外发售,后续计划在中国市场发行 [4] - 公司计划将光学能力、AI能力及行业解决方案开放给合作伙伴,并探索更多可穿戴设备形态,将于2026年起逐步推出包括独立运作的戒指在内的各类产品 [4] 投资人观点 - 投资人认为端侧AI正成为消费科技的下一个超级入口,公司精准踩中趋势核心,团队兼具顶尖技术视野与务实落地能力,让AI自然融入日常场景 [5] - 公司凭借对“隐形”与“主动”两大核心体验的前瞻性洞察,精准卡位下一代人机交互入口,展现出卓越的产品定义能力和高效的执行力 [5]
当 AI 在耳机里主动和你说话,BeeBot 正在开启下一代社交形态
深思SenseAI· 2025-11-14 09:34
BeeBot产品概述 - 产品是一款名为BeeBot的个性化电台机器人,已登陆美区iOS应用商店测试,通过耳机提供基于位置的语音播报,在用户步行时告知朋友动态、本地新闻及附近活动 [1] - 产品定位为音频优先、主动式的社交实验,由Foursquare创始人Dennis Crowley推出,旨在探索现实世界的数字连接新形态 [1] - 产品支持任何有线或无线耳机及蓝牙音频设备,包括扬声器、车载音响和Meta的Ray-Ban智能眼镜,虽然应用标注为AirPods版但具备广泛兼容性 [3] 核心功能与运作机制 - 产品常驻后台待机,戴耳机自动唤醒,摘耳机休眠,听音乐时调低音量插入播报,听播客时智能暂停/续播,通话或视频场景零干扰 [3] - 用户每天会收到数次更新推送,避免高频打扰,内容整合实时位置信息、用户分享动态及本地网站活动数据,根据兴趣关键词智能推荐附近地点与活动 [3] - 产品开创地面级地点标记新玩法,允许用户精准标注具体点位并留下语音彩蛋,实现沉浸式地理社交,如标记涂鸦墙或分享小众景点路线 [10] - 产品具备突发新闻功能,覆盖街区至全球视角,内容经本地运营团队审核真实性后精准触达相关区域,目前仍在实验阶段 [11] 内容生成与个性化体验 - 每日首次佩戴耳机时提供城市晨报,用1-2句精炼语音播报所在城市新鲜事,内容结合团队人工精选全城热点与AI引擎基于用户行为的个性化推荐 [5] - 社交提醒功能整合好友打卡动态、本地新闻与周边活动数据,通过大模型分析生成专属生活摘要,例如通知好友行踪或地铁延误等实用信息 [6] - 基于用户画像(如发布内容、去过地点、个人资料关键词)持续扫描周边区域,推荐可能感兴趣的现实活动,例如根据喜好提示沙士汽水供应点或F1赛车展览 [7] - 当用户移动至新区域时,产品会提示附近好友及活动,受《塞尔达传说》游戏设计启发,增强现实探索感,如进入中城区时通知好友位置及公园观鸟活动 [8] 技术基础与创始人背景 - 创始人Dennis Crowley长期践行让数字软件走上街头的理念,2004年开发Dodgeball实现手机现实互动签到,后被谷歌收购,随后联合创立Foursquare推广签到概念全球 [12] - 2024年联合创立新公司Hopscotch Labs,BeeBot作为首个项目融合其过去所有想法,包括将曼哈顿变为吃豆人游戏等线下快闪项目经验 [13] - 技术依赖Foursquare积累的海量用户签到数据构建的地点位置能力,为Uber、Apple等提供底层位置服务,其路径感知、地点触发等方法论可直接迁移至BeeBot机制 [14] - 产品继承Marsbot for AirPods技术逻辑,如自动调低音乐音量、无缝暂停播客等细节工程,并借鉴Foursquare对频率与时机控制的经验,优化播报优先级与口吻生成 [16] 产品哲学与行业愿景 - 产品定位为面向街头的AI,旨在将用户从虚拟信息流拉回现实,通过语音播报身边事促进人与人真实连接,减少手机屏幕依赖 [17] - 核心灵魂是主动式人工智能,根据情景触发机制主动提供服务,如走到咖啡馆提示优惠,探索主动式AI与环境感知的交汇点 [18] - 契合可穿戴AI硬件普及趋势,支持耳机、智能眼镜等设备始终在线收集环境信息,致力于开发无需手动交互的主动式人工智能产品 [18] - 产品设计强调无需使用应用,戴耳机自动开启,摘耳机关闭,反对通过诱导用户停留提升月活/日活指标,主张减少手机触碰以激发好奇心 [20] - 创始人试图通过BeeBot重现早期社交软件注重人际链接的氛围,结合简单状态更新与便捷音频方式,将人们从算法信息流解放,增加现实世界感知 [21]