HippoGenius
搜索文档
给 OpenClaw 做硬件没前途,但给上下文系统做,是值得的
Founder Park· 2026-04-02 18:42
产品概述与定位 - 公司推出名为“HippoGenius”的硬件产品,定位为“口袋里的全模态超级办公助理”或“超级节点”,旨在成为后OpenClaw时代的个人Agent Native硬件基座 [2][3] - 产品核心目标是构建用户的上下文中心,并主动将上下文路由到合适的工具,降低用户使用AI的门槛,其核心价值定位是减少人和AI之间的摩擦,成为用户的“Time Saver” [5][31][47] - 产品并非“All-in-One”解决方案,而是专注于作为用户与AI世界之间的个人中枢和路由,拥有用户最好的上下文,并据此派发任务 [47] 产品功能与核心价值 - **即时价值(Day One Value)**:用户第一天即可获得四大价值 [29] - 1) 自动形成个人知识库:通过获取本地文件只读权限和线上软件登录权限,自动读取并向量化工作文档 [29] - 2) 本地强大模型能力:设备搭载的模型在Agentic和VL能力上追平云端Claude Sonnet 4.5,可作为本地版Manus使用,自研记忆系统体验超越OpenClaw,据估算ROI回本周期为三个月至一周 [29] - 3) 通用型任务自动化:可检测对话中的意图并转化为多步骤任务(如预约会议、发送链接、生成待办清单),由机器执行,用户仅需审核,实现从“待办”到“执行待办”的跨越 [29][30] - 4) 高质量录音与实时处理:配备8个麦克风阵列,支持100-150平方米内精确3D音源定位与切分,录音质量对标7-8千元设备,并可进行实时转写、转译和总结 [29][30] - **长期价值**:核心在于无感沉淀用户个性化SOP(标准作业程序)和主动式交互 [32][33] - 通过连续性观察用户长时间行为,理解真实意图和任务边界(触发条件、执行管线) [20][33] - 系统在用户无感状态下,基于本地算力持续模拟、筛选并优化SOP,通过“SOP竞技场”机制抹去试错成本 [33] - 随着用户上下文中心、已验证的个性化SOP和热上下文不断积累,系统与用户对齐率提高,能主动完成越来越多个性化长尾高价值任务 [20][34] - **上下文处理逻辑**:公司认为单纯收集上下文没有直接价值,用户只会为结果付费 [17][21] - 通过本地算力,将多模态原始数据转化为文本上下文的成本降至零,同时本地模拟多条任务路径并筛选最优结果的试错成本也为零,避免了云端API调用费用爆炸的问题 [22] - 强调实时处理与数据组织的重要性,需同步沉淀摘要、标签、待办和可检索结构,将原始数据转化为结构化信息,而非静态纪要 [23][24] 硬件配置与技术方案 - **核心硬件配置**:主机内部包含三颗关键芯片 [51] - X86 SoC:运行完整的Ubuntu沙盒环境 [51] - 英伟达推理芯片:专注推大模型,稳定支持32路并发,可同时服务30到50个Sub-Agent [51] - ESP32芯片:负责加密鉴权,并模拟为键盘和鼠标,使其能操作所有GUI应用 [51] - **形态与设计**:最终采用A6笔记本大小的铝合金外壳形态,是基于工程化(散热供电)、性能(麦克风腔体体积)和场景适配(商务场景、低侵入性)的综合考量 [52] - 配备一个可选配的磁吸笔配件,笔身集成4K和2K镜头、麦克风及触发按钮,用于补充线下开会、外出调研和随手笔记等场景的多模态能力 [53][55] - **连接与使用**:用户通过一个类似无线鼠标接收器的USB-C小设备(“小尾巴”)与主机无线配对,可24小时插在手机或电脑上,功耗仅0.6瓦 [48] - 支持离线工作,在无网络环境(如飞机上)可作为本地AI助手自主完成任务 [50] - **续航与能耗管理**:正常办公场景续航8到10小时,纯录音可达35到40小时,待机40天 [56] - 采用间歇性运行策略,不同模型组合分批次处理任务,小时平均功耗6瓦,峰值不超过20瓦 [56] - 能耗管理分三档(节能、平衡、高效),并对不同任务类型(如音频转录始终实时)有独立策略 [56] 选择独立硬件的原因与端云协同 - **选择独立硬件的原因**: - **算力与模型能力限制**:现有消费级设备(如手机、电脑)的内存和散热无法支持运行效果足够好的大模型 [37][38] - 例如,iPhone 17 Pro最多跑4B或7B模型;顶配M3 Max电脑跑Qwen 8B VL模型时温度会迅速升至80-90度,且严重影响其他办公应用续航 [38] - **上下文质量与理解深度**:小模型在多模态理解上存在局限,无法感知用户连续动作背后的含义,导致生成的上下文信息杂乱无重点,影响记忆管理系统效果 [37][38] - **软件方案的局限性**:纯软件方案受限于用户设备的系统资源、电量及Token费用,难以实现持续、高质量、无感的上文采集与处理 [41][42] - **注意力感知需求**:为实现高质量的上下文过滤和加权,需要强算力中枢配合多传感器(如摄像头、陀螺仪)来分析用户在连续时间线上的注意力分布,这是轻量硬件方案无法完成的 [58] - **端云协同策略**:公司认同端云协同是未来主流,但其设备扮演的角色是端侧持续产生高质量上下文和执行,云端负责任务结构化、规划和全局协同 [43][44] - 端侧开源模型重点强化环境感知和执行能力(如VL、OCR、Agentic),这些能力需要低时延、高频交互,适合在端侧部署 [44] - 云端大模型(如Claude Opus)则承担知识补全、任务拆解和群体协同的角色 [44] - 必须接入云端模型的任务主要是代码工作和重度逻辑推演工作 [46] 团队背景与产品演进路径 - **团队背景**:创始团队为硬核工程加跨界产品组合,成员来自索尼、大疆、小米、英伟达、MIT、苹果、微软、字节跳动等,拥有硬件背景和连续创业经验 [8] - **产品演进路径**:采用从ToB到ToC的验证和打磨路径 [14] - ToB产品RM-01始于2023年,源于客户对数据隐私的强需求及部署服务器成本过高的问题,公司将软件与硬件整合为整体解决方案 [10] - RM-01经历了三代迭代,于2025年9月完成3C认证,从2024年10月底正式销售至采访时,已产生200多万现金流,客户包括快餐连锁品牌等,通过ISV以DaaS模式销售 [11] - 在ToB验证技术、控制成本且市场需求成熟后,于2024年9月决定战略转型,未来主攻ToC市场 [14][15] - **C端用户画像**:通过海外市场测试,目标用户画像为科技大厂高管、SMB小企业主、高级销售以及医生、律师、投资人等,核心需求包括Workflow Automation、Personal Knowledge Base、Local Inference及不愿支付Token费用 [16] 竞争壁垒与市场判断 - **硬件与工程化壁垒**: - **芯片级优化**:所选推理芯片并非专为LLM设计,公司进行了大量算子移植、编译和性能优化工作,并自研了更轻量的C++推理框架,比通用框架快近一倍 [61][62] - **先进封装设计**:采用Chip-on-Board设计而非标准模组方案,将核心SoC直接集成进主板,降低了整机厚度但提高了工程门槛,公司是国内首个在该推理芯片上实现此设计的厂商 [63] - **散热与供电平衡**:在体积大幅缩小下,解决推理芯片突发热尖峰和电流尖峰的挑战是量产核心难点 [60] - **市场定位与生态判断**: - 认为手机和电脑厂商从生态位上不适合做此类产品,因打通底层数据做Agent入口会侵犯生态合作伙伴利益,且用户对现有设备有“既要又要”的期待,难以兼顾强大AI系统与正常办公 [64][65] - 判断短期内必然会出现第三方的强算力本地设备,因为手机电池和电脑性能均无法同时满足实时上下文收集与日常任务处理 [65] - 竞争对手(如飞书)虽拥有大量用户上下文和低路由成本,但其生态相对封闭,而公司产品定位为跨生态、跨平台的第三方解决方案,摩擦更低 [25][26] 商业化展望与未来愿景 - **商业化路径**:围绕端云协同,规划了四个方向 [67][68] - 1) API Router服务:作为端云协同中转站,用户购买Credit使用云端模型,所有请求经过两层脱敏 [68] - 2) 数据服务:包括云端备份和模型蒸馏,将用户个人数据与SOP固化为模型通过OTA更新 [68] - 3) SOP社区:构建有网络效应的SOP共享社区,增加设备附加值 [68] - 4) 多人协作(Workspace):支持团队共享Context,实现Agent团队间的自动规划与执行,以席位制收费,有望形成新的协作范式 [68] - **行业范式展望**:公司预见将从注意力经济转向A2A(Agent-to-Agent)经济,GUI交互减少,CLI交互增加,而自身定位是人和AI世界之间的中枢 [69] - **个人Agent终局形态**:认为未来个人Agent将是无处不在的流动数字分身,但在抵达终局前,需以低成本、高隐私、高带宽持续获取用户全量Context,实现高度对齐 [70] - **失败风险判断**:认为若底层A2A技术演进发生逆转,或信息传播速度与方式发生逆转,才可能导致方向失败;从硬件角度看,除非电池能量密度和芯片制程同时取得重大突破,否则独立硬件短期内仍被需要 [71][72][73][74][75]