豆包AI手机,打响APP入口争夺战
21世纪经济报道·2025-12-27 20:35

文章核心观点 - 2025年末豆包手机助手的面市及其后续受阻,揭示了AI手机发展面临的核心挑战并非单纯技术问题,而在于权责划分、数据权限边界等生态协同与标准空白问题[1][3] - AI手机的竞赛已从硬件参数和模型大小的比拼,演进为一场关于端侧能力、生态开放、用户体验以及多方博弈的综合性生态竞争[3][17] - 国内开源大模型性能的迅速提升,特别是端侧模型能力的增强,为AI手机的迭代提供了坚实的技术土壤,使离线AI手机变得更为可行[3][11] AI手机发展的现状与挑战 - 豆包手机助手的标志性事件:豆包手机助手因具备自主跨应用操作能力而被视为“真正意义上的AI手机”,但其在多应用中的使用很快受阻,相关调整说明于12月5日发布[1] - 技术并非独家:豆包手机助手展示的功能与国内手机厂商此前演示的智能体应用案例并无明显差别,但部分跨应用自主运行能力至今未真正落地商用[5] - 核心瓶颈在于生态与合规:跨应用自动化操作面临法务挑战,核心在于权责划分与数据权限边界缺乏行业标准,现有“单次操作、单次确权”模式难以适配AI时代一键完成跨应用任务的需求[6] - 本质是商业博弈:豆包AI手机面临的困境具有普适性,本质是AI Agent试图接管用户入口与超级App捍卫流量主权之间的“入口争夺战”[7] 技术演进与端侧模型突破 - 开源推动技术平权:继豆包事件后,智谱于12月9日将AutoGLM模型全面开源,阶跃星辰也于12月17日宣布GUI Agent升级,标志着“AI操作手机”从概念验证迈入工程化落地的窗口期[3][10] - 端侧模型能力大幅提升:2025年行业焦点从云端模型跑分转向端侧(离线)大模型能力外拓,国产开源模型(如DeepSeek)迅速拉齐了千亿参数规模大模型的能力,使手机厂商得以满血部署[3][11] - 模型小型化成效显著:模型能力提升使得参数需求降低,2025年30亿参数端侧模型的能力已强于2024年100亿参数模型,且内存占用从去年70亿参数模型的3.5G降至2G,更易在手机上部署[12] - 端侧模型是实现差异化的关键:手机厂商在云端模型上难以与第三方大模型公司竞争且投入巨大,转向端侧模型并通过优化推理逻辑能力,是实现产品体验差异化的核心路径[13] 生态构建与产业协同 - 生态竞争是终极竞争:AI手机的成熟需要构建开放协同的生态体系,当前面临生态开放与协议统一、跨应用调度权限获取、用户习惯培养三大挑战[15] - 需要多方共同推进标准:多智能体间的连接需要手机厂商与第三方服务商联动数据与权限,国内外均在推进相关协议规范(如谷歌的A2A方案)以解决互联互通标准问题[15] - 硬件供应链面临新要求:端侧模型发展使核心壁垒从算力转向“内存墙”与“功耗墙”,提升内存带宽和突破能效比成为硬件供应链的攻坚核心[16] 产业边界模糊与商业模式演变 - 软硬件厂商边界模糊:以LLM为代表的AI软件厂商亟需新的应用载体,驱动其向硬件渗透,例如阿里巴巴、百度推出AI眼镜,OpenAI探索AI硬件,让硬件成为AI入口的承载平台[16] - 商业模式或将重塑:基于LLM赋能的AI智能终端有望从依赖一次性销售的硬件盈利模式,转向以软件服务订阅和生态服务为主导的长期付费模式[17]

豆包AI手机,打响APP入口争夺战 - Reportify