AI客服Agent
搜索文档
6亿月活的网约车平台,如何放心让天润云(02167.HK)AI接管超65%客诉问题?
格隆汇· 2026-01-29 14:54
如果你现在还认为"投诉必须转人工",那你大概率已经落后了。 一家月活6亿的网约车平台,已经实现了AI对投诉场景的独立接管。而且Agent仅上线两个月,独立接待 率已经超过65%,独立建立工单准确率更是达到95%以上。 在这个被普遍认为"最容易失控、最不敢试错"的场景里,AI不但没有制造风险,反而成了稳定器。 那么,他们是如何在客诉场景把Agent应用得这么好的呢?下面我们一起来拆解一下。 首先,为什么要用AI来处理客诉? 作为国内头部网约车平台,其月活跃用户规模达到6亿,如此高频的使用场景下,每天仅围绕司机服 务、物品遗失等问题,就会产生大量投诉与反馈咨询。 这些问题完全依赖人工客服来承接,意味着平台必须长期维持一支规模庞大的客服团队,不仅人力成本 高,调度与管理压力也非常大。 与此同时,平台客服的工作时间为早9点至晚6点,而用户打车却是24小时不间断的。大量投诉发生在非 工作时间,只能以留言方式留存,等客服上班后再处理,直接影响用户的服务体验与情绪感受。 除此之外,这一平台的客服场景还存在一个现实问题。 由于采用的是聚合型打车模式,该平台本身并不提供运力,而是由多家网约车公司共同承接订单。这意 味着,在处理 ...
天润云(02167.HK)洞察:5%准确率差距,成AI客服Agent上线“生死线”
格隆汇· 2025-12-23 22:31
AI客服Agent项目落地现状与核心挑战 - 行业观察显示,越来越多企业将AI Agent引入客户服务场景,但启动AI项目的企业中仅有一小部分能够顺利上线,大多数项目停滞在小范围试点和有限放权状态 [1] - 在Demo演示阶段,成功与失败的项目表现差异不大,都能流畅对话且问题解决率看似不错,这掩盖了关键的能力差异 [1] 决定项目成败的核心性能指标 - 拉开项目差距的核心指标在于准确率,顺利上线的项目通常能突破90%的门槛,而搁浅的项目大多徘徊在85%左右 [2] - 这5%的准确率差异构成了Agent能否落地的“生死线”,它决定的并非单纯效果好坏,而是能否形成稳定运行的业务闭环 [3][7] Demo测试环境与真实业务场景的鸿沟 - Demo阶段运行在高度理想化环境,问题相对标准、场景压力低、错误被允许或忽略,此类测试仅验证了Agent“回答问题”的能力,而非“承担业务”的能力 [4] - 真实业务场景具备三个Demo中几乎不存在的特征:问题复杂度显著提升且高度组合化、用户表达不规范充满模糊和情绪、错误不会被抹平而是会持续放大引发复询投诉与升级 [5] - 在真实环境下,85%准确率的Agent错误仍频繁且不可预测,必须长期依赖人工兜底,而90%以上准确率的Agent错误变为小概率事件,人工角色可从“兜底者”转为“例外处理者” [5][6] 评估Agent能否上线的关键维度 - 第一,评估表现是否稳定,而非“偶尔很准”,关键在于面对复杂非标准输入时,输出是否可预期、可解释、不失控,而非标准问题能否答对 [9] - 第二,评估错误是被“吸收”还是被“放大”,分水岭在于错误能否被识别、纠偏并被系统性消化,而非是否零错误 [10] - 第三,评估其是一次性交付的静态系统,还是具备持续学习与校正能力的可进化“活系统” [11] 有效的概念验证方法 - 真正有价值的POC应在真实业务约束下运行,包括真实用户问题、真实流程压力和真实错误成本,只有在此环境中,决定上线与否的关键信号才会出现 [14] - 在POC阶段于可控边界内用真实数据验证真实风险,暴露问题,远比上线后被动承受更为安全 [14]