Workflow
刚上手AI,职场人就踩了幻觉的坑
虎嗅·2025-05-31 08:07

新媒体编辑案例 - 互联网科技内容平台编辑使用AI生成"2024年中国智能手机市场结构变化"分析段,其中某国产品牌市场份额18.6%同比上升3.2个百分点的数据为AI虚构[3][4] - AI生成内容存在常态性幻觉,相同提问每次生成的数据段在报告名、数值、变化幅度上均不一致[8] - 行业实践调整为AI仅辅助结构框架,涉及"报告""数字""来源"等关键词内容需人工跳过[10] 电商客服案例 - 电商平台引入AI话术辅助系统后客服效率提升30%,但系统错误生成"限时秒杀商品支持七天无理由退货"承诺导致赔付纠纷[14][16][18] - 行业应对措施包括关闭自动插入回复功能,建立人工确认机制,强化品类售后条款培训[20] 培训讲师案例 - AI生成"六成以上年轻人偏好情绪表达品牌"的虚假调研数据被直接用于课件,直播中遭学员质疑[24][26] - 行业规范调整为AI仅提供结构建议,涉及数字、百分比、时间节点的内容需双重人工验证[27] AI产品经理案例 - AI创业团队使用AI起草PRD文档时,生成包含错误年份和虚假"下滑2.7%"预测的行业分析内容[34][35] - 行业建立AI内容标注制度,关键交付内容需两人以上复核,协作平台增设"AI生成内容"高亮标签[36] 行业技术原理 - 大模型本质是语言预测器而非事实核查工具,训练目标为"说得像人"而非"说实话"[41][42] - 中文语料模糊性加剧幻觉风险,未标注来源的二手信息在训练中被等同处理[44] - 典型幻觉场景包括编造研究报告、拼接数据比例、使用过时政策条款等[49] 行业应对机制 - 头部企业将AI使用规则纳入管理制度,包括内容校对、二次审核、结论禁用等标准化流程[51][57] - 技术厂商通过提示词约束、知识库过滤等方式降低幻觉流出概率,但无法根治底层机制[48][50] - 行业共识强调AI仅承担生成功能,判断责任始终归属人工[51][59]