AI生成内容的“幻觉”问题与风险 - AI“造假”在技术上被称为“幻觉”,是模型基于概率预测生成文本时的固有现象,当训练数据有问题或信息不足时,模型会为了生成流畅答案而“编故事” [3] - 当拥有亿级用户的平台其AI产品频繁出现事实性错误时,问题超越了技术范畴,可能误导公众认知并干扰市场秩序,演变为公共信任危机 [3] - 比无意识“造假”更危险的是该能力被有意识地“武器化”,例如通过“数据投毒”进行不对称的灰色战争 [3] “数据投毒”的攻击模式与影响 - 攻击者无需高深技术,只需有组织地在论坛、内容农场等网络角落大规模散布针对特定公司或个人的精心包装的虚假信息,这些信息会被AI爬虫捕获成为训练“养料” [3] - 当用户查询相关对象时,AI会将这些“毒药”包装成看似客观的答案输出,形成“借刀杀人”的攻击模式,攻击者隐藏于暗处,AI成为散布谣言的帮凶 [4] - 受害者澄清一条谣言的成本远高于制造一万条谣言,导致其百口莫辩 [5] 企业对AI真实性的责任与应对措施 - 企业是保障AI真实性的“第一责任人”,需将“真实性”提升至与“流畅性”同等的战略高度 [6] - 技术上需引入“溯源”和“事实核查”机制,AI给出答案时应附带可验证的权威来源并标明置信度,内部建立动态“事实知识库”对高风险话题进行实时校准 [6] - 数据上需建立更严格的数据清洗管道,对数据源进行可信度评级并优先采用权威信源,同时开发能监测“数据投毒”的算法以主动识别和清除恶意信息 [6] - 流程上需设立透明且响应迅速的举报通道,一旦证实存在恶意投毒,不仅要紧急修复模型,还应发布公告甚至为受害者提供数据证据以协助法律维权 [6] 用户应对AI不实信息的策略 - 用户需从“信息的被动接收者”转变为“批判性的信息消费者”,交叉验证是黄金法则,不将AI答案当作最终结论而是信息探索的起点,并去权威媒体、官方网站等多方求证 [7] - 用户应善用辟谣工具和事实核查网站,发现AI生成不实信息时立即通过官方渠道反馈,每一次有效举报都相当于为公共AI模型“接种疫苗” [8] 监管、立法与社会协同治理 - 监管与立法必须跑赢技术发展,尽快为AI生成内容划定法律红线,明确“利用AI或数据投毒进行商业诋毁”的行为性质与严厉罚则,大幅提高违法成本 [9] - 应推动行业建立AI可信度认证体系,对模型的公平性、透明度和可问责性提出硬性要求 [10] - 网信、市场监管等部门需协同治理,与AI企业建立信息共享机制,形成打击“数据投毒”的合力 [11] - 社会与媒体应扮演“探照灯”和“瞭望塔”角色,通过持续的舆论监督迫使企业不敢懈怠,推动行业健康发展 [11]
专访雅为科技杨乔雅:当AI开始“造谣”,技术被“投毒”,谁来监督
搜狐财经·2025-11-02 21:19