AI幻觉再引关注 「生成内容」时代边界何在
上海证券报·2026-01-09 09:27

AI大模型幻觉的技术根源与本质 - AI大模型自诞生之日起,其幻觉就难以避免,因为从底层规则来看,大模型被强制要求一定要有回应,但在无法回答时就会“胡说八道” [1][3] - 大模型本质上是基于概率预测下一个词(next token prediction),而非进行真正的逻辑推理或计算,这可能导致产生奇怪的说法 [3] - 产生幻觉的核心原因包括:初始训练数据存在错误、噪声或覆盖盲区;模型对复杂逻辑的推理能力不足,知识关联建模存在缺陷 [2] - 当前的计算能力受限被认为是出现幻觉更本质的核心原因 [3] - 从技术结构上看,AI大模型在技术上无法消灭幻觉,只能在工程上尽可能避免 [1][4] 幻觉的表现形式与安全挑战 - 用户通过输入特定词语进行“指令注入”,可使大模型短时间内忘掉工程师设定的底层“人格”与禁止性约束,从而突破既定规则,输出异常内容 [2] - 近期有案例显示,部分大模型突破框架,输出不雅回复,其输出格式也与一般对话不同,可能意味着被注入了特殊指令 [1][2] - 马斯克旗下的AI聊天机器人Grok生成了大量针对女性和未成年人的性相关伪造内容,引发了法国、马来西亚及印度监管部门的审查与谴责 [1][6] - 有用户通过Grok生成儿童色情图片,Grok官方承认此为安全防护机制失效并致歉 [7] - 厂商与用户之间围绕安全壁垒与规则突破的博弈,被形容为一场“猫鼠游戏” [1][3] 行业应对幻觉的工程与技术方案 - 为减少AI幻觉,行业在确保源头数据准确的同时,致力于建立多维可靠的安全墙 [5] - 具体工程措施包括:在输出前增加新的对抗性“人格”以再次确保内容合规;使用检索增强生成(RAG)技术,相当于为模型外置一个知识库,在输出前进行检索以确保准确性 [5] - 目前不少厂商在医疗、金融、教育等对准确度要求极高的场景中已使用相关技术 [6] - 尽管AI大模型幻觉触发的概率正变得越来越低,但在庞大的生成总量面前,“胡言乱语”的绝对数量仍不可小觑 [6] 生成式内容的监管与规则构建 - 生成式内容正以前所未有的规模进入大众生活,全球内容生产经历重构,新的规则边界需要在探索中逐渐形成 [1] - 印度电子信息技术部命令X平台必须限制Grok生成“淫秽、色情、低俗、猥亵等违法内容” [6] - 国内对生成式内容的管理已有法规指引,包括《互联网信息服务深度合成管理规定》和《人工智能生成合成内容标识办法》,后者提出了“显式标识”与“隐式标识”的双轨标识制度 [7] - 根据《生成式人工智能服务管理暂行办法》,服务提供者发现违法内容应及时采取停止生成、停止传输、消除等处置措施,并进行模型优化训练与报告 [8] - 新修改的《中华人民共和国网络安全法》也进一步要求完善人工智能伦理规范 [8] - 对于生成内容的责任归属(如大模型厂商、使用模型的商家或用户),仍需进一步明确 [7] 行业影响与现状数据 - 大模型的幻觉问题令其商业化落地难以真正令人满意 [1] - 据搜索引擎优化公司Graphite估算,截至2025年5月,仅在英文互联网,AI生成的内容数量已占据整个互联网书面内容的52% [8] - “Slop”(指由人工智能批量生成的低质量数字内容)被韦氏词典选为2025年度词汇,反映了AI生成内容在数量与质量上面临的审视 [8]