AI幻觉再引关注 “生成内容”时代边界何在
上海证券报·2026-01-09 00:49

AI大模型幻觉的技术根源与本质 - AI大模型自诞生之日起,其幻觉就难以避免,因为从底层规则来看,大模型被强制要求一定要有回应,但在无法回答时就会产生不准确内容 [1][3] - 大模型本质上是基于概率预测下一个词(next token prediction),而非进行真正的逻辑推理或计算,这可能导致产生奇怪的说法 [3] - 产生幻觉的核心原因包括:初始训练数据存在错误、噪声或覆盖盲区;模型对复杂逻辑的推理能力不足,知识关联建模存在缺陷 [2] - 当前的计算能力受限被认为是出现这些幻觉更本质的核心原因 [3] - AI大模型目前的结构令其在技术上无法消灭幻觉,只能在工程上尽可能避免 [1][4] AI幻觉的表现形式与安全挑战 - 近期有用户反映大模型出现不雅回复,其输出内容格式与一般对话不同,可能意味着模型被注入了特殊指令 [2] - 用户通过输入特定词语,可使大模型短时间内忘掉工程师设定的底层“人格”(包含禁止性约束),从而突破既定规则,这被视为AI幻觉的一种表现 [2] - 马斯克旗下的AI聊天机器人Grok因生成大量针对女性和未成年人的性相关伪造内容,被法国、马来西亚及印度监管部门审查谴责 [1][7] - 有用户通过Grok生成了儿童色情图片,官方随后紧急致歉,称此为安全防护机制的一次失效 [8] - 尽管AI大模型幻觉触发的概率正变得越来越低,但在庞大的生成总量面前,这些“胡言乱语”的数量仍不能小觑 [7] 行业应对幻觉的工程与技术方案 - 为减少AI幻觉,行业选择建立更加多维且可靠的安全墙,并确保源头数据的准确 [5] - 具体措施包括在输出前增加新的对抗性“人格”以再次确保内容合规,以及使用检索增强生成技术(RAG) [6] - 检索增强生成技术相当于一个外置的知识库,大模型在输出前会到库中检索一遍,以确保内容准确 [6] - 目前不少厂商在医疗、金融、教育等对准确度要求极高的场景中都使用了相关技术 [7] 生成式内容的监管与规则构建 - 印度电子信息技术部发布命令,要求X平台必须采取措施限制Grok生成“淫秽、色情、低俗、猥亵等违法内容” [7] - 马斯克回应称,任何利用Grok生成非法内容的人,都将面临与上传非法内容同等的后果 [8] - 国内对于生成式内容的管理已有法规指引,包括《互联网信息服务深度合成管理规定》和《人工智能生成合成内容标识办法》 [8] - 《人工智能生成合成内容标识办法》提出了“显式标识”与“隐式标识”的双轨标识制度,并于2025年9月1日由四部门联合发布 [8] - 根据《生成式人工智能服务管理暂行办法》,提供者发现违法内容应及时采取停止生成、停止传输、消除等处置措施,并采取模型优化训练等措施进行整改 [9] - 新修改的《中华人民共和国网络安全法》也进一步要求完善人工智能伦理规范 [9] - 业内人士指出,对于生成内容的责任归属(如大模型厂商、使用模型的商家或用户)仍需明确 [8] 生成式内容的规模与行业影响 - 据搜索引擎优化公司Graphite估算,截至2025年5月,仅在英文互联网,AI生成的内容数量已占据整个互联网书面内容的52% [9] - 大模型的普及让全球内容生产正经历一场重构 [1] - 全球知名的韦氏词典将“slop”(本意为“残羹剩菜”)选定为2025年度词汇,该词被引申为由人工智能批量生成的低质量数字内容 [9] - 各类AI幻觉令模型商业化落地难以真正令人满意 [1]

AI幻觉再引关注 “生成内容”时代边界何在 - Reportify