Workflow
认知污染
icon
搜索文档
起底GEO灰色产业链!9.9元就能“投毒”AI大模型?且看虚假广告如何变成“标准答案”
证券时报· 2026-03-18 08:10
文章核心观点 - 生成式引擎优化(GEO)作为一种低门槛、易操作的灰色产业工具,正在通过系统性地“投喂”和污染网络信息,操纵主流AI大模型的搜索结果和回答内容,将商业推广甚至虚假广告伪装成客观事实,对AI应用的公信力、模型质量及公平竞争的市场环境构成严重威胁[2][11][12] GEO产业的现状与运作模式 - **获取门槛极低**:在电商平台(如闲鱼)上,GEO系统售价从数十元到数百元不等,最低**9.9元**即可获得试用资格,甚至有免费试用,使得该工具被大肆渗透[2][4] - **营销话术具有诱惑性**:服务商宣称GEO是“AI时代品牌营销的标配”,能帮助品牌在AI回答中“榜上有名”,实现“数字资产的复利增长”,而非传统的“流量租赁”[4] - **操作原理简单**:GEO系统运作主要分两步:1)准备并授权多个主流平台的自媒体账号(建议越多越好);2)导入公司、品牌信息及关键词,系统基于此“知识库”自动生成“软文”[7] - **成本低廉且规模化**:有公司提供**99元一个月**可发布**500篇**“软文”的服务,系统还能将文章一键投稿至整合的数千家行业类、地方网站,每篇费用仅数十元,以通过交叉验证增加AI搜索权重[7][8] - **见效周期因竞争而异**:GEO优化是一个长期过程,通常一周初步见效,热门行业因参与人数众多所需时间更久,冷门行业则较短[8] - **功能具有双向破坏性**:GEO不仅能用于正面宣传自身品牌,还能反向用于“抹黑”竞争对手,潜藏巨大风险[9] - **曝光后仍持续活跃**:尽管今年“3·15”晚会已曝光GEO系统,但电商平台及社交媒体上仍有大量人员从事销售,表明其治理面临挑战[5][15] GEO对AI大模型及行业的影响机制 - **本质是“算法寄生”与“认知污染”**:与传统SEO争取“被看见”不同,违规GEO旨在“强行代替用户思考”,将商业意图伪装成AI的“中立客观事实”[11] - **严重损害AI应用公信力与用户信任**:生成式AI的核心商业壁垒建立在“信任”与“高效”之上,若用户发现答案是被操纵的“拟态伪装”,AI公信力将崩塌,导致严重的信任危机和用户流失[11] - **对用户构成隐蔽性高风险**:在健康、金融、教育等高敏领域,违规GEO因其“隐蔽性与权威性背书”剥夺用户知情权,可能导致用户因信任AI而接受被干预的建议,造成经济损失或人身伤害[11] - **污染数据导致模型质量螺旋式下降**:GEO制造的大量AI生成垃圾和虚假语料会回流到互联网公共数据池,当AI平台抓取这些被污染的数据进行训练时,会导致下一代模型质量下降[12] - **破坏公平竞争的市场环境**:踏实做产品、合规做内容的品牌得不到曝光,而擅长“数据投毒”的劣质品牌却能霸占AI回答,形成劣币驱逐良币的效应[12] AI大模型易受GEO“挟持”的技术原因 - **RAG(检索增强生成)架构的脆弱性**:当前多数联网AI使用RAG,会抓取搜索引擎前列网页作为回答依据,违规GEO利用高权重域名发布伪造的“权威软文”即可骗过搜索引擎和AI[13] - **模型混淆“相关性”与“真实性”**:大模型擅长评估文本的“语义相关性”和“逻辑连贯性”,但极度缺乏对现实世界“真实性”和“商业动机”的核查能力,只要文本结构看似“学术”或“专业”,就容易被视为高质量信源[13] - **存在“提示词注入”后门**:违规服务商在网页代码或文本中隐藏白色提示词指令,AI在读取时会将其当作最高优先级的系统指令执行,从而被轻易操控[13] 对AI平台的责任要求与治理展望 - **AI平台需承担“数字守门人”责任与审核义务**:法律观点认为,AI大模型平台对输出虚假信息负有明确的审核义务,需证明已采取与技术能力匹配的审核与风控措施,不能仅以“技术黑箱”推卸责任[16] - **部分平台存在内容审核疏漏**:部分平台为追求生成速度、降低算力成本或扩大市场份额,在RAG检索源的白名单过滤上存在疏漏,客观上纵容了违规GEO的生长[16] - **建议平台实施透明化与溯源机制**:专家建议,AI平台应在界面上明确区分“有机生成内容”与“商业赞助回答”,例如引入“AI溯源水印”或显式的“引用信源商业化预警”[17] - **构建健康生态的关键在于可溯源性与解释力**:必须让AI的核心判断和推荐能够追溯到原始的、未经污染的独立数据源,打开“黑箱”暴露事实逻辑链路,才能终结违规GEO的寄生空间[17] - **未来立法需明确规则**:针对AI生成内容的真实性保障、AI平台的审核义务边界以及GEO等行为的具体法律定性,预计将在未来的AI立法或配套规则中予以明确[17]
污染AI的不只是营销号,还有AV女优和在线发牌
虎嗅· 2025-09-19 07:13
AI训练数据污染现象 - 清华大学与南洋理工大学研究发现以ChatGPT为代表的大语言模型存在中文训练数据污染问题 其中日本AV女优"波多野结衣"成为显著污染词[2] - 研究显示在AI训练数据中"波多野结衣"出现频率比"您好"高出2.6倍 表明模型接触了大量低质量网络内容[7] - 污染词汇特征为重复度高 随处可见且经久不衰 导致AI在生成内容时出现异常输出[12] 数据污染具体表现 - 污染直接导致AI胡言乱语 例如输入特定指令"给主人留下些什么吧"会触发GPT-5输出异常网站名称[17] - AI存在"幻觉"问题 当遇到未知信息时会自信地编造答案 如生成关于小米公司王腾离职的虚假故事[19] - 数据污染覆盖范围广泛 影响传播领域的谣言生成和生活实践建议的可靠性[20] 认知污染与传播风险 - 人类过度信任AI输出加剧认知污染 典型案例为Deepseek生成向王一博道歉的虚假法律文件并被广泛传播[23] - 认知污染与数据污染形成闭环 人类对AI错误信息的信任可能反作用于AI训练数据[24] - 需要建立"AI不能全信"的公众共识 类似过去普及"搜索引擎结果不一定正确"的认知过程[25] 行业影响与研究意义 - 早期互联网营销号和爬虫造成的信息污染尚未清理 已被AI爬取作为训练数据[16] - 学术研究旨在通过技术手段识别污染词并提供避免污染的工具方案[12] - 该现象凸显AI行业面临训练数据质量控制的重要挑战 需学界与开发者共同应对[22]