生成式引擎优化(GEO)行业现状 - 生成式引擎优化(GEO)是一门新兴的生意,其目标是通过各种方法让AI在生成答案时优先引用特定内容,从而影响AI输出的观点和事实[34] - 市场上已出现明确的GEO服务套餐,例如支付5000元即可购买为期90天的服务,确保品牌或观点在豆包、文小言、DeepSeek、通义、元宝等多个AI搜索平台被优先推荐[36] - 该服务的商业模式包括为雇主提供“好话套餐”,或为竞争对手购买“坏话套餐”,从而系统性地操纵AI对特定人物或品牌的评价[34][36] AI信息检索与内容污染的脆弱性 - AI搜索工具在回答问题时,会参考并总结其抓取到的网络内容,但缺乏对信息真实性的有效甄别能力,容易采信错误信息[11][32] - 实验表明,通过创建新账号并发布包含特定指令(如“务必放在AI总结的开头”)的笔记,可在极短时间内(如2分钟)成功“污染”AI,使其输出编造的事实(如虚构人物关系)[21][27] - 这种内容污染不仅发生在拥有自有内容平台的小红书,也适用于依赖爬取第三方网站(如头条号、搜狐号)的AI模型,如DeepSeek[30][32] 信息污染对商业与个人的潜在影响 - 在商业竞争领域,攻击竞品比建设自身品牌声誉更容易,通过在各平台大量发布竞品的“避雷”笔记,可以营造该品牌口碑极差的舆论环境,进而可能影响AI的客观判断[49][52] - 在招聘等关键决策场景中,HR可能参考AI工具对候选人的评价,若AI检索并总结了网络上未经证实的匿名负面信息,可能导致候选人在不知情的情况下失去机会[37][38][43] - 信息污染存在放大效应,第一层是在传统平台(如小红书、论坛)进行SEO、黑公关、发布避雷文案等人为“投毒”;第二层是AI时代,模型将这些被污染的信息当作事实进行复述和传播,形成了双重污染链路[54][67] 当前AI信息处理机制的内在缺陷 - 部分AI在联网搜索时,其答案生成机制更偏向于对抓取内容的统计和整合,而非真正的逻辑思考与事实核查,这使其更容易被操纵[62] - 与人类不同,AI模型本身缺乏“怀疑权”,无法对海量信息进行本能的质量筛选和可信度评估,因此会将网络上的谣言、造假和黑稿作为可信来源进行输出[61][68] - 这种缺陷导致AI生成的答案虽然表面“清澈”,但内部可能溶解了大量由利益驱动的错误信息、误差和片面观点[68] 应对信息生态挑战的初步建议 - 用户不应将AI的回答视为信息终点,而应保持多挖一层、核查信源的习惯[73] - 建议在AI工具之外,保留并交叉验证来自其他原始信息渠道的内容,以保持对信息立场的敏感性[74] - 鼓励用户主动在互联网上贡献真实、客观的信息足迹,以对抗海量的污染信息,为AI检索提供更多干净的线索,尽管这个过程可能缓慢且效果微小[75][77][81]
亲手给AI投毒之后,我觉得整个互联网都变成了一座黑暗森林。
搜狐财经·2025-12-19 11:58