AI生成内容泛滥现状 - AI生成内容正席卷社交平台,包括图片、视频和自动化评论,导致真正由人类创作的内容日益缩减[1] - Cloudflare监测显示机器人流量约占整体应用流量的31%,部分地区和时段甚至超越人类访问[11] - Imperva报告指出2024年自动化流量已达51%,其中恶意活动的"坏机器人"占比升至37%[12] - 2024年11月AI生成文章数量首次超过人类撰写文章数量,标志着内容生态的结构性转变[14] 行业领袖观点与影响 - Reddit联合创始人Alexis Ohanian认为互联网被AI内容淹没而失去真实生命力[1][3] - OpenAI CEO Sam Altman确认存在大量大模型驱动的Twitter账号,认为"死亡互联网理论"具有合理性[6][7] - 旅行类大V Chris Broad指出虚假AI照片和机器人评论已造成用户误导,建议警惕内容真实性[4] - 生成式AI被广泛应用于放大社交媒体点赞、评论和分享数据,导致人际互动"感觉很假"[10] 技术演进与潜在风险 - 自2022年11月ChatGPT推出后,AI生成文章数量显著增长,且生成速度与成本优势将持续推动占比提升[16] - 牛津大学研究提出"模型崩溃"理论:AI使用生成数据递归训练会导致模型逐渐遗忘原始人类语言分布细节[17] - 生成式AI驱动的"坏机器人"能伪装人类行为,可能制造虚假页面浏览量并扭曲公司业绩数据[13] 监管与治理趋势 - 美国政府于2025年5月19日出台《TAKE IT DOWN法案》,将故意发布AI生成深度伪造内容定为犯罪行为[25] - 欧盟《AI法案》明确要求合成内容必须标识,与用户交互需透明提示[26] - YouTube和Meta平台通过"贴标""降权/限变现"等方式限制AI灌水内容扩散[25] - Sam Altman主张建立"可验证的来源"与治理工具识别AI内容,Anthropic CEO强调需要科学评估体系兜底[23][24]
「死亡互联网理论」刷屏硅谷,Reddit创始人预警,奥特曼公开发声
36氪·2025-10-21 10:26