Workflow
“死亡互联网理论”刷屏硅谷
虎嗅·2025-10-20 07:26

互联网内容生态的演变 - 互联网正被AI生成内容大量淹没,真正由人类创作的内容日益缩减 [1][3][5] - 早期互联网有机的、用户驱动的特性正逐渐消失,被计算机生成的内容所取代 [18][22] - 2024年11月,网络上发表的AI生成文章数量首次超过人类撰写的文章数量,标志着内容创作领域的结构性转变 [29] AI内容泛滥的现状与影响 - Cloudflare监测数据显示,机器人流量约占整体应用流量的31%,在部分地区和时段已阶段性超越人类访问 [24] - Imperva报告指出,2024年自动化流量已达51%,其中从事恶意活动的"坏机器人"占比升至37% [25][26] - 这些"坏机器人"更善于伪装成人类行为,可能被恶意用于制造虚假的页面浏览量、用户互动和使用时长,从而扭曲公司业绩数据 [27] 行业领袖的观点与理论 - Reddit联合创始人Alexis Ohanian认为互联网因AI内容泛滥而"死亡",失去了真实的生命力 [2][3][4] - OpenAI CEO Sam Altman认同"死亡互联网理论"有一定道理,并指出存在大量由大模型驱动的Twitter账号 [10][11][12] - "死亡互联网理论"的核心观点是,互联网失去真实性即宣告其"死亡",该理论在2021年由网络论坛用户提出后逐渐流行 [13][14][15][16] AI技术发展带来的潜在危机 - 生成式AI的普及可能导致"模型崩溃",即大模型在使用AI生成的数据进行递归训练时,会逐渐忘记原始人类语言分布的细节,导致能力下降和内容同质化 [35][36][37][38] - 牛津大学等机构的研究将"模型崩溃"类比为不断复印照片导致清晰度下降,最终产生模糊、缺乏细节的结果 [39][40] 行业应对与治理趋势 - Google CEO Sundar Pichai认为搜索引擎将被AIGC深刻改造,AI回答与人类内容的协同将成为主流交互范式 [42] - 平台方如YouTube、Meta正通过"贴标"、"降权/限变现"等方式,试图限制AI灌水内容的扩散 [54] - 立法层面,美国出台《TAKE IT DOWN法案》将故意发布AI生成的深度伪造内容定为犯罪行为,欧盟《AI法案》也明确合成内容必须标识 [55][56] - 行业共识是需建立"可验证的来源"与治理工具来识别AI内容,重点不在于区分人类与AI的优劣,而在于提升对内容的信任度和确保真实性 [49][50][57][58]