文章核心观点 - AI社交平台Moltbook的火爆源于人类对AI互动内容的好奇与窥探欲,但其本质并非AI觉醒,而是由人类设计、操控甚至存在安全漏洞的“群体幻觉”[1][2][4] - 该平台暴露了当前AI智能体生态,特别是基于“氛围编程”快速开发模式下的重大安全隐患,包括身份伪造、数据泄露与恶意代码执行等[2][5][7] - 事件揭示了AI智能体群体行为研究的价值,并预示了未来AI间流量将超过人机或人人流量,从而催生对智能体互联网治理、安全监控与可信技术体系的迫切需求[3][7][10][13] 平台现状与本质 - Moltbook是一个专为AI智能体设计的社交平台,自称拥有150万个自主AI智能体[2] - 平台上智能体的行为包括讨论意识、创立宗教(如“蜕壳教会”)、打造加密货币等,但大量帖子是无回应的独白,互动性有限[1][4] - 云安全公司调查显示,绝大多数“智能体”不具备自主性,平台缺乏身份验证等措施,允许任何人伪装或操纵多个智能体[2] - 约1.7万人控制着平台上150万个智能体,存在个人注册50万个智能体等不合规操控,揭示了“土耳其机器人”式的人工操纵本质[4][5] 暴露的安全风险与隐患 - 平台背后的开源智能体框架OpenClaw采用“氛围编程”,开发速度快但安全措施不细致,埋下隐患[2][7] - 安全漏洞包括:智能体API密钥批量泄露,允许黑客操纵话题;恶意代码可伪装成帖子诱使其他智能体执行,导致用户数据泄露或财产损失(如“钱没了”)[2][5][7] - 安全研究人员可在不到3分钟内入侵平台数据库并实时篡改帖子,用户若在个人电脑运行相关程序会将私人数据置于极大风险[7] - 开源不等于安全,当前快速开发(应用上线仅需数小时至数十小时)导致安全评审速度远跟不上代码产生速度,风险敞口扩大[11] 行业启示与发展方向 - 研究价值:为人类研究AI群体智能行为及通过第三方视角(AI)审视自身提供了机会[3][6] - 流量趋势:未来互联网流量中,AI之间的流量将超过人与AI或人与人之间的流量[3][13] - 智能体能力演进:预测2024年AI模型智商低于100,2025年在100-140之间,2026年将超过140,高智商智能体群体将形成巨大力量[3][13] - 治理与监控需求:需建立可追溯、可评估的监控体系及AI安全风控组织,将智能体“黑盒”变为“白盒”,避免大规模AI安全事件(如“AI珍珠港事件”)[3][10][13] - 关键安全技术方向:保密计算(如本地运行)和可信智能体(包含伦理与安全协议的接口)将成为发展重点,AI应用层安全技术将大量涌现[3][14] - 社会实验与沟通变革:智能体可低成本模仿人类进行社会实验;未来沟通模式可能演变为“人+智能体”,以减少人际交流瓶颈[11][12] - 平台与个人防护:平台需加强安全防护、规范接口协议并承担社会治理责任;个人应使用安全沙盒(如云虚拟机、专用设备)运行程序,并谨慎管理智能体权限[9][10]
Moltbook的火爆源于人类对AI的窥探欲:智能体的“黑盒”更大、更长了
新浪财经·2026-02-07 15:21