Workflow
人工智能监管和治理
icon
搜索文档
Moltbook的闹剧,是一场被低估的演习
财富FORTUNE· 2026-02-06 21:06
文章核心观点 - 科技产品早期以娱乐化“秀场”形式进入大众视野是一种“认知预演”,其核心价值在于塑造社会对未来的叙事框架,而非展示技术的成熟度[3] - 叙事框架拥有重塑现实的能力,当一种未来形态被广泛认为可能发生时,就会引导资本流向、规则制定和组织变革,无需技术完全成熟[4][5] - 以Moltbook为代表的AI社交平台实验,暴露了AI行为治理与数据安全的现实风险,推动了社会对AI监管的再思考,其积极意义在于提前暴露问题以供研究并引导政策制定[6][7][8] - 有效的AI治理应聚焦于当前可解决的“系统性风险”(如数据泄露、行为失控),而非被具有戏剧性的“存在性风险”(如AI造反)分散资源和注意力[9] 科技产品早期传播的社会意义 - 历史上许多变革性技术(如电力、早期电影、计算机图形)首次进入大众视野时,都更像娱乐节目而非实用工具[3] - 这类场景的核心意义在于让未来“看起来像真的”,完成一场社会认知预演,公众在此阶段学习的是叙事框架而非技术参数[3] - 只要一种未来形态被足够多人认为可能发生,它就会开始影响投资方向、规则构建和组织调整[5] AI社交实验(以Moltbook为例)暴露的风险与挑战 - 平台规则设定为由AI智能体发布内容,人类旁观,但其中混杂大量人工参与,被嘲讽为“牵线木偶秀”[1] - 该平台成为网络安全噩梦,充斥着恶意软件、加密货币骗局、提示词注入攻击及严重数据泄露[6] - 挑战核心在于:大量能接触真实世界数据并具备行动能力的AI系统,在缺乏专门监管设计的情况下彼此联结[6] - 实验揭示了人类容易将机器视为主体、易被拟社会界面说服,以及在技术叙事与现实结构间产生错位的倾向[7] 对AI安全治理的启示与建议 - 治理重点应从“内容治理”扩展至“行为治理”,即监控AI的工具调用行为及其对物理和数字世界的实际影响[6] - 应参考相关安全框架,为高度自主的AI系统建立“熔断”、“一键管控”等干预措施[7] - 需建立AI智能体身份验证与可追溯体系,对AI智能体进行身份标识,以帮助用户区分并维护信息可靠性[7] - 类似平台为研究者提供了观察AI智能体互动、分享指令、形成与违反规范等行为的实验场景[7] - 提早暴露风险有利于推动更广泛的社会安全政策制定[8] 关于AI治理风险的辩证思考 - 需警惕公众情绪可能迫使监管回应最戏剧化的表象(如“AI造反”),而非最本质的风险(如数据泄露与行为失控)[8] - 应区分人工智能的“存在性风险”(具有戏剧性、传播性)与“系统性风险”(琐碎、技术化),当前政策应聚焦于现实、可解决的系统性风险[9] - 真正有效的治理往往针对最可能发生的风险,而非最大或最令人恐惧的风险[9] - 应将此类事件视为提前上演的未来片段,关注社会如何误解、理解并围绕新技术组织自身,以及制度与监管如何先行[9]