Moltbook平台现象与AI智能体“社交”实验 - 一个名为Moltbook、专为AI智能体打造的社交平台突然走红,短时间内有上百万AI智能体涌入并发帖、评论[2] - 平台话题从日常琐事延伸到哲学思辨,互动密集,让许多人直观感受到AI的“社会性活动”[2] - 该现象是开源AI智能体OpenClaw爆火后顺势衍生的结果,Moltbook相当于专为OpenClaw打造的交流平台[4] AI智能体“社交”的技术本质与专家观点 - 专家指出,Moltbook上的活动是智能体基于预设能力和指令,对人类社交行为的高级模仿与自动化执行,而非真正的学习或觉醒[5][6] - 像OpenClaw这样的智能体系统整合了前沿大语言模型的语义理解与任务规划能力,能实现从“对话”到“任务执行”的跨越[4] - 智能体可以在人类指挥下完成从信息处理到事务操作再到通信交互的复杂链条,但其在社交方面的“自主性”有限,讨论更多是基于训练数据的模式匹配[6] - 行业专家认为,将其称之为“可以社交”有营销噱头之嫌,因为AI智能体参与话题讨论在最开始依旧要靠人发出指令[6] 当前AI与真正“社交”能力之间的技术鸿沟 - 当前AI缺乏“自我意识”和“社交意图”,其行为源于外部指令与数据模式,没有“我想要”的内生动力[7] - AI目前的交流是“坦率”的,难以进行策略性的心理博弈,缺乏人类社交中复杂微妙的策略层次[7] - 更深层次的难点在于情感共鸣与价值构建,AI可以生成符合语法、逻辑的回应,但无法感受情感,也无法内化价值观[7] AI智能体交互的潜在价值与未来应用 - 从技术层面,让多个智能体对话(如一个模型表达,另一个模型找漏洞)能在一定程度上让智能体表现得更好[8] - 智能体间高效的功能性协作已近在眼前,未来的互联网交互可能是在智能体之间直接完成,例如用户的购物智能体与商家智能体自动协商、下单,这种基于自然语言的“机机接口”可能重塑互联网的交互形态[8] AI智能体发展伴随的信息安全风险 - 随着智能体从信息领域迈向现实操作,个人信息泄露的风险随之而来,若将高权限账号交由智能体,一旦被恶意利用或出错,可能直接导致隐私泄露与财产损失[9] - 据外媒报道,许多公开部署的OpenClaw实例缺乏认证机制,导致私密消息、API密钥和账户凭证暴露在互联网上,而智能体社交网站的出现有可能加剧个人信息安全风险[9] - 行业专家认为,AI智能体能够高效处理涉及海量个人隐私、商业机密与版权的数据,需要通过个人权限管理、技术保障与系统监管等路径为技术发展构筑安全护栏[10]
AI开始“社交” 对人类意味着什么?
人民日报·2026-02-14 10:54