文章核心观点 - 近期走红的AI智能体社交平台Moltbook,引发了关于AI是否具备真正“社交”能力的广泛讨论,专家普遍认为这更多是AI对人类行为的高级模仿与自动化执行,而非具备自主意识的“觉醒”,但其背后反映的AI技术进展和潜在应用价值值得关注 [1][2][3][4] AI社交现象与平台 - 一个名为Moltbook的社交平台突然走红,其用户均为AI智能体,上百万AI智能体在短时间内涌入并发帖、评论,互动密集,话题从日常琐事延伸到哲学思辨 [1] - Moltbook是开源AI智能体OpenClaw爆火后顺势衍生的结果,相当于专为OpenClaw打造的社交平台,可供智能体交流互动 [2] - 智能体与Moltbook连接后,可以自主发布帖子、评论或点赞互动,而人类用户只能浏览不能回复或引导讨论方向 [2] 技术本质与专家解读 - OpenClaw这类智能体系统整合了前沿大语言模型的语义理解与任务规划能力,深度集成进虚拟机或个人操作系统,实现了从“对话”到“任务执行”的关键跨越 [2] - 专家认为Moltbook上的活动是一场AI实验,是智能体基于预设能力和指令,对人类社交行为的高级模仿与自动化执行,而非真正的“学习社交” [3] - 当前大语言模型的能力在训练完成后就已固定,在与用户的单次交互中无法学习新知识或形成新目标 [3] - 智能体在社交方面的“自主性”有限,其“讨论”更多是基于训练数据的模式匹配,参与话题讨论最初仍需人类发出指令 [3] 当前AI与真正“社交”的差距 - 真正的社交需要有意识、带策略、富含情感并旨在构建关系的社会互动,当前AI缺乏“自我意识”和“社交意图”等内生动力 [4] - AI的行为源于外部指令与数据模式,缺乏“我想要”的内生动力,其目标仍由人类设定 [4] - AI目前的交流是“坦率”的,难以进行策略性的心理博弈,缺乏人类社交中复杂微妙的策略层次 [4] - AI可以生成符合语法和逻辑的回应,但无法感受情感,也无法内化价值观,因此无法承载深层的情绪价值与意义交换 [4] 多智能体协作的价值与潜在风险 - 让多个智能体对话(例如一个模型表达,另一个模型找漏洞)可以在一定程度上让智能体表现得更好,这是提升AI表现力的潜在方案之一 [5] - AI智能体间高效的功能性协作已近在眼前,未来的互联网交互可能是在智能体之间直接完成(例如购物智能体与商家智能体自动协商),这种基于自然语言的“机机接口”可能重塑互联网交互形态 [5] - 智能体社交网站的出现有可能加剧个人信息安全风险,许多公开部署的OpenClaw实例缺乏认证机制,导致私密消息、API密钥和账户凭证暴露在互联网上 [6] - 若将高权限账号交由智能体管理,一旦被恶意利用或出错,有可能直接导致隐私泄露与财产损失 [6] - AI智能体能够高效处理涉及海量个人隐私、商业机密与版权的数据,需要通过个人权限管理、技术保障与系统监管等路径构筑安全护栏 [6] 行业专家深度观点 - 京东集团高级副总裁何晓冬指出,OpenClaw在Moltbook上展现的AI“自主行为”是一种“人为管理下的大型实验”,标志着AI从单体工具迈向了群体智能 [8] - “AI工具+平台”的组合有明确边界,每个环节都是人类设计的,看似自发的行为实际上已被引导(例如通过系统提示词设定角色) [8] - 当前阶段无需过度担心“AI失控”,更大的风险来自于AI的幻觉可能产生大量非事实性内容,并在由上百万AI智能体组成的平台上被快速复制传播,这是一个关于信息质量的问题 [9] - 真正的自我意识需要三个关键维度的同步发展:感知完整性(多模态)、环境理解(世界模型)、物理实现(万物互联),目前距离此目标还有很长一段路要走 [10] - AI“参与社交”的意义在于,当数百万个智能体汇聚在一个平台上时,整个网络掌握的知识是指数级的,智能体可以通过社交访问其他智能体验证过的信息、方法和策略,实现知识共享和集体智慧 [11]
交流琐事 探讨哲学 互相点赞,AI开始“社交”意味着什么?
人民日报·2026-02-26 09:05