文章核心观点 - 近期在技术社区引发热议的“同事.Skill”等项目,本质上是利用爬虫和结构化提示词模板创建的AI角色扮演工具,并非真正的AI训练或“数字永生”技术[9][18][23] - 该项目的传播过程反映了公众因对AI技术不了解而产生的焦虑被放大,导致一个技术玩梗被夸大和神化,其实际能力远低于舆论描述[10][70][72][76] - 此类项目在数据采集和使用环节存在严重的法律风险,可能违反《个人信息保护法》、《数据安全法》及平台用户协议,企业若贸然使用将面临重大合规挑战[44][48][57][60] 技术原理与项目本质 - “同事.Skill”是一个GitHub上的开源项目,其技术实现非常简单,主要由数据爬虫脚本和静态文本文件构成[11][13] - 项目通过Python脚本(如feishu_auto_collector.py, dingtalk_auto_collector.py)抓取飞书、钉钉、微信等平台的工作聊天记录和文档,并将其整理成统一格式的文本[14] - 核心是使用整理后的文本生成几个Markdown文件(如Skill.md, work.md, persona.md),这些文件以“五层人格结构”等结构化方式描述角色的规则、身份、表达风格、决策模式和人际行为,本质上是给Claude等大语言模型的一份详细“角色扮演指南”[12][19][20][23] - 项目运行时,AI模型仅读取这些静态文件作为上下文来模仿角色对话,不涉及模型训练、向量数据库或持久化记忆,每次对话都是独立的[16][25] 项目的实际能力与局限性 - 该项目无法“蒸馏”或复刻一个人的专业知识和复杂判断力,只能提取表面的表达习惯、常用技术栈和显性工作流程[33] - 存在“专家悖论”现象:越要求AI扮演专家角色,其额外约束反而可能干扰对问题本身的判断,导致输出错误答案[31][32] - 缺乏持久化记忆系统,无法记住历史对话内容,也不会根据交互进行学习和更新[24][25] - 在长时间交互中会出现“人格漂移”,即随着对话轮次增加,模型会逐渐偏离预设的角色人格[29] - 输出质量严重依赖输入数据(GIGO原则),若原始聊天记录技术内容少,生成的Skill能力也有限[26][28] - 无法处理复杂情境下的创新性问题解决、架构决策或基于多年经验的直觉判断[34][35][37][39] 法律与合规风险 - 使用离职员工的工作聊天记录创建数字人格,缺乏法律依据,可能违反《个人信息保护法》第13条,因合同终止后继续使用数据既未取得个人同意,也非履行合同所必需[45][46] - 违规处理个人信息可能面临责令改正、警告、没收违法所得及罚款,情节严重者罚款最高可达人民币5000万元或上一年度营业额的5%[48][49][50] - 工作聊天记录中可能包含个人健康、家庭、财务等敏感个人信息,处理此类信息依据《个人信息保护法》第28条需取得个人的“单独同意”,而项目流程完全缺失此环节[51][53][54] - 项目要求并提供工具导出微信聊天记录,此行为违反了《腾讯微信软件许可及服务协议》,属于未经许可复制、读取数据[56] - 根据《数据安全法》第45条,违反数据安全保护义务造成严重后果的,可能需依法追究刑事责任[57] - 企业若实际使用此类技术“留存”离职员工,可能面临离职员工投诉索赔、商业秘密泄露风险及监管部门的调查与整改成本[60][61] 社会传播与认知误区 - 事件的起源是技术社区的一条调侃推文,反映了人们对被AI替代的普遍焦虑[62][64] - 项目从GitHub发布后,在传播至大众舆论场的过程中,其技术细节被不断简化和夸大,叙事从“技术实验”演变为“情感寄托”乃至“数字永生”和“职场危机”[66][67][68][70] - 公众对AI基础知识的缺乏(如分不清提示词工程与模型训练)为夸大叙事提供了生存空间,导致技术被系统性误读[74][75] - 真正值得关注的核心问题是在AI时代如何保护个人数据权利,而非被夸大的“赛博永生”噱头所误导[78][79]
同事被“炼化”为Skill?大家把这事想简单了
凤凰网财经·2026-04-05 18:13