女娲.skill
搜索文档
当你把同事做成“数字分身”:谁在越界,谁在缺席?
凤凰网财经· 2026-04-11 18:28
文章核心观点 - 近期以“同事.skill”、“张雪峰.skill”为代表的AI“数字分身”项目走红网络,引发广泛关注和讨论 [1] - 这些项目通过采集个人的公开言论、著作、工作数据等信息,利用AI技术“蒸馏”或“封装”其思维模式和语言风格,创造出能模仿其对话和提供建议的“技能” [1][6][11] - 该现象引发了关于技术伦理、法律边界(如人格权、著作权)以及社会不平等问题的深度探讨 [4][5][12][13][17] 根据相关目录分别进行总结 01 实测可“神模仿”张雪峰 - “张雪峰.skill”项目采集了张雪峰出版的书籍、公开演讲及受访内容,将其决策模式进行“蒸馏”,开发者称其为“可运行的思维框架”而非简单语录合集 [6] - 实测中,该技能能迅速回答专业选择等问题,例如推荐“芯片/集成电路专业”,并给出国产替代加速、人才缺口巨大、起薪高等理由 [6] - AI生成的回答模仿了张雪峰的语气,如使用“我跟你说”、“别听那些扯什么‘前景广阔’‘未来可期’,都是废话!”等表达,并引用了4月9日的新闻,显示其并非完全基于历史数据 [7][9] 02 以张雪峰视角和你聊声称代表一个人已经越界 - 项目首次安装时带有免责声明,称“我以张雪峰视角和你聊,基于公开言论推断,非本人观点” [12] - 法律专家指出,基于公开言论训练“问题不大”,但以本人名义使用则可能侵犯姓名权及衍生的名誉与财产权益,因技能无法代表本人意见,可能对其名誉造成损害 [5][12] - 未来学家认为,当事人是否同意是门槛,但“主体性”才是核心,即技能由谁主导制作、代表谁的形象、当事人是否有持续纠错能力至关重要 [13] - 技术层面,这些技能本质是“基于公开语料的风格拟态”,模拟输出模式而非等同于真人,产品设计者需为刻意营造的“与本人对话”感负责 [13] - 核心设计原则应是:任何技能必须清晰内置前提,即它是某人知识的整理工具,而非其替代者,这需要从设计哲学上体现谦逊,而非仅靠免责声明 [4][14] 03 亟须制度规范:谁来制作、谁来获益、谁在缺席 - 将人“封装”成技能的做法早有实践及科幻作品探讨,但由本人主动编码与由他人制作存在“主体性”的根本差异,后者使当事人失去参与和持续修正的权利 [15][17] - 有观点认为,即便有完整数据,也无法训练出真正的“数字自我”,因为生命中存在语言无法描述和触及的部分 [16] - 行业存在“被低估的不平等问题”:有能力主动参与自身编码的人(拥有技术认知、批判能力和资源)是少数,这导致未经同意的“技能化”可能沿权力分布线进行,使缺乏自我表征能力的人成为被编码的客体 [17] - 技术并非在真空中运行,具体行为的伦理立场取决于“谁来制作、谁来获益、谁在缺席、副本最终服务于谁”,因此需要具有约束力的制度规范,而非仅靠行业自律 [17]