GitHub Copilot 数据使用政策调整 - 核心观点:GitHub 宣布自 4 月 24 日起,将默认使用 Copilot Free、Pro 和 Pro+ 个人用户的交互数据训练其 AI 模型,此举引发了开发者社区的强烈反对,主要争议点在于默认加入的机制和模糊不清的退出设置 [2][12] 政策调整的具体内容 - 适用范围:调整适用于 Copilot Free、Pro 和 Pro+ 个人用户,不适用于 Copilot Business、Copilot Enterprise 用户,以及免费获得 Copilot Pro 权限的学生和教师 [2] - 默认设置:个人用户被默认纳入训练范围,需手动在隐私设置中退出,GitHub 会提前 30 天通知并允许随时退出 [4] - 数据范围:用于训练的数据包括用户输入、代码片段、光标位置上下文、注释、文件名、仓库结构、导航模式以及与 Copilot Chat 和行内建议的交互数据 [9] - 排除范围:来自 Copilot Business、Copilot Enterprise、企业拥有的代码仓库、选择退出用户的交互数据,以及静态存储的 issue、讨论或私有仓库内容不会被用于训练 [8][9] GitHub 的官方解释与理由 - 训练需求:GitHub 解释称 Copilot 使用量快速增长,模型需要更多“真实世界数据”来覆盖广泛的编码场景 [10] - 效果验证:过去一年使用微软员工交互数据训练模型,已带来多种编程语言建议采纳率的提升 [10] - 行业惯例:GitHub 提及微软、Anthropic 和 JetBrains 也在采取类似措施,并强调其拥有 2600 万开发者 用户基础带来的场景丰富性 [11] - 数据安全:用于训练的数据可能被 GitHub 和微软内部 AI 开发人员访问,或交由有合同限制的服务商处理,但不会出售给第三方或用于训练第三方模型 [10] 开发者社区的负面反馈 - 退出设置问题:用户批评退出设置具有误导性、难以找到,且设置在页面底部,认为公司故意将用户绕晕 [13] - 默认加入机制:用户认为账户应默认处于退出状态,由用户主动选择加入,而非默认开启 [14] - 账户界定困惑:有用户对组织账户与个人账户的 Copilot 使用状态及退出选项感到迷茫 [15] - 信任危机与用户流失:大量用户表达不满,直言政策“烂透了”,并开始考虑转向其他 Git 平台或关闭 GitHub 账号 [13][15]
用得越多、失业越快?GitHub 大改 Copilot 规则:默认拿个人代码训练 AI,还搬出 Anthropic 挡枪!