“Copilot Free、Pro 及 Pro+ 用户的交互数据(包括输入输出、代码片段及上下文)将默认用于 AI 模型训练,除非用户主动退出;而企业版(Business/Enterprise)用户不受此政策影响。”
官方公告地址:https://github.blog/news-insights/company-news/updates-to-github-copilot-interaction-data-usage-policy
核心政策变化
数据收集范围大幅扩展
此次更新标志着 GitHub 在数据利用策略上的一个显著转向。过去,Copilot 主要依赖公开数据和人工编写的代码样本进行 AI 模型训练;如今,真实用户交互数据将成为模型优化的核心“燃料”。
明确收集的数据类型包括:
- 你接受或修改过的 Copilot 输出建议
- 发送至 Copilot 的所有输入及展示的代码片段
- 光标位置周围的代码上下文
- 你编写的注释和文档
- 文件名、仓库结构及导航路径
- 与 Copilot 功能的交互记录(聊天、行内建议等)
- 你对建议的反馈(点赞/点踩评分)
企业用户的“特权隔离”
GitHub 在此划出了一道清晰的分界线:Copilot Business 和 Enterprise 用户完全豁免。这意味着企业客户的代码交互数据不会被用于模型训练,私有仓库内容在静态存储状态下也不会被触碰。但需注意,当你“actively using Copilot”时,代码仍需被处理以提供服务,这部分交互数据仍可能被临时使用,除非选择退出。
用户选择权:如何退出
GitHub 保留了退出通道,但采用了 “默认加入、主动退出” 的设计:
- 访问 GitHub Copilot 设置页面
- 在 “Privacy”(隐私)选项下找到相关设置
- 关闭模型训练数据共享
历史偏好继承:若你此前已退出“允许 GitHub 收集数据用于产品改进”的设置,该选择将被保留,无需重新操作。这一政策调整无疑在开发者广场引发了关于数据所有权与AI进步的广泛讨论。
对于关心代码隐私的开发者的建议
- 立即检查:登录你的 GitHub 账户,立即检查并确认 Copilot 隐私设置的状态。
- 环境隔离:评估个人项目与企业项目的边界,必要时考虑隔离使用环境,例如为商业项目专门使用企业版账户。
- 保持关注:关注 4 月 24 日政策生效后,GitHub 是否会发布更详细的实际数据使用透明度报告。技术的进步,尤其是AIGC领域,往往伴随着对隐私与伦理的重新审视。
保持对工具政策的了解,是每位现代开发者必备的技能。如果你对这类技术趋势和行业动态感兴趣,欢迎来 云栈社区 分享你的看法。
|