GitHub,作为全球最大的代码托管平台,近日宣布一项重大变动:自2026年4月24日起,将开始使用用户的交互数据来训练其AI模型。此举被许多开发者戏称为“CTRL-Z”操作,因为GitHub此前多次公开强调尊重用户隐私,而此次新政策明显打破了这一承诺。
"默认加入"引发争议,私有仓库不再绝对私密
根据GitHub更新的隐私政策,Copilot的免费版、个人版(Pro)和专业增强版(Pro+)用户的数据都将被收集。系统会自动采集包括代码片段、输入输出内容、光标上下文,甚至文件名和目录结构等详细信息。社区最为担忧的是,即使是存储在“私有仓库”中的代码,只要用户在编辑时启用了Copilot,也可能被用于模型训练。GitHub首席产品官Mario Rodriguez表示,内部测试显示,加入真实交互数据能显著提升AI在检测代码错误方面的准确率。然而,这种“默认开启”而非“手动选择加入”的策略,迅速引发开发者社区的强烈反弹,反对声音迅速攀升。

如何保护自己:企业用户豁免及手动关闭指南
在这场数据采集风波中,并非所有用户都处于被动地位。GitHub明确指出,购买了Copilot Business和Enterprise版本的付费组织,以及经过认证的学生和教师,将通过合同条款获得保护,其数据不会被用于训练。
此外,普通用户可以通过手动关闭相关设置来避免数据被采集,具体操作指南GitHub也已提供,帮助用户维护自己的代码隐私。


