全球最大的代碼託管平臺 GitHub 近日丟下了一枚重磅炸彈:官方宣佈將從 2026 年 4 月 24 日起,開始使用用戶的交互數據來訓練其 AI 模型。這一舉動被不少開發者戲稱爲“撤銷鍵(CTRL-Z)”操作,因爲 GitHub 此前曾多次在公開場合強調對用戶私有數據的尊重,而新政策顯然打破了這一默契。

代碼 互聯網  (2)

“默認加入”引發爭議,私有倉庫不再絕對私密

根據 GitHub 更新的隱私條款,Copilot 的免費版、個人版(Pro)以及專業增強版(Pro+)用戶都在此次數據採集範圍內。系統將自動抓取包括代碼片段、輸入輸出內容、光標上下文、甚至文件名和目錄結構在內的詳盡數據。最令社區不安的是,即使是存儲在“私有倉庫”中的代碼,只要用戶在編輯時開啓了 Copilot,相關代碼片段也可能被攝取用於模型訓練。GitHub 首席產品官馬里奧·羅德里格斯對此解釋稱,內部員工的測試證明,加入真實交互數據能顯著提升 AI 捕捉 Bug 的準確率,但這種“默認開啓”而非“手動加入”的策略,在開發者社區引發了強烈反彈,相關公告下的反對票數瞬間激增。

如何自保:企業用戶豁免與手動關閉指南

在這場數據掠奪戰中,並非所有用戶都處於被動地位。GitHub 明確表示,購買了 Copilot 商業版(Business)和企業版(Enterprise)的付費組織,以及通過認證的學生和教師,將受到合同條款保護,其數據不會被用於訓練。

對於普通個人用戶,如果不想讓自己的代碼變成 AI 進化的養料,必須在 4 月 24 日限期前手動完成防禦操作。用戶需要前往 GitHub 的設置界面,在 Copilot 隱私選項中找到“允許 GitHub 使用我的數據進行 AI 模型訓練”並將其關閉。雖然官方辯稱這一做法與 Anthropic、JetBrains 等同行的行業慣例保持一致,但在“隱私優先”呼聲日益高漲的今天,這種解釋顯然難以平息社區的怒火。