世界最大のコードホスティングプラットフォームであるGitHubは、近日、大きな衝撃的な発表をしました。2026年4月24日から、ユーザーのインタラクティブなデータをAIモデルのトレーニングに使用することを公式に発表したのです。この動きは多くの開発者によって「元に戻す(CTRL-Z)」操作とユーモア的に表現され、GitHubが以前からユーザーのプライベートデータを尊重する姿勢を強調してきたことと対照的です。

「デフォルトで参加」による論争、プライベートリポジトリも絶対的な非公開ではなくなった
GitHubが更新したプライバシーポリシーによると、Copilotの無料版、個人版(Pro)、プロフェッショナルエントリーバージョン(Pro+)のユーザーはすべて今回のデータ収集対象となります。システムはコードスニペット、入力・出力内容、カーソルの上下文、ファイル名やディレクトリ構造などの詳細なデータを自動的に取得します。コミュニティにとって最も不安なのは、プライベートリポジトリに保存されているコードであっても、ユーザーがCopilotを編集中に使用している場合、そのコードスニペットがモデルのトレーニングに使われることがあるということです。GitHubのチーフ製品責任者マリオ・ロドリゲスは、内部テストによりリアルなインタラクティブデータを含めることでAIのバグ検出精度が大幅に向上すると説明していますが、「デフォルトで有効」ではなく「手動で有効にする」ような方針は開発者コミュニティで強い反発を招き、関連公告に対する反対票数が一瞬で急増しました。
自分を守る方法:企業ユーザーの免責と手動オフのガイド
このデータの取り扱い問題において、すべてのユーザーが無力な立場にあるわけではありません。GitHubは明らかに、Copilotのビジネス版(Business)およびエンタープライズ版(Enterprise)を購入した支払い組織、および認証された学生や教員は契約条項によって保護され、それらのデータがトレーニングに使われないことを明言しています。
一般の個人ユーザーの場合、自分のコードがAIの進化の材料にならないようにしたい場合は、2026年4月24日の期限までに手動で防御操作を行う必要があります。ユーザーはGitHubの設定画面にアクセスし、Copilotのプライバシーオプションの「GitHubが私のデータをAIモデルのトレーニングに使用することを許可する」項目を見つけ、それをオフにします。公式側は、これはAnthropicやJetBrainsなどの業界の慣例と一致していると主張していますが、今やプライバシー重視の声が高まっている中では、このような説明はコミュニティの怒りを鎮めるには十分ではありません。
