2026年4月1日、世界的なAI研究機関であるAnthropicは、重大な著作権整理ミスにより、GitHub上の約8,100のコードリポジトリが意図せずに閉鎖されるという出来事に巻き込まれました。この出来事の原因は、今週火曜日にソフトウェアエンジニアが発見したものです。Anthropicが最新版のコマンドラインアプリケーション「Claude Code」を公開する際、製品のコアソースコードが意図せずして漏洩していたのです。その後、そのコードはAIファンによって迅速に拡散され、多数のフォークが作成され、その下位の言語モデル(LLM)の呼び出しロジックを分析しようとされました。

Claude2、Anthropic、人工知能、チャットボット クラウド

コア資産が漏洩したことを受けて、Anthropicは米国のデジタル著作権法に基づき、GitHubに削除依頼を提出しました。しかし、技術的な操作ミスにより、対象範囲が予想を上回り、不正コードを含むフォークだけでなく、多数の合法的な公開コードリポジトリも影響を受けました。Anthropicの「Claude Code」担当者であるBoris Chernyは、この大規模なロックダウンについて公に謝罪し、今回の件は完全な誤りであり、すぐに大部分の削除依頼を取り下げたと認めたのです。現在では、1つのメインリポジトリおよび96個の確認済みの漏洩コードを含むフォークを除き、影響を受けたコードリポジトリは徐々にアクセス可能となっています。

Anthropicが迅速に対応したにもかかわらず、この出来事は企業のIPO計画という敏感な時期に、コードのコンプライアンス管理や著作権実行プロセスにおける欠点を露呈しました。上場を目指す主要なAI企業にとって、ソースコードの漏洩とその後の連鎖反応は、技術的なバッファーや保護体制への脅威だけでなく、企業の実行力とコンプライアンス能力に対する厳しい試練でもあります。この出来事は、生成型AIが急速に進化する中で、開発者ツールの安全性と著作権保護行動の正確さの重要性を浮き彫りにしています。