「安全、慎重」をコアタグに掲げるAI大手のAnthropicが、最近では業界を驚かせている。先週、予期せぬ3000枚の内部文書を公開した後、今週火曜日にまたも深刻なミスを犯した。Claude Code 2.1.88バージョンをリリースする際、パッケージ設定ミスにより、同社のコア製品である「建築図」である51万2千行を超えるソースコードが公開漏洩してしまった。

今回の漏洩は外部からの攻撃ではなく、完全な人的ミスによるものである。Anthropic公式側は影響を軽視し、「リリース包装の問題」と表現したが、漏洩したコード量が膨大でモデル動作指示とツール制限ロジックが含まれていたため、競合企業やセキュリティ専門家がこれに対して深い「解剖的」研究を開始している。

蝶の効果:OpenAIがSoraを緊急停止したのはClaude Codeの圧力のため

Claude Codeの強力なパフォーマンスは開発者コミュニティを興奮させ、競合にも危機感をもたらした。ウォールストリート・ジャーナルの情報によると、OpenAIは動画生成製品Soraのリリースから6か月後にその「電源を切る」ことを決定した。その主な理由の一つは、Claude Codeの競争圧力に対応するために、開発者と企業市場に集中するためだった。

このソースコードの漏洩は偶然にClaude Codeの強力な競争力を明らかにした。漏洩したコードを分析した開発者は、これは単なるAPIラッピングではなく、本格的な、深く統合された開発体験ツールであると評価した。Anthropicが技術の極致を目指す一方で、下部のエンジニアリング管理は拡張速度についていけなかった。

信頼の崩壊:最も安全なAI企業が安全でなくなった

Anthropicの連続する低級なミスは、自身が築き上げた「技術ゲートキーパー」というイメージに大きな打撃を与えた。米国防総省とのAI責任に関する論議の重要な時期に、このような「インストールパッケージの確認」さえできていない無謀な行動は、AI規制分野での発言権を大きく弱めた。

現在、GitHub上には複数のソースコードバックアップリポジトリが出現しており、公式側はできるだけ整理しようとしているが、技術的な詳細の拡散はもう取り戻せない状態だ。2026年に激しくなるAI競争の中で、Anthropicは内部プロセスを見直す必要があるかもしれない。コード行数が十万単位で増加する中では、単なる「研究熱意」ではそのシステム的なエンジニアリング能力の欠如を隠すことはできない。