AI 巨頭 Anthropic 近期在試圖從 GitHub 上抹除泄露的源代碼時,因操作過猛引發了一場波及廣泛的“誤傷”事件。該公司承認,在請求下架侵權代碼的過程中,由於失誤導致數千個與泄露無關的合法代碼倉庫被錯誤刪除。
這次大規模清理行動源於上週的一次重大事故,當時 Anthropic 意外地將名爲 Claude Code 的工具源碼公開。雖然官方迅速反應,但代碼早已被大量複製和分發,迫使公司不得不採取強硬的法律手段進行全網攔截。
自動化腳本失控,合法開發者遭受“降維打擊”
在清理過程中,Anthropic 使用了自動化監測工具來識別和舉報包含泄露代碼的倉庫。然而,這些工具顯然未能精準區分真正的侵權內容和僅僅是引用、討論該事件的合法項目,導致大量無辜的開發者賬戶受到牽連。
許多被封禁的開發者對此表示強烈憤怒,認爲這種“先斬後奏”的清理方式極其不負責任。儘管 Anthropic 隨後發表聲明稱這是一次意外,並正在努力恢復被誤刪的項目,但其品牌信譽在開源社區已受到不小打擊。
安全漏洞反思:頂級 AI 實驗室的“低級錯誤”
這次混亂的根源在於 Anthropic 內部構建系統的一個配置錯誤。該錯誤導致原本應受保護的私有 TypeScript 源代碼被打包進了公開的 npm 軟件包中,這被業內視爲一次極其嚴重的低級安全失誤。
這起事件暴露出頂尖 AI 公司在處理數據資產時的極度焦慮。在 2026 年激烈的技術競爭中,代碼泄露固然致命,但若防護手段演變爲對開發者生態的無差別攻擊,其副作用可能比泄密本身更加深遠。
