美國司法部在近期的一份法庭文件中對 AI 初創公司 Anthropic 的訴訟作出了嚴厲迴應。政府方面堅稱,將該公司標記爲“供應鏈風險”並未侵犯其第一修正案權利,並預測 Anthropic 的訴訟最終將以失敗告終。
這場紛爭源於 Anthropic 試圖限制其 Claude 模型在軍 事領域的用途。對此,政府採取了強硬立場:
合規懲罰:政府辯稱,由於 Anthropic 試圖限制軍方使用其 AI 模型的方式,政府依法將其列爲風險對象是正當的。
安全信任危機:司法部直言不諱地指出,鑑於 Anthropic 在軍 事合同談判中表現出的限制性態度,該公司無法在作戰系統中獲得信任。
特朗普政府此前已發佈命令,計劃將 Anthropic 排除在政府供應商名單之外。這一舉動在行業內引發了劇烈震盪:
數十億損失風險:Anthropic 高層警告,被貼上“供應鏈風險”標籤已導致多家合作伙伴暫停合作,潛在損失可能高達數十億美元。
同行聲援:包括 Google DeepMind 首席科學家 Jeff Dean 在內的多名來自 OpenAI 和谷歌的員工已提交法律文書,支持 Anthropic 反抗政府禁令。
Anthropic 一直以“AI 安全”爲核心標籤,拒絕將其技術用於自主武器或政府監控。然而,這種堅持正使其面臨被踢出價值不菲的軍 事合同市場的困境。與此同時,競爭對手如微軟旗下的 OpenAI 技術已被證實正在接受五角大樓的測試,儘管其此前也曾有過類似的限制條款。
