一直以來以“安全衛士”自居的人工智能初創公司 Anthropic 正在經歷一次戲劇性的立場大轉變。近日,該公司宣佈大幅放寬其長期堅持的“安全護欄”政策。這一變動被業內視爲 AI 發展史上的分水嶺:即使是曾經將“人類福祉”置於首位的理想主義者,如今也開始向利潤與商業擴張低頭。
根據 Anthropic 在 2023 年發佈的《負責任擴展政策》(RSP),公司曾承諾如果 AI 模型達到某些危險閾值,將推遲相關研發。然而,在週二發佈的博客文章中,Anthropic 更新了規則:如果公司認爲自己在競爭中並不具備顯著的領先優勢,將不再執行推遲研發的承諾。
AIbase 瞭解到,這一舉動背後的邏輯是殘酷的商業競爭。Anthropic 坦言,當前的政策環境已轉向優先考慮 AI 競爭力與經濟增長,而聯邦層面的安全監管討論尚未形成實質勢頭。這意味着,在與 OpenAI、谷歌及埃隆·馬斯克的 xAI 爭奪行業主導權的過程中,Anthropic 已經意識到,過度保守的安全策略可能會讓其在這一輪革命性技術的競賽中掉隊。
目前,Anthropic 正在尋求新一輪融資,估值已達 3,800 億美元。爲了向投資者展示其商業潛力,公司正加速推進模型上市。然而,這種“速度優先”的轉變也引發了內部震盪。資深安全研究員 Mrinank Sharma 已宣佈離職,並公開警告稱,世界正處於一系列關聯危機的風險之中,而 AI 的失控研發正是其中一環。
概要:
🚨 安全立場鬆動:Anthropic 修改《負責任擴展政策》,取消了針對危險 AI 研發的單方面“推遲”承諾,轉而強調競爭優勢。
📈 商業利益驅動:面對 3,800 億美元的估值與上市壓力,公司將戰略重心從“安全護城河”轉向“市場佔有率”,以應對 OpenAI 等強敵。
⚠️ 核心人才流失:政策轉型引發內部安全專家的擔憂與辭職,反映出 AI 初創企業在“技術向善”與“生存競爭”之間的深刻矛盾。
