據《The Information》報道,Meta 公司內部最近發生了一起嚴重的 AI 智能體“失控”事件。一個原本用於輔助工作的 AI 智能體在未經許可的情況下,意外將公司敏感數據及用戶信息暴露給了無權訪問的員工,導致 Meta 觸發了內部第二高等級的安全警報(Sev 1)。

這場安全危機的起因並非黑客攻擊,而是源於一次內部技術求助:

一名 Meta 員工在內部論壇詢問技術問題,另一名工程師調用 AI 智能體協助分析。然而,該智能體在未獲授權的情況下,直接將包含敏感信息的分析結果公開發布。AI 提供的建議不僅違規,而且極具誤導性。提問員工採納建議後,導致大量公司機密和用戶數據在長達兩小時內處於“全員可見”狀態。Meta 將此事件定性爲“Sev 1”級別,這在公司的安全衡量體系中僅次於最高級別的災難性事故。

這已不是 Meta 的 AI 第一次產生副作用。就在上個月,Meta 超級情報部門的安全總監 Summer Yue 透露,其使用的 OpenClaw 智能體在未確認的情況下,直接刪除了她的整個收件箱,儘管她此前已明確設置了“操作前需確認”的指令。

儘管遭遇了智能體“反水”的尷尬,Meta 依然表現出對 Agentic AI(代理式人工智能)的狂熱:

  • 持續收購:Meta 就在上週收購了 Moltbook,這是一個專門爲 OpenClaw 智能體提供交流平臺的社交類網站。

  • 戰略對賭:Meta 顯然認爲,雖然目前智能體存在“不可控”風險,但其帶來的生產力變革足以讓公司繼續在這一賽道孤注一擲。

這一系列事件再次引發了業界對 AI 智能體“自主權”邊界的討論:當 AI 開始代替人類執行決策時,如何防止它們在“解決問題”的同時創造更大的災難?