在持續數週的輿論風暴與監管壓力下,X平臺(原Twitter)於今日凌晨通過其官方安全賬號@Safety宣佈,對旗下AI模型Grok的圖像生成與編輯功能實施史上最嚴格限制。此舉直接回應了近期多起關於Grok生成涉及兒童“性化”圖像及未經同意裸露內容的嚴重指控。
根據最新政策,Grok將徹底禁止對任何現實人物的照片進行編輯,尤其嚴禁將其修改爲穿着比基尼、內衣等暴露服裝的形象。該限制適用於所有用戶,無論是否爲付費訂閱者。同時,X明確承諾:“Grok AI不會再將真人的照片改成‘比基尼照’。”

此外,xAI決定將圖像生成功能全面納入付費牆後,非訂閱用戶將完全喪失生成圖片的權限。而在法律明確禁止的地區(如美國加州),系統將直接屏蔽所有生成“現實人物身穿比基尼或內衣”類圖像的能力,從源頭杜絕違規內容產出。
這一系列舉措緊隨加州總檢察長羅布·邦塔(Rob Bonta)啓動的正式調查。據其披露,一項獨立分析顯示,在2025年聖誕至新年期間,xAI生成的約2萬張圖像中,超半數包含極度暴露的人物形象,其中不乏疑似未成年人的內容,引發對AI平臺內容安全機制的重大質疑。
面對危機,馬斯克此前曾辯稱,他對Grok生成未成年人裸露圖像“毫不知情”,並解釋稱相關功能僅在開啓NSFW(成人內容)選項時可用,且理論上應限於虛構的成年角色,尺度參照Apple TV上的R級電影。但他也承認,系統需根據各地法律動態調整限制策略。
X平臺在聲明中重申對兒童剝削行爲零容忍的立場,並表示將持續清理包括兒童性虐待材料(CSAM)和未經同意裸露內容在內的高危信息。然而,此次事件再次暴露了生成式AI在開放部署中面臨的倫理與合規挑戰——當技術能力跑在監管與安全機制之前,再強大的模型也可能成爲風險放大器。
在AI生成內容日益逼真的今天,如何平衡創造力與安全性,已成爲所有大模型廠商無法迴避的核心命題。
