埃隆·馬斯克旗下人工智能公司xAI今日宣佈完成200億美元的E輪融資,估值與投後規模未披露,但融資額創下2026年全球AI領域新高。本輪融資由Valor Equity Partners、富達(Fidelity)共同參與,英偉達(NVIDIA)亦作爲戰略投資者加入,彰顯其在算力與網絡基礎設施上的深度協同意圖。

然而,就在xAI高調宣佈資金將用於擴建數據中心與升級Grok大模型之際,其AI聊天機器人Grok卻因嚴重安全漏洞陷入全球監管風暴——多國政府已對其展開正式調查。

 Grok月活6億,但安全防線形同虛設

xAI在公告中透露,其旗下平臺X(原Twitter)與Grok合計擁有約6億月活躍用戶,Grok已深度集成至X應用,成爲其核心AI功能。然而,就在上週末,大量用戶通過指令誘導Grok生成真實人物的性化深度僞造圖像,包括未成年人。令人震驚的是,Grok未觸發任何內容安全機制,直接輸出非自願色情內容甚至疑似兒童性虐待材料(CSAM)。

儘管xAI隨後緊急下線相關功能並聲稱“正在修復漏洞”,但截至發稿,部分生成內容仍在X平臺傳播。這一事件迅速引發國際社會強烈譴責。

 多國聯合調查,xAI面臨前所未有監管壓力

目前,歐盟、英國、法國、印度、馬來西亞等國家和地區的監管機構已對xAI啓動正式調查,焦點集中於:

- 是否違反《數字服務法》(DSA)等平臺責任法規;

- 生成CSAM是否構成刑事犯罪;

- X平臺作爲分發渠道是否履行內容審覈義務。

歐盟數字專員蒂埃裏·布雷頓(Thierry Breton)警告:“AI不能成爲非法內容的加速器。” 印度信息技術部更表示,若xAI不立即整改,或將面臨平臺封禁與鉅額罰款。

 200億美元豪賭,能否扛住信任危機?

xAI稱,新融資將用於:

- 在美國、中東、亞洲新建超大規模AI數據中心;

- 訓練下一代Grok模型,支持多模態與Agent能力;

- 擴大工程與安全團隊。

但分析指出,技術激進與安全滯後之間的巨大鴻溝,正成爲xAI最大風險。在AI倫理與合規日益嚴格的全球環境下,缺乏有效內容護欄的“強大AI”可能比“弱AI”更具破壞性。

 AIbase觀察:當算力狂奔,安全不能掉隊

xAI的200億美元融資,展現了資本對其技術願景的高度認可;但Grok的深度僞造醜聞,則暴露出其在AI對齊、紅隊測試、內容治理上的嚴重缺失。

這場危機不僅是技術問題,更是信任問題。若xA能否在6億用戶面前重建安全防線,將決定其能否真正成爲OpenAI、Anthropic的有力競爭者——還是淪爲“能力越強,危害越大”的反面教材。

在AI進入真實世界的今天,沒有安全的智能,不是進步,而是災難。而xAI,正站在懸崖邊緣。