谷歌於當地時間2月12日披露,旗下 AI 聊天機器人 Gemini 正遭遇大規模 “蒸餾攻擊”,攻擊者通過海量重複提問誘導模型泄露內部機制,其中單次攻擊的提示次數竟超10萬次,引發行業對大模型安全的高度關注。據悉,這類攻擊是通過反覆試探 Gemini 的輸出模式與邏輯,試圖探測其核心內部機制,最終實現克隆模型或強化自身 AI 系統的目的。

谷歌表示,攻擊主要由帶有商業動機的行爲者發起,幕後多爲尋求競爭優勢的 AI 私企或研究機構,攻擊源遍佈全球多個地區,不過谷歌並未披露更多嫌疑方信息。谷歌威脅情報小組首席分析師約翰・霍特奎斯特指出,此次攻擊規模釋放出危險信號,這類蒸餾攻擊或已開始向中小企業的定製 AI 工具領域蔓延。
他將谷歌的遭遇比作 “煤礦裏的金絲雀”,意味着大型平臺的安全危機,正預示着整個 AI 行業即將面臨的廣泛風險。谷歌強調,蒸餾攻擊本質上屬於知識產權盜竊,各大科技公司爲研發大語言模型已投入數十億美元,模型內部機制是核心專有資產。
儘管行業已部署識別和阻斷這類攻擊的相關機制,但主流大模型服務面向公衆開放的特性,使其從根本上仍難以規避此類風險。此次攻擊的核心目標是套取 Gemini 的 “推理” 算法,即其信息處理的核心決策機制。
霍特奎斯特發出警告,隨着越來越多企業訓練包含內部敏感數據的定製化大模型,蒸餾攻擊的潛在危害將持續擴大,甚至可能導致企業沉澱多年的商業思維和核心知識祕密,通過這類手段被逐步提取。
