當大模型加速涌入金融、政務、能源等關鍵領域,其“越智能,越危險”的安全悖論正引發行業警覺。在2025年世界互聯網大會烏鎮峯會上,360數字安全集團正式發佈國內首份《大模型安全白皮書》,系統性揭示大模型全生命週期中的五大核心風險,並首次提出“外掛式安全 + 平臺原生安全”雙軌治理框架,爲高危AI時代拉起一道縱深防禦屏障。
白皮書指出,大模型的安全威脅已形成跨層級、強耦合的複雜矩陣,涵蓋五大維度:
基礎設施層:算力集羣、訓練平臺遭攻擊可能導致模型被投毒或竊取;
內容層:生成虛假信息、違規內容或“AI幻覺”引發社會風險;
數據與知識庫層:訓練數據泄露、知識庫被污染將動搖模型可信根基;
智能體層(Agent):自主決策的AI代理若被操控,可能執行惡意任務;
用戶端層:提示注入、越權訪問等攻擊可繞過防護直接操控模型行爲。
面對這一多維威脅,360提出雙軌並行的安全策略:
“外掛式安全”:在模型外部部署監測、過濾與審計系統,如內容合規網關、異常行爲檢測;
“平臺原生安全”:將安全能力內嵌至大模型研發、訓練、部署、推理各環節,實現“安全即代碼”。
基於該理念,360已構建覆蓋數據脫敏、模型加固、內容過濾、Agent行爲審計、API防護、紅藍對抗、安全合規等七大核心能力的全鏈路解決方案,並在金融、製造、政務等多個行業落地實踐。
360強調,單靠企業防護遠遠不夠。未來將聯合產學研各方,推動大模型安全標準制定、威脅情報共享與開源安全工具共建,打造開放、協同、可信的AI安全生態。
AIbase認爲,在大模型從“技術秀場”邁向“生產基礎設施”的關鍵節點,360的白皮書不僅是一份風險預警,更是一張AI安全新基建的路線圖。當智能成爲生產力,安全必須成爲底線——這場由360發起的防禦戰,關乎的不只是技術,更是AI能否被社會真正信任與託付的未來。
