隨着人工智能模型能力快速提升,AI安全問題日益凸顯。週三,專注於AI安全評估的公司Irregular宣佈完成8000萬美元新一輪融資,由紅杉資本和紅點創投領投,網絡安全公司Wiz首席執行官阿薩夫·拉帕波特也參與投資。知情人士透露,此輪融資對Irregular的估值達到4.5億美元。

前瞻性安全防護理念
"我們的觀點是,很快,大量的經濟活動將來自人與人工智能的互動以及人工智能與人工智能的互動,這將在多個方面打破安全體系,"聯合創始人丹·拉哈夫告訴TechCrunch。這一判斷反映了Irregular對AI時代安全挑戰的深刻洞察。
Irregular前身爲Pattern Labs,現已成爲AI評估領域的重要參與者。該公司的研究成果被廣泛應用於業界頂級模型的安全評估,包括Claude3.7Sonnet以及OpenAI的o3和o4-mini模型。更值得關注的是,該公司開發的模型漏洞檢測評估框架SOLVE已在行業內獲得廣泛應用。
創新模擬環境技術
雖然Irregular在現有模型風險評估方面已有豐富積累,但此次融資的核心目標更加宏偉:在風險和危險行爲真正出現之前就能預先發現並防範。公司構建了一套精密的模擬環境系統,能夠在模型發佈前進行密集測試。
"我們擁有複雜的網絡模擬環境,其中AI既扮演攻擊者角色,也扮演防禦者角色,"聯合創始人奧默·內沃解釋道,"當新模型推出時,我們就能提前知道哪些防禦措施有效,哪些無效。"
行業安全意識覺醒
隨着前沿AI模型潛在風險日益凸顯,安全已成爲整個AI行業的核心關切。OpenAI今年夏天全面改革其內部安全措施,以防範潛在的商業間諜活動,體現了頭部公司對安全問題的重視程度。
同時,AI模型在發現軟件漏洞方面的能力不斷增強,這對攻擊者和防禦者都帶來了嚴重影響。對於Irregular的創始人而言,這只是大型語言模型不斷增強功能所引發的衆多安全挑戰中的第一個。
安全與能力的賽跑
"如果前沿實驗室的目標是創造出越來越複雜、越來越強大的模型,那麼我們的目標就是確保這些模型的安全,"拉哈夫表示,"但這是一個不斷變化的目標,所以未來必然還有很多工作要做。"
這一表態清楚地勾勒出了AI安全領域的本質挑戰:這是一場AI能力提升與安全防護之間的持續競賽,需要前瞻性的技術創新和持續投入。
