面對日益嚴峻的人工智能安全挑戰,OpenAI 正式發佈高管招聘啓事,尋找一位年薪高達55.5萬美元(另加股權)的“準備主管”(Head of Preparedness)。該職位將直接負責執行公司的準備框架,監控並應對可能造成嚴重危害的新前沿 AI 能力。
核心使命:從網絡安全到心理健康
OpenAI 首席執行官 Sam Altman 在社交平臺 X 上坦言,AI 模型已開始帶來“真正的挑戰”。他指出,模型在計算機安全領域表現卓越,甚至開始發現關鍵漏洞,這不僅能增強防禦,也可能被攻擊者利用。此外,Altman 特別強調了模型對心理健康的潛在影響。

該職位的職責範圍極其廣泛,包括:
網絡安全防禦: 確保尖端能力服務於防禦者而非攻擊者,提升系統整體安全性。
生物能力監管: 監控 AI 在生物領域的應用風險。
系統自我改進: 確保具備自我改進能力的運行系統處於安全受控狀態。
心理健康審查: 應對近期針對 ChatGPT 的法律指控,包括模型可能加劇用戶社會孤立、強化妄想甚至誘發極端行爲等問題。
組織動盪與框架調整
OpenAI 早在2023年就成立了應急準備小組,旨在研究從網絡釣魚到核威脅等“災難性風險”。然而,該部門近期經歷了頻繁的人事變動:原負責人 Aleksander Madry 不到一年便被調往 AI 推理崗位,多位安全高管也相繼離職或轉崗。
值得注意的是,OpenAI 最近更新了其“準備框架”。新規定顯示,如果競爭對手發佈了缺乏同等保護措施的“高風險”模型,OpenAI 可能會爲了保持競爭力而“調整”自身的安全要求。
面對現實挑戰
針對心理健康方面的爭議,OpenAI 表示正在努力改進 ChatGPT 識別用戶情緒困擾的能力,並致力於將受影響用戶與現實世界的支持系統聯繫起來。
