在AI能力指數級躍升、安全風險日益凸顯的背景下,OpenAI正以高規格姿態填補其安全體系的關鍵拼圖。公司近日在官網發佈“Preparedness 負責人”(Preparedness Lead)高級職位招聘信息,年薪起點高達55萬美元,並配發股權,隸屬於Safety Systems(安全系統)部門。該崗位將直接參與前沿AI模型的產品發佈決策,被CEO Sam Altman 親自稱爲“關鍵時期的關鍵角色”。

“Preparedness”:專爲應對AI“黑天鵝”而設
“Preparedness”(準備度/防備能力)是OpenAI近年來構建的核心安全機制之一,旨在系統性評估與防禦大模型可能引發的極端風險,包括但不限於:
- 模型被濫用於生物、網絡或化學攻擊;
- 自主智能體失控或策略欺騙;
- 社會級操縱與大規模虛假信息生成。
該崗位負責人需制定技術戰略、設計壓力測試框架、運行紅隊演練,並對模型是否具備“安全上線”條件出具權威評估,擁有一票否決權。
高層直接管轄,地位空前
值得注意的是,該職位將直接向OpenAI安全系統高層彙報,並與模型研發、產品、政策團隊深度協同。此前,該職能由知名AI安全專家Aleksander Madry(曾任MIT教授,現爲OpenAI VP)等臨時牽頭,但目前尚無常任主管,凸顯其職責之重與人選之難。
Sam Altman在內部信中強調:“隨着我們逼近更強大的AI能力,確保我們‘準備好’比以往任何時候都更重要。這不是一個支持角色,而是塑造公司未來走向的核心崗位。”
行業信號:AI安全從“合規”走向“戰略制高點”
55萬美元起的薪酬,已遠超普通安全工程師水平,接近OpenAI研究科學家與產品高管層級。這反映出AI行業對“主動防禦型安全人才” 的極度渴求——安全不再僅是事後審查,而是前置到研發源頭的戰略能力。
與此同時,Anthropic、Google DeepMind等公司也相繼設立類似“AI災難防控”或“極端風險評估”團隊,預示AI安全正從技術分支升級爲獨立戰略支柱。
AIbase觀察:誰掌控“AI剎車”,誰就定義AI未來
在大模型競賽從“誰更快”轉向“誰更穩”的當下,OpenAI此舉釋放明確信號:最頂尖的AI公司,不僅要造得出超級智能,更要管得住它。而Preparedness負責人的設立,本質上是在爲AGI(通用人工智能)的到來安裝“緊急制動系統”。
當一份年薪55萬美元的工作,職責是防止AI毀滅世界——這或許正是這個時代最富戲劇性,也最不可或缺的崗位。
