OpenAI 首席執行官 Sam Altman 近日在開發者交流中發出嚴厲警告,稱 AI 代理的強大功能與極高便利性,正誘使人類在缺乏安全基礎設施的情況下賦予其過高控制權。奧特曼甚至以身說法,承認自己曾下定決心限制權限,卻在短短兩小時後便因“代理看起來很靠譜”而違背初心,賦予了模型對其計算機的完全訪問權限。他擔心這種“人生苦短、及時行樂”的盲目信任,會使社會“夢遊般”地陷入潛在的災難性危機。

針對安全真空,奧特曼指出全球性安全基礎設施的缺失是當前的致命傷。 隨着模型能力的指數級增長,安全漏洞或兼容性問題可能潛伏數月而不被察覺。他認爲,這種信任與風險的不對稱性,恰恰爲創業者留下了巨大的機會點——建立“全局安全基礎設施”已成爲當務之急。此前,已有 OpenAI 開發者表達過類似擔憂,認爲企業若因追求效率而讓 AI 全權接管代碼庫,可能會導致對核心資產失去控制,引發嚴重的安全違約。

ChatGPT OpenAI  人工智能 (1)

在產品策略上,奧特曼揭示了 GPT-5的研發取向:以“文采”換“邏輯”。 他坦言,相比於 GPT-4.5,GPT-5在文學寫作和編輯潤色方面甚至出現了“退步”。這主要是因爲研發重心已全面轉向推理能力、邏輯構建與代碼實現。儘管如此,他依然堅持未來屬於強大的通用模型,目標是讓即使專注於編碼的模型,最終也能具備優雅的寫作能力,實現邏輯與感性的平衡。

與此同時,OpenAI 內部正在經歷一場管理理念的變革,計劃首次放緩員工增長速度。 奧特曼表示,公司希望用更精簡的人手完成更多工作,避免因盲目擴張而陷入“發現 AI 能勝任大部分工作”後的裁員尷尬。雖然外界有批評聲音認爲這是奧特曼在利用 AI 敘事來對衝不斷飆升的人力成本,但這確實反映出 AI 領軍企業正在試圖通過自身實踐,探索 AI 時代的“高人效”組織模式。

這種“模型增效、人員減速”的信號,折射出 AI 行業正從野蠻生長轉向精耕細作。 奧特曼的警告不僅是對用戶的提醒,也是對行業激進現狀的降溫。他強調,在邏輯與推理能力突飛猛進的同時,人類必須保持警惕,不能因爲 AI 的低故障率而忽視那萬分之一的毀滅性可能。這種在“極速進化”與“審慎控制”之間的掙扎,將成爲 OpenAI 乃至整個 AI 行業在2026年的主旋律。