近日,隨着 OpenAI 旗下 Codex CLI 代碼的最新開源,關於下一代 AI 模型 GPT-5.5 的部分底層運行邏輯浮出水面。據科技媒體 Ars Technica 披露,在泄露的系統提示詞(System Prompt)中,出現了一項極爲罕見的指令:嚴禁模型在沒有明確關聯的情況下提及“哥布林”等特定生物。
在這份長達 3500 多個單詞的基礎指令集中,OpenAI 明確要求 GPT-5.5 在與用戶交流時,除非查詢內容存在絕對且必要的聯繫,否則必須迴避討論哥布林(goblins)、小精靈(gremlins)、浣熊(raccoons)、巨魔(trolls)、食人魔(ogres)以及鴿子(pigeons)。值得注意的是,這一禁令在文檔中重複出現了兩次,其優先級甚至與“禁止執行破壞性命令”和“禁用表情符號”等核心規範並列。
通過對比歷史版本的技術文件可以發現,這種針對特定生物的討論禁令在早期模型中從未出現。業界分析認爲,這並非某種營銷噱頭,而是針對新模型“幻覺”問題的定向修補。近期,社交平臺上已有不少用戶反饋,稱其在使用 AI 進行不相關對話時,模型會莫名其妙地輸出大量關於“哥布林”的內容,這種邏輯偏移嚴重影響了交互體驗。
針對這一現象,相關工程人員表示,這屬於針對性技術干預,旨在解決模型在生成控制上的不穩定性。儘管禁令涉及的生物名單看起來有些隨機,但它揭示了大模型在進化過程中,依然面臨着難以預測的輸出偏差挑戰。通過在系統底層設置“防撞牆”,開發團隊正試圖讓 AI 的邏輯表達更加聚焦與可控。
