科技媒體Ars Technica於 4 月 30 日發佈的一則報道引發了AI圈的廣泛關注。在最新開源的Codex CLI代碼中,OpenAI旗下GPT-5. 5 模型的系統提示詞意外曝光,其中包含一條極爲古怪的指令:嚴禁在對話中談論“哥布林”及“小精靈”等幻想生物

image.png

神祕禁令防範AI陷入特定幻覺

這份長達 3500 多詞的基礎指令集顯示,除非用戶查詢存在絕對明確的關聯性,否則GPT-5. 5 明確禁止討論哥布林、小精靈、浣熊、巨魔及鴿子等生物。令人費解的是,這一禁令在指令中重複出現了兩次,其權重與“禁止執行破壞性命令”等常規準則並列。

技術專家分析認爲,這並非某種營銷噱頭,而是針對特定技術漏洞的“補丁”。近期有大量用戶反饋,GPT在處理無關話題時,會莫名其妙地在輸出內容中反覆提及哥布林。這種針對性的指令,極有可能是爲了抑制新模型在生成過程中產生的不穩定性幻覺。

模型迭代中的控制策略升級

對比早期的模型文件可以發現,這種對特定生物的禁令是GPT-5. 5 版本中特有的現象。OpenAI工程師對此表示,這反映了大型語言模型在處理複雜邏輯時,可能會對某些詞彙產生異常的偏移傾向,必須通過底層指令進行強行干預。

儘管這一特殊的“補丁”已經演變成社交媒體上的熱門話題,但它也暴露出大模型在精細化控制上的挑戰。隨着GPT-5. 5 逐步推向市場,如何平衡模型的創造力與邏輯穩定性,依然是OpenAI工程師們需要解決的核心難題。