近日,随着 OpenAI 旗下 Codex CLI 代码的最新开源,关于下一代 AI 模型 GPT-5.5 的部分底层运行逻辑浮出水面。据科技媒体 Ars Technica 披露,在泄露的系统提示词(System Prompt)中,出现了一项极为罕见的指令:严禁模型在没有明确关联的情况下提及“哥布林”等特定生物。

在这份长达 3500 多个单词的基础指令集中,OpenAI 明确要求 GPT-5.5 在与用户交流时,除非查询内容存在绝对且必要的联系,否则必须回避讨论哥布林(goblins)、小精灵(gremlins)、浣熊(raccoons)、巨魔(trolls)、食人魔(ogres)以及鸽子(pigeons)。值得注意的是,这一禁令在文档中重复出现了两次,其优先级甚至与“禁止执行破坏性命令”和“禁用表情符号”等核心规范并列。

通过对比历史版本的技术文件可以发现,这种针对特定生物的讨论禁令在早期模型中从未出现。业界分析认为,这并非某种营销噱头,而是针对新模型“幻觉”问题的定向修补。近期,社交平台上已有不少用户反馈,称其在使用 AI 进行不相关对话时,模型会莫名其妙地输出大量关于“哥布林”的内容,这种逻辑偏移严重影响了交互体验。

针对这一现象,相关工程人员表示,这属于针对性技术干预,旨在解决模型在生成控制上的不稳定性。尽管禁令涉及的生物名单看起来有些随机,但它揭示了大模型在进化过程中,依然面临着难以预测的输出偏差挑战。通过在系统底层设置“防撞墙”,开发团队正试图让 AI 的逻辑表达更加聚焦与可控。