时间:2026年4月30日
地点:美国旧金山
人物:OpenAI、GPT-5.5模型、科技媒体Ars Technica
事件详情:2026年4月30日,科技媒体Ars Technica披露,OpenAI最新开源的Codex CLI代码中包含GPT-5.5模型的系统提示词。该提示在3500余词的指令集中两次明确禁止讨论哥布林、小精灵、浣熊、巨魔、食人魔和鸽子等生物,且仅限于与用户查询无明确关联时生效。这一禁令在指令中重复出现两次,优先级与禁止执行破坏性命令、禁用表情符号等核心安全规范并列。
背景:系统提示词是大模型的基础指令集,定义了模型的行为边界和输出规范。此前,OpenAI的Codex CLI代码开源项目中意外包含了GPT-5.5的系统提示词JSON文件。对比同一文件中早期模型的系统提示,并未发现类似的对特定生物的禁令,这表明该描述是GPT-5.5最新版本中特有的现象。社交媒体上的大量用户反馈显示,GPT在处理完全无关的话题时,会莫名其妙地聚焦于哥布林等奇幻生物。
影响:
- 暴露了大模型在生成控制上的不稳定性,需要底层指令干预
- 引发业界对AI模型幻觉问题的关注,特别是特定主题的异常偏移
- 显示出大模型训练过程中的奖励机制可能导致意外的输出倾向
- OpenAI工程师Nick Pash证实这不是营销噱头,而是技术修复措施
- 社区对这一独特的"漏洞"展开广泛讨论,成为热门话题
总结:GPT-5.5系统提示词的意外曝光,揭示了大模型在训练和生成过程中的一个有趣现象。模型在训练过程中可能因为奖励机制的设置,导致对某些主题产生异常偏好,如频繁提及哥布林等奇幻生物。OpenAI通过在系统提示词中明确禁止这些内容,展示了AI公司如何通过底层指令来控制和修正模型行为。这一事件不仅引发了技术社区的广泛讨论,也反映出大模型开发过程中的复杂性和挑战性。
参考来源:
- https://www.ithome.com/0/844/163.htm
- https://readhub.cn/topic/8skEaig2EVW
- https://new.qq.com/rain/a20260430A0504H00
- https://finance.sina.com.cn/tech/digi/2026-04-30/doc-inhwhenm1325389.shtml
- https://www.donews.com/news/detail/8/6537921.html






