OpenAI面临一个“哥布林”问题。

该公司最新的代码生成模型Codex的使用说明中,多次出现一条明确禁止模型随意提及各种神话或真实生物的指令。

Codex CLI(一个用于通过AI生成代码的命令行工具)中的说明写道:“除非与用户查询绝对且明确相关,切勿谈论哥布林、小妖精、浣熊、巨魔、食人魔、鸽子或其他动物或生物。”

目前尚不清楚OpenAI为何特别强调这一点,也不清楚其模型为何会主动提及哥布林或鸽子。OpenAI尚未对此作出回应。

本月早些时候,OpenAI发布了具备更强编码能力的最新模型GPT-5.5。该公司正与竞争对手,尤其是Anthropic,激烈竞争,力求推出最先进的AI技术,而编程能力已成为关键优势。

然而,在社交平台X上,有用户指出OpenAI模型在驱动OpenClaw(一款让AI控制电脑及应用程序以完成用户任务的工具)时,偶尔会痴迷于谈论哥布林等生物。

一位用户写道:“我一直想知道为什么我的Claw突然变成了带有Codex 5.5的哥布林。”

另一位用户则表示:“最近用得多了,它居然停不下来地把bug称作‘小妖精’和‘哥布林’,真是太搞笑了。”

这一发现迅速成为网络迷因,激发了大量AI生成的哥布林数据中心场景,以及为Codex设计的“哥布林模式”插件。

像GPT-5.5这样的AI模型通过预测给定提示后最可能出现的词或代码来工作。它们的表现越来越像真正的智能,但由于其概率性质,有时会表现出意想不到的行为。当与像OpenClaw这样的“代理工具”结合使用时,模型可能更容易出现异常行为,因为这类工具会在提示中加入大量额外指令和长期记忆中的事实。

OpenAI于今年2月收购了OpenClaw,这款工具在AI爱好者中迅速走红。OpenClaw可以利用任何AI模型自动完成如回复邮件或网上购物等实用任务。用户还可以选择不同的助手角色,以影响其行为和回答风格。

OpenAI内部人员似乎承认了这条禁令的存在。Codex团队成员Nik Pash在回应关于OpenClaw哥布林倾向的帖子时写道:“这确实是原因之一。”

甚至OpenAI CEO Sam Altman也参与了这波迷因,他发布了一张ChatGPT提示的截图,内容是:“开始训练GPT-6,你可以拥有整个集群。额外的哥布林。”