OpenAI 推出了一个名为 GPT-5.4-Cyber 的新型人工智能模型,但目前它并未向普通 ChatGPT 用户开放。根据 OpenAI 周二发布的一篇博客文章,这款模型正限量提供给经过验证的网络安全测试人员。这些专家将对模型进行严格测试,以识别其潜在的漏洞和可能被绕过的安全缺陷,确保在向更广泛的公众发布之前提升模型的安全性。
OpenAI 表示,他们将利用测试人员的反馈来“了解不同模型的独特优势和风险,提高模型对绕过和其他对抗性攻击的抵抗力,并增强防御能力,同时减少潜在危害”。
此次模型发布是 OpenAI 加强“可信访问网络安全”计划的一部分,该计划允许经过认证的网络安全专业人士和机构提前使用模型,进行防御和预防工作。这种做法在网络安全领域非常普遍,随着 AI 技术的广泛应用,网络攻击者和防御者都开始借助 AI 工具,使得网络安全逐渐演变成 AI 对抗 AI 的局面。

在保护特定 AI 模型方面,开发公司普遍认为最新模型的能力极其强大,因此需要额外的安全措施。类似的思路也体现在 Anthropic 上周宣布的“Project Glasswing”计划中。Anthropic 的下一代模型 Claude Mythos Preview 据称功能强大,公司在一篇博客中透露,已经发现了“所有主流操作系统和网页浏览器中的安全漏洞”。
与 Anthropic 声称的全新模型 Claude Mythos Preview 不同,OpenAI 的 GPT-5.4-Cyber 是在现有 GPT-5.4 大型语言模型基础上的微调版本。该模型专注于网络安全领域,降低了安全任务的限制,意味着它在执行潜在风险较高的网络安全相关任务时,比普通 GPT-5.4 更加宽松。这一调整旨在让专家们观察模型是否会被恶意利用。
GPT-5.4-Cyber 的发布时机并非偶然,它是 OpenAI 与 Anthropic 之间持续竞争的最新篇章。今年以来,两家公司一直在争夺 AI 模型的领先地位,尤其是在政府和企业合同方面。Anthropic 率先推出了具备代理能力的 Claude Cowork 和 Code 工具,令传统科技公司及其股价受到冲击。OpenAI 则迅速通过改进 Codex 编程平台和模型,并关闭 AI 视频应用 Sora,集中资源应对竞争。


