GPT-5.4 mini

日本OpenAI于18日推出了高性能小型模型“GPT-5.4 mini”和“GPT-5.4 nano”。这两款模型在保持低成本的同时,具备出色的响应速度,其中nano版本专为对速度和成本要求极高的任务设计。

在ChatGPT中,免费用户和Go用户可以通过“+”菜单中的“Thinking”选项使用GPT-5.4 mini。对于非免费版及非Go用户,当GPT-5.4 Thinking达到速率限制时,将自动切换至GPT-5.4 mini。GPT-5.4 nano仅通过API提供,费用为每百万输入令牌0.20美元,每百万输出令牌1.25美元。

GPT-5.4 mini在编码、推理、多模态理解及工具使用等领域相比前代GPT-5 mini有显著提升,运行速度提升超过两倍。在SWE-Bench Pro和OSWorld-Verified等基准测试中,其性能接近GPT-5.4系列的其他模型。

应用场景

此外,GPT-5.4 mini特别强调低延迟响应,适合对响应速度有直接影响的工作负载。例如,编码助手、快速完成辅助任务的子代理、截图捕捉与解析的计算机操作系统,以及能够实时推理图像的多模态应用等。该模型能够快速响应,准确使用工具,并在复杂专业任务中表现优异。

GPT-5.4 nano

GPT-5.4 nano则是GPT-5.4系列中体积最小、速度最快的版本,性能较GPT-5 nano有大幅提升。它在分类、数据提取和排序等任务中表现出色,特别适合处理相对简单的辅助任务,如子代理的应用场景。