OpenAI 最近对 Sora 视频生成 API 进行了重要更新,正式推出基于 Sora 2 模型的五大核心能力升级。这些改进主要解决了批量视频制作中的关键难题,如角色一致性、视频时长和多格式适配,显著提升了开发者和内容创作者的扩展效率。

此次更新最重要的改进是支持角色一致性。此前,使用 API 批量生成视频时,同一主角在不同场景中常出现面部特征、服装和道具的视觉漂移。现在,开发者可以预先上传或定义“角色档案”(包括外貌、服装、配饰等),模型将在后续多个片段中自动复用该参考,确保镜头和场景间的视觉连续性。这一功能大幅降低了后期编辑成本,尤其适用于广告、短剧和系列内容等需要保持主角形象统一的场景。

视频时长也由之前的最大12秒或16秒提升至20秒,允许创作者一次生成更完整的叙事片段或动态镜头,避免频繁拼接带来的画质损失和风格断层。同时,API 新增视频续写功能,可基于已有片段自然延续生成,进一步支持更长篇幅的叙事构建。

在输出格式方面,单个任务现可同时生成两套1080p素材:16:9横屏(适合YouTube和PC端)和9:16竖屏(兼容TikTok及短视频平台),无需二次裁剪或重渲染,极大简化了多平台分发流程。

此外,更新还强化了批量 API 的异步批处理支持,适用于大规模离线渲染队列、工作室流水线或自动化生产流程。

更多详情请访问 OpenAI 官方文档。