OpenAI于周二宣布推出一套面向开发者的提示语,旨在帮助他们打造更安全的青少年应用。该AI实验室表示,这套名为“青少年安全政策”的开源提示语可配合其开放权重安全模型gpt-oss-safeguard使用。
开发者无需从零开始探索如何保障青少年使用AI的安全,可以利用这些提示语强化其应用的安全性。内容涵盖了暴力和性内容、危害身体健康的理想与行为、危险活动和挑战、浪漫或暴力角色扮演,以及限制年龄的商品和服务等方面。
这些安全政策以提示语形式设计,便于与除gpt-oss-safeguard外的其他模型兼容,尽管在OpenAI生态系统内效果最佳。
OpenAI表示,制定这些提示语时,与AI安全监督机构Common Sense Media和everyone.ai进行了合作。
Common Sense Media的AI与数字评估负责人Robbie Torney表示:“这些基于提示语的政策为整个生态系统设定了有意义的安全底线,且作为开源发布,能够随着时间不断适应和改进。”

OpenAI在其博客中指出,即使是经验丰富的开发团队,也常常难以将安全目标转化为具体可操作的规则。
公司写道:“这可能导致保护漏洞、执行不一致或过度过滤。明确且范围适当的政策是有效安全系统的关键基础。”
OpenAI承认,这些政策并非解决AI安全复杂挑战的万能方案,但它们是基于此前的努力,包括产品级别的家长控制和年龄预测功能。去年,OpenAI更新了其大型语言模型的指导方针(称为Model Spec),以规范AI模型与18岁以下用户的互动行为。
然而,OpenAI自身的记录并不完美。公司正面临多起诉讼,这些诉讼由因过度使用ChatGPT而导致自杀的用户家属提起。这些危险的依赖关系往往发生在用户突破聊天机器人的安全防护后,而没有任何模型的防护措施是绝对牢不可破的。尽管如此,这些政策至少是向前迈出的一步,尤其能帮助独立开发者提升青少年安全保护水平。


