昨天,OpenAI发布了一篇关于其“社区安全承诺”的博客文章,语气温和,内容看似令人安心。文章声明“校园枪击、对公职人员的威胁、炸弹袭击企图以及对社区和个人的攻击是当今世界不可接受且严重的现实”,这无疑是真实的。文章还反思了“暴力意图如何迅速从言语转化为行动”,并提到人们可能会“将这些时刻和情绪带入ChatGPT”,OpenAI正训练该产品“识别假设性暴力与迫在眉睫的暴力之间的区别”,并“在对话开始涉及威胁、潜在伤害他人或现实世界计划时划清界限”。此外,OpenAI表示正在扩展保护措施,“帮助ChatGPT更好地识别不同情境下的细微风险信号”,并解释会根据用户与服务的互动“在适当情况下提供现实世界的支持并向执法部门报告”。
乍看之下,缺乏背景的读者可能会认为公司谈论的是仍处于理论阶段的担忧,即主动防范可能发生的不良事件。
然而,这种说法极为奇怪,因为事实是OpenAI的旗舰聊天机器人已经与多起现实暴力事件有关联。
事实上,OpenAI未提及的最重要背景是,这篇博客几乎肯定是因为媒体,包括Futurism,在联系公司就其面临的七起诉讼请求评论时发布的。这些诉讼来自加拿大不列颠哥伦比亚省Tumbler Ridge二月校园枪击案受害者家属,诉讼将在次日公开。
虽然博客未提及,Tumbler Ridge枪手是ChatGPT用户。悲剧发生数周后,《华尔街日报》披露,早在2025年6月,OpenAI的自动审核工具就因枪手账户中涉及枪支暴力的详细描述而发出警报。人工审核员极为担忧,曾推动OpenAI领导层通知当地执法部门,但领导层选择未报警,仅停用了该账户。OpenAI后来承认,枪手随后开设了新账户——这是OpenAI客服在账户停用后鼓励用户采取的做法——并继续使用服务。
约八个月后,枪手先在家中杀害母亲和继兄弟,随后携带改装步枪进入Tumbler Ridge中学,杀害五名学生和一名教师,另有二十多人受伤。被害学生年龄均为12至13岁。
更糟糕的是,Tumbler Ridge的惨案并非ChatGPT关联的唯一大规模枪击事件。
佛罗里达州调查人员最近对ChatGPT展开刑事调查,涉及2025年4月佛罗里达州立大学枪击案,造成两死多伤。由《佛罗里达凤凰报》获得的聊天记录显示,时年20岁的嫌疑人Phoenix Ikner与ChatGPT讨论大规模暴力,询问俄克拉荷马城爆炸案凶手Timothy McVeigh是否“正确”,是否认为佛州枪击事件会登上新闻,甚至在最终杀人前请求ChatGPT帮助关闭枪械安全装置,AI据称提供了详细指导。

除了暴力内容,Ikner的聊天记录还显示其自称“单身狗”和“丑陋”,描述与未成年人的性行为,并表达对其他男性的怨恨。整体来看,他的ChatGPT对话不仅是思想的容器,更是他形成暴力念头时的活跃对话伙伴。
类似案例还包括:2025年初,一名陷入困境的士兵策划卡车爆炸案时求助ChatGPT;最近,另一名佛州疑犯据称向ChatGPT寻求处理尸体的帮助;去年夏天,《华尔街日报》发现的聊天记录显示,康涅狄格州一名中年男子在ChatGPT的支持下,坚信与其同住的年迈母亲监视并试图毒害他,最终他杀害母亲后自杀。
此外,Futurism和Rolling Stone报道了ChatGPT强化的妄想如何助长现实中的骚扰、家庭暴力和跟踪行为。ChatGPT及其用户之间极为亲密的关系还与多起青少年和成年人自杀事件有关。
上周五,OpenAI CEO Sam Altman向Tumbler Ridge社区道歉,称“深感抱歉未能在6月停用账户时通知执法部门”。
但昨天的博客未提及Tumbler Ridge事件,也未提及任何与ChatGPT相关的具体暴力事件,甚至未承认ChatGPT已与现实暴力及其助长暴力思想的能力有关联,只是笼统表示人们可能会用ChatGPT讨论暴力。
博客还称,公司有一套系统评估“案件是否存在潜在严重现实伤害的指标”,并可能在“心理健康和行为专家”的协助下将情况上报相关部门。尽管涉及潜在犯罪信息与执法部门共享时存在真实的隐私担忧,OpenAI尚未公布更多关于该系统的细节,但表示将在“未来几周”分享更多关于识别“长时间高风险对话中细微预警信号”的努力。
文章最后承诺将“学习、改进并纠正方向”,但读者需另寻他处才能了解背后的原因。


