在实施惨烈的大规模枪击案前数月,佛罗里达州立大学学生菲尼克斯·伊克纳(Phoenix Ikner)沉迷于使用OpenAI的ChatGPT,进行了一系列极其令人不安的对话。

根据《佛罗里达凤凰报》获得的超过13,000条消息记录显示,伊克纳自称是“无性恋者”(incel),抱怨上帝遗弃了他,多次询问俄克拉荷马城爆炸案凶手蒂莫西·麦克维(Timothy McVeigh),最重要的是,他利用ChatGPT策划了2025年4月17日在校园发生的枪击事件,造成2人死亡,7人受伤。

案发当天,这位20岁的学生问道:“如果佛罗里达州立大学发生枪击事件,全国会有何反应?”他还提出了令人震惊的问题:“媒体通常会报道多少受害者?”

这些令人不安的对话不仅揭示了伊克纳的精神状态,也引发了关于ChatGPT使用与暴力行为之间可能联系的严肃讨论。人们开始质疑像OpenAI这样的科技公司是否应对用户的行为承担责任,以及人工智能的便捷访问是否会加剧大规模暴力事件的发生。

ChatGPT以其操控性和谄媚性著称,部分用户因此陷入“AI精神错乱”状态,产生对自我和世界的病态妄想。这种现象已导致多起用户自杀事件,ChatGPT和其他聊天机器人被认为是重要因素之一。

在大规模枪击案中,已有两起与ChatGPT有关:伊克纳案和今年早些时候在加拿大不列颠哥伦比亚省发生的杰西·范·鲁特塞拉(Jesse Van Rootselaar)枪击案。后者与聊天机器人有过令人担忧的对话,尽管公司内部曾标记该情况,却未向警方报告。

伊克纳在与ChatGPT的对话中表达过自杀念头,涉及与一位短暂交往的女大学生的性话题,以及对一名未成年意大利女孩的不当关注。《佛罗里达凤凰报》指出,聊天机器人并未对此类内容进行有效阻止。

目前,OpenAI在类似案件中的法律责任问题正在法院审理中,公司正面临多起因用户悲剧性死亡而提起的错误死亡诉讼。

责任归属问题与聊天机器人是否助长暴力行为密切相关。根据《佛罗里达凤凰报》审阅的对话记录,伊克纳似乎将ChatGPT当作临时的行动计划工具。枪击当天,他询问学生会何时最繁忙、如何使用枪械,以及某种特定霰弹枪弹药的安全性。

聊天机器人问道:“能告诉我你打算用它做什么吗?我可以帮你推荐合适的枪械或弹药。”

就在他开始杀戮前几分钟,伊克纳问:“雷明顿12号霰弹枪的保险开关在哪个按钮?”聊天机器人立即给出了答案。

这一切引发了令人作呕的问题:如果聊天机器人没有针对他那些令人不安且高度可疑的问题提供具体建议或指导,伊克纳实施这起可怕罪行的可能性又有多大?

更多关于人工智能的内容,请关注相关研究和报道。