加拿大坦布勒岭枪击事件震惊全国,OpenAI迅速采取了一系列赔偿措施。然而,法律和技术专家对此并不买账。学者让-克里斯托夫·贝利斯勒-皮蓬指出,OpenAI CEO萨姆·奥特曼向加拿大政府作出的安全承诺,实际上是用企业监控取代了民主监管。
这名18岁的枪手杰西·范·鲁滕纳尔在事件发生前数月,其ChatGPT账号因发布与枪支暴力相关的内容被标记并封禁。尽管账号被禁,OpenAI并未将这一威胁报告给执法部门,最终导致了8人死亡的惨剧。
OpenAI的新措施:建立警方与企业的“直接联系”
作为回应,OpenAI承诺采取以下行动:

- 直接报告:立即向加拿大皇家骑警(RCMP)报告威胁信息。
- 事后复查:重新评估之前被标记的可疑账号。
- 专家参与:允许加拿大专家进入其安全办公室,协助政府制定监管建议。
专家担忧:“监控替代”陷阱
贝利斯勒-皮蓬教授在文章中尖锐指出,OpenAI回避了对模型设计和训练方法的审查,转而加强对用户言论的监控。
- 责任真空:报告标准仍由OpenAI私下制定,缺乏透明度和外部审计。
- 寒蝉效应:研究显示,用户愿意向聊天机器人倾诉是因为其隐私保护。如果对话成为警方监控的直接渠道,处于心理危机、需要帮助的脆弱用户可能选择沉默,错失干预机会。
- 监管俘获:这种“自愿让步”可能是为了预判并削弱更严格的法律监管。
治理的真正方向:从用户转向系统
批评者认为,真正的AI监管不应仅监控发言者,而应审视系统本身。例如:
- 独立评估机构:由心理健康和法律专家组成的第三方机构评估风险,而非由企业自行决定。
- 模型层面问责:检查模型如何应对暴力倾向的披露,以及开发阶段进行了哪些压力测试。
随着OpenAI积极寻求与全球政府合作,坦布勒岭事件正成为一个分水岭:我们是在获得更安全的技术,还是被私营企业运营的数字监控网络所包围?


