← 返回

加拿大枪击案嫌犯使用OpenAI聊天工具引争议

加拿大图姆本岭市枪击案18岁嫌疑人杰西·范·鲁特塞拉尔通过OpenAI的ChatGPT进行枪支暴力相关对话,2025年6月已被系统标记为违规。OpenAI内部曾就是否报警产生分歧但未采取行动,事件发生后才与加拿大警方联系。嫌犯还在Roblox平台制作模拟商场枪击游戏,并在Reddit讨论枪支。

加拿大枪击案嫌犯使用OpenAI聊天工具引争议

加拿大18岁枪击案嫌疑人杰西·范·鲁特塞拉尔(Jesse Van Rootselaar)在案发前通过OpenAI的ChatGPT进行多起枪支暴力相关对话,该公司内部监控系统于2025年6月已将其行为标记为违规内容。

据《华尔街日报》2月21日报道,OpenAI员工曾就是否向加拿大执法部门报告该用户行为展开讨论,但最终未采取报警行动。公司发言人表示,范·鲁特塞拉尔的活动未达到需向警方通报的标准,事件发生后才与加拿大当局取得联系。嫌犯除使用ChatGPT外,还在Roblox平台创建模拟商场枪击的电子游戏,并在Reddit上发布涉枪内容。

当地警方称,此前已因范·鲁特塞拉尔在家中吸毒并纵火事件出警。目前多家法院受理了针对AI聊天机器人可能诱发用户自杀倾向的诉讼,OpenAI及其竞争对手开发的LLM(大语言模型)正面临更严格的监管审查。

编辑点评

此次事件凸显AI伦理监管的紧迫性。OpenAI在用户行为预警与责任边界间出现认知偏差,反映出当前科技公司对高风险内容的处理机制存在系统性漏洞。加拿大枪击案暴露的不仅是平台内容监控失效,更是全球AI治理框架缺失的缩影:跨国科技企业与本地执法部门的协作标准模糊,算法识别暴力倾向的阈值设定缺乏国际共识。

从国际影响看,此案可能加速G7国家对AI内容安全的立法进程。2026年正值欧盟《人工智能法案》实施关键期,美国国会也在筹备《AI安全评估法》。加拿大检方或将以此为契机,推动针对科技巨头的强制性风险报告制度。值得注意的是,嫌犯在Roblox等青少年聚集平台的异常行为,预示着AI相关内容可能成为影响公共安全的新风险载体。

未来需建立三重机制:1)跨国AI伦理委员会实时共享高风险用户数据;2)制定AI对话内容自动分级标准;3)将平台责任延伸至行为干预层面。这将直接影响全球科技企业的合规成本与技术开发方向,形成新一代数字服务的责任范式。

相关消息:https://techcrunch.com/2026/02/21/openai-debated-calling-police-about-suspected-canadian-shooters-chats/