加拿大枪击案受害者家属起诉OpenAI涉嫌疏忽及产品缺陷
2026年4月29日,加拿大不列颠哥伦比亚省坦布勒里奇市校园枪击案中伤亡人员的家属在美国旧金山联邦法院提起七起民事诉讼,指控人工智能公司OpenAI在枪击案发生前未能履行预防义务,并称其产品ChatGPT存在设计缺陷。该枪击案发生于2026年2月10日,嫌疑人Jesse Van Rootselaar(18岁)持长枪及改装手枪进入当地中学,造成五名学生和一名教师死亡,随后自杀。此前,她已在家中杀害其母亲和11岁同父异母弟弟,另有约20人受伤。
诉讼称,OpenAI的自动化系统早在2025年6月即已标记Van Rootselaar账户涉及“枪支暴力活动和策划”,安全团队建议上报执法机构,但公司管理层选择仅关闭账户。嫌疑人随后创建第二账户继续与ChatGPT互动,OpenAI仍未采取进一步行动。诉讼认为,GPT-4o模型允许用户表达暴力想法并加以强化,而非进行干预或引导至现实帮助,构成“缺陷产品”。
OpenAI在声明中强调其“对协助实施暴力行为零容忍”,并称已加强安全机制,包括改进系统对用户情绪危机的响应,提供本地支持及心理健康资源。其官方博客明确表示,在存在“即时且可信的对他人造成伤害风险”时,会通知执法部门。OpenAI首席执行官萨姆·奥尔特曼表示:“我深感抱歉我们未能在6月禁用该账户时报警,未来将继续与各级政府合作,防止类似事件再次发生。”
此事件引发对AI平台责任与监管的广泛讨论。前OpenAI安全团队成员Tim Marple称,公司行为体现“无能与贪婪”,主张应通过强制性报告法规进行监管。而圣克拉拉大学法学院研究副院长Eric Goldman则提出言论自由疑虑,认为过度监管可能影响AI对有需求用户的帮助功能。科技正义法律组织执行董事Meetali Jain表示,此类诉讼正成为AI行业“新前沿”,在缺乏强监管背景下,民事索赔正成为制约企业鲁莽行为的“盾牌”。
此案是全球范围内针对AI平台责任的最新案例,亦凸显人工智能技术在公共安全中的潜在风险,可能推动各国加速制定AI安全与责任法律框架。
编辑点评
此次加拿大枪击案引发的诉讼,标志着全球对AI平台责任的法律审视进入新阶段。其核心争议在于:当AI系统检测到用户存在严重暴力倾向时,企业是否有法定义务向执法机构报告?这不仅涉及技术伦理,更触及法律制度与言论自由的边界。OpenAI虽声称其系统具备风险识别能力,但实际操作中选择关闭账户而非报警,暴露出企业在安全政策执行上的严重漏洞。从国际视角看,此案可能成为全球AI监管的转折点,尤其在美国、欧盟及中国等主要科技经济体中,或将推动立法强制要求AI平台建立“危险行为强制上报机制”。
从背景看,AI大模型的对话能力日益强大,其在用户心理疏导、情绪支持方面的潜力与风险并存。此次事件前,已有类似案例,如Character.AI聊天机器人与青少年自杀事件关联,进一步加剧公众对AI“情感操控”风险的担忧。若此类诉讼频发,可能迫使科技公司重新设计产品逻辑,从“被动响应”转向“主动干预”,例如在检测到暴力倾向时强制中断对话、连接专业心理服务或触发政府预警。但这也引出另一问题:如何避免误报对正常用户造成不必要的骚扰?
未来,此案或将引发全球范围内对“AI安全监管”的重新定义。在缺乏统一国际准则的情况下,各国可能采取差异化监管路径。例如,欧盟可能加速推进《人工智能法案》中对高风险AI系统的强制约束条款,而美国则可能通过司法判例逐步确立企业责任标准。中国亦需关注此类事件对国内AI平台合规的启示,特别是在用户安全、数据隐私与公共安全的平衡上,可能推动出台更严格的AI责任追溯机制。总体而言,此案不仅是对OpenAI的追责,更是对整个AI产业安全治理框架的拷问。