加拿大校园枪击案受害者家属起诉OpenAI 指控其隐瞒暴力用户
2026年4月29日,加拿大不列颠哥伦比亚省小镇坦布勒里奇(Tumbler Ridge)发生严重校园枪击案,造成7人死亡、27人受伤。受害者家属在加州法院提起七起诉讼,指控人工智能公司OpenAI未能及时向执法部门报告与枪手关联的ChatGPT账户,并在账户被封禁后仍提供重新注册指引,构成过失和潜在共谋。
诉讼文件显示,OpenAI内部安全团队早在枪击案发生前八个月已识别出该用户存在“真实且可信的枪支暴力威胁”,并建议向警方通报。然而,公司高层拒绝该建议,仅封禁账户。随后,OpenAI向该用户发送邮件,指导其通过新邮箱重新注册,使该用户得以继续使用ChatGPT规划暴力行为。
受害者家属律师杰伊·埃德森(Jay Edelson)表示,OpenAI此举是为了保护CEO山姆·阿尔特曼(Sam Altman)的公众形象及公司即将进行的IPO,避免负面新闻影响估值。他指出,OpenAI估值已达8520亿美元,但若更多类似事件曝光,其IPO估值可能面临风险。
枪击案发生后,阿尔特曼在一次公开道歉中承认“未能在六月封禁账户后向执法部门通报”,并承诺将“防止未来悲剧发生”。然而,家属认为道歉“为时过晚,承诺不足”,并指出OpenAI尚未向家属提供涉事聊天记录,拒绝其获取事件真相的权利。
诉讼还指控OpenAI违反加州法律,包括未报告已知暴力威胁、向已知危险人员重新提供服务等。家属要求追究阿尔特曼及OpenAI高层责任,并索赔包括惩罚性赔偿在内的巨额损失。部分家属还提出,若女儿幸存,将面临永久性残疾和长期医疗问题。
目前,坦布勒里奇的学校已关闭并计划拆除,学生在临时帐篷中上课。部分幸存者家庭仍无法返回学校,心理创伤严重。埃德森强调,家属希望由加州陪审团审判此案,以确保“审判者是阿尔特曼的邻居”。
OpenAI回应称,已加强安全措施,包括优化对暴力威胁的识别、升级用户支持系统等。但家属和法律团队质疑其透明度,认为公司正在拖延诉讼进程以等待IPO完成。
此案引发全球对AI平台在公共安全中的责任边界、用户隐私与社会安全之间平衡的广泛讨论。专家指出,若OpenAI被强制报告所有潜在威胁,可能引发执法系统负担过重或宪法争议。目前,更多受害者家庭预计在未来三周内陆续提起诉讼。
编辑点评
此次诉讼事件凸显AI技术在公共安全领域面临的前所未有的伦理与法律挑战。OpenAI作为全球最具影响力的AI公司之一,其平台被用于支持极端暴力行为,且公司被指故意隐瞒风险,以保护商业利益和IPO进程,这打破了公众对科技企业‘负责任创新’的期待。事件的核心在于:当AI系统被用于策划真实暴力时,企业是否应承担与传统媒体或社交平台同等的公共安全责任?
从国际角度看,此案可能成为全球AI监管的转折点。若OpenAI败诉,可能迫使各国重新审视AI平台的‘通知义务’,并推动立法要求AI公司建立强制性威胁报告机制。同时,此案也暴露了AI系统设计中的深层问题——当前ChatGPT被设定为‘假设用户最佳意图’,且不主动要求澄清用户目的,这种设计在极端情况下可能助长危险行为。
更深远的影响在于,此案或引发对‘科技公司是否应成为事实上的执法协作者’的广泛辩论。若企业被迫承担类似警察的职责,可能引发隐私权与政府监控的边界争议。此外,此案可能加速全球对AI安全标准的统一制定,尤其在加拿大、美国、欧盟等主要经济体之间形成跨司法管辖区的协作机制。
未来,若类似诉讼频发,或将推动AI企业建立独立的‘安全审查委员会’,并强制披露重大风险事件。OpenAI当前的拖延策略虽可能延缓司法进程,但若舆论持续发酵,其IPO进程和品牌声誉可能面临长期损害。此案已成为AI时代企业责任与社会安全之间博弈的标志性事件。