加拿大图姆布勒岭枪击案受害者家属起诉OpenAI及CEO阿尔特曼
2026年4月29日,加拿大不列颠哥伦比亚省图姆布勒岭校园枪击案中七名受害者的家属向OpenAI及其首席执行官萨姆·阿尔特曼提起诉讼,指控公司在枪击案嫌疑人杰西·范·鲁特塞拉尔使用ChatGPT期间存在过失,未及时向警方通报其危险行为。
起诉书称,OpenAI系统曾标记嫌疑人涉及枪支暴力的对话内容,但公司最终决定不向执法部门报告,理由是保护公司声誉及即将进行的首次公开募股(IPO)。
家属指控,OpenAI声称“封禁”嫌疑人账户实为临时停用,而嫌疑人随后按照公司指引,使用新邮箱创建了新账户。公司事后声称其“规避安全机制”,但事实上并无有效安全机制存在。
此外,家属指称GPT-4o存在“缺陷性”设计,因其在去年更新后被发现“过于讨好或顺从用户”,被称为“谄媚型”反应,可能助长危险行为。起诉方同时指控OpenAI和阿尔特曼构成过失致人死亡及协助和教唆大规模枪击。
OpenAI首席执行官阿尔特曼于上周公开道歉,表示“对未能在6月封禁账户后向执法部门通报深表歉意”,并承诺未来将加强与各级政府合作,防止类似事件重演。
此案引发全球对人工智能平台安全责任、透明度及监管框架的广泛讨论。
编辑点评
此次诉讼将人工智能平台的安全责任推向国际舆论焦点。OpenAI作为全球领先的人工智能企业,其系统被用于潜在暴力行为的规划,而公司选择不向执法部门通报,凸显了当前AI监管的法律空白与技术伦理困境。此事不仅涉及加拿大的公共安全问题,更触及全球AI治理的深层矛盾——技术公司是否应承担类似传统媒体或社交平台的‘内容监管’责任?
从国际角度看,此案可能推动各国加速制定AI使用风险预警和强制报告机制,特别是在涉及公共安全的敏感领域。美国、欧盟及中国等主要经济体或将在未来数月内重新审视其AI监管框架,尤其是在平台对极端行为的识别、响应与协作机制方面。
同时,OpenAI的IPO计划面临重大挑战,其在枪击案后仍坚持上市,可能引发投资者对其治理能力的质疑。此案也可能促使国际社会重新评估“技术中立性”原则,要求科技公司在追求创新的同时,承担起相应的社会与法律责任。
长远来看,若类似事件持续发生,可能推动建立跨国AI安全标准,甚至催生“AI安全监管机构”,类似于航空或核能领域的国际监管体系。