加拿大校园枪击案前ChatGPT曾预警 OpenAI未通知警方
据《华尔街日报》2026年2月21日报道,美国人工智能公司OpenAI在加拿大不列颠哥伦比亚省塔姆伯尔里奇中学发生枪击事件(2025年6月)前八个月,其内部技术团队曾发现18岁枪手Jesse Van Rootslar在社交平台发布的异常内容,并触发了AI系统预警。团队成员曾向公司管理层报告潜在风险,但最终未向当地警方通报相关信息。
该事件引发国际社会对AI技术伦理监管的广泛讨论。OpenAI表示,其内容审核机制主要基于用户交互模式而非直接监控,此次事件将重新评估安全协议。加拿大警方则强调,目前无法验证AI预警与案件是否存在直接关联,但将配合技术公司完善预防机制。
编辑点评
此事件凸显AI技术在公共安全领域的双刃剑效应。OpenAI作为美国主导的领先AI企业(CA,US),其决策过程直接关联跨国监管责任划分问题。当前全球约67%的AI伦理框架尚未建立强制性风险报告机制,该案件可能加速欧盟《人工智能法案》和北美相关立法进程。从技术逻辑看,AI对极端行为的预测准确率不足30%,过度依赖技术预警可能引发隐私权争议。未来三个月,国际社会或将围绕以下议题展开博弈:1)科技公司数据共享义务的法律边界;2)AI训练数据的敏感内容过滤标准;3)跨政府协作的技术预警响应流程。此事件对全球AI治理格局的冲击度,已达到需持续追踪的级别。