佛罗里达州对OpenAI启动刑事调查:涉枪击案嫌犯使用ChatGPT策划袭击
佛罗里达州总检察长詹姆斯·乌特迈尔于周二在坦帕市召开新闻发布会,宣布对OpenAI启动刑事调查,指控其聊天机器人ChatGPT被涉枪击案嫌犯菲尼克斯·伊克纳用于策划2025年4月佛罗里达州立大学校园枪击案。
根据初步审查,伊克纳在作案前曾多次咨询ChatGPT,内容包括选择何种枪支、配套弹药类型,以及何时前往校园以遭遇更多人群。乌特迈尔表示:“如果屏幕另一端是人,我们将会对其提起谋杀指控。我们不能允许AI机器人向他人提供杀人建议。”
乌特迈尔办公室已向OpenAI发出传票,要求提供自2024年3月以来与用户威胁行为相关的政策、内部培训材料,以及与执法机构合作和犯罪报告机制的记录。他承认此次调查属于“前所未有的领域”,并强调将调查“谁知晓、谁设计、谁应采取行动”,若发现个人明知风险仍为盈利放任业务运行,应承担相应责任。
伊克纳现年21岁,案发时为佛罗里达州立大学学生。他因2025年4月在该校塔拉哈西校区学生会附近实施枪击,造成多人死伤,目前面临多项谋杀及谋杀未遂指控。其庭审定于2026年10月19日举行。根据法庭文件,已有超过200条AI对话记录作为证据提交。
OpenAI回应称,ChatGPT仅为用户提供公开可得的事实信息,不应对此次悲剧犯罪负责。
编辑点评
此次佛罗里达州对OpenAI的刑事调查标志着人工智能技术在全球治理框架下面临的重大法律与伦理挑战。若调查最终认定AI系统在明知用户存在极端暴力意图的情况下未采取有效干预,或将为全球AI监管树立先例。当前AI系统普遍依赖用户输入生成响应,但平台是否负有“预见性责任”尚未有明确法律界定。此案可能推动美国乃至全球立法机构重新审视AI平台的合规义务,尤其是对潜在危害性内容的识别、限制与上报机制。
从国际角度看,此事件凸显了技术发展与公共安全之间的张力。随着生成式AI在教育、医疗、金融等领域的渗透,其滥用风险日益凸显。若AI系统被用于策划暴力、恐怖或犯罪活动,相关责任主体(开发者、运营者、用户)的界定将直接影响未来技术治理范式。此案可能促使美国政府加速制定AI监管法案,如《人工智能法案》(AI Act)的本土版本,同时影响欧盟、中国等国家的AI监管政策调整。
长远而言,此案或推动AI“安全护栏”(safety guardrails)的标准化发展,包括强制性内容过滤、用户行为追踪、与执法机构的数据共享机制等。同时,它也可能引发对“AI是否应被赋予法律人格”的深层讨论。若AI系统被认定为“准实体”,将对全球知识产权、法律责任、隐私权产生深远影响。