佛罗里达州调查ChatGPT在枪击案中的角色 开发商称机器人“无责任”
佛罗里达州政府正在对人工智能聊天机器人ChatGPT在近期一起大规模枪击案中可能扮演的角色展开调查。州检察官乌特迈尔(Uthmeier)在新闻发布会上表示,若调查发现OpenAI高层明知存在犯罪风险却优先追求利润,将追究相关责任。
“我坚信有限政府原则,”乌特迈尔说,“但当公众安全受到严重威胁时,政府必须介入。此案正是如此。”
OpenAI表示,公司正在积极与执法部门合作。发言人沃特斯(Waters)称,公司已早期识别出与嫌疑人关联的ChatGPT账户,并主动向执法机构提供相关信息。
OpenAI强调,ChatGPT仅返回了互联网上公开可查的信息,未鼓励或促进任何非法或有害行为。沃特斯指出:“在此案中,ChatGPT提供的内容均为事实性信息,且可广泛在公开网络中找到,未推动任何违法行为。”
然而,乌特迈尔指出,OpenAI已承认需要改进系统,以降低ChatGPT被用于指导暴力行为的风险。“现在OpenAI表示他们相信需要采取改进措施,”乌特迈尔说,“我希望他们是对的。我们不能容忍AI机器人教唆他人杀人。”
沃特斯未就ChatGPT是否已有安全更新作出回应,但重申该工具是为数亿用户设计的通用工具,其用途主要合法。“我们持续加强安全机制,以检测有害意图、限制滥用,并在安全风险出现时及时响应,”沃特斯表示。
目前,调查仍在进行中,未公布嫌疑人是否直接依据ChatGPT的回应实施犯罪的具体证据。
编辑点评
此次事件凸显人工智能技术在公共安全领域的潜在风险,尤其在极端暴力行为的诱发或辅助方面。尽管OpenAI强调其系统未主动鼓励犯罪,但公众和政府对其‘被动提供信息’是否构成间接责任产生质疑。这反映了全球对AI伦理与监管框架的紧迫需求,尤其是在美国枪支暴力高发的背景下,技术平台的责任边界亟待明确。
从国际角度看,此案可能推动各国加强AI监管立法,特别是在内容生成、安全过滤和责任认定方面。美国作为AI技术的领先国,其监管动向将影响欧洲、亚洲等地区的技术政策制定。若调查最终认定平台存在疏忽,可能引发全球范围内对大模型安全性的重新评估。
长远来看,此次事件或促使AI企业加速构建更精细的意图识别与风险阻断机制,同时可能引发用户隐私与公共安全之间的平衡讨论。若类似事件频发,不排除形成跨国协作的AI安全标准,甚至建立AI使用追溯机制。