OpenAI支持伊利诺伊州法案:为前沿AI模型提供重大损害事件的免责保护
OpenAI已公开支持伊利诺伊州一项拟议法案SB 3444,该法案将为前沿AI模型开发者提供在造成百人以上死亡或严重伤害、或至少10亿美元财产损失等“重大危害”事件中的法律责任豁免。豁免条件包括:开发者未故意或轻率导致事件发生,且已在其网站发布安全、安保与透明度报告。
该法案将“前沿模型”定义为训练成本超过1亿美元的AI系统,可能涵盖OpenAI、谷歌、xAI、Anthropic和Meta等美国主要AI实验室。OpenAI发言人Jamie Radice表示,此举旨在“降低最先进AI系统造成严重危害的风险,同时确保技术能广泛应用于伊利诺伊州的个人和企业”。
OpenAI全球事务团队成员Caitlin Niedermeyer在支持法案的证词中强调,应避免“州级法规碎片化”,并呼吁建立联邦AI监管框架,以巩固美国在全球AI竞赛中的领先地位。她指出,州级法规若能“推动与联邦体系协调一致”,仍可发挥积极作用。
然而,该法案在伊利诺伊州面临巨大阻力。Secure AI项目政策总监Scott Wisor指出,该州公众普遍反对AI公司免责,其民调显示90%受访者持反对立场。伊利诺伊州此前已通过多项严格AI监管法案,包括2008年《生物识别信息隐私法》和2023年限制AI在心理健康服务中使用的立法。
当前,美国联邦层面尚无明确AI责任法律。尽管特朗普政府已发布多项行政命令和框架,但联邦立法进展缓慢。在此背景下,加州、纽约州等已通过SB 53和Raise Act等法案,要求AI开发者提交安全与透明度报告。同时,OpenAI正面临多起因ChatGPT与青少年自杀事件相关的个人诉讼。
目前,全球尚未形成统一的AI重大事故责任认定机制,该法案或成为美国AI监管走向的重要风向标。
编辑点评
OpenAI支持SB 3444法案,标志着其从被动防御转向主动塑造监管环境,体现了科技巨头在AI治理中日益增强的影响力。该法案若通过,将为美国最大AI企业建立实质性的法律防火墙,尤其在应对潜在的‘灾难性事件’时提供免责保护,这在当前全球AI安全监管尚未成熟的背景下具有深远意义。
从国际角度看,这一动向可能加剧全球AI监管的分化。美国若允许大型AI公司免于重大社会危害责任,可能对欧盟、中国等推动严格AI问责机制的地区形成对比,影响全球AI治理标准的统一进程。同时,该法案与特朗普政府限制州级AI安全立法的政策方向一致,反映出美国科技政策中‘联邦主导、抑制地方监管’的倾向,这或削弱地方在AI安全治理中的能动性。
长远来看,若缺乏联邦层面的统一立法,州级法规的碎片化将加剧,企业合规成本上升,也可能抑制技术创新。而OpenAI等企业推动的‘安全报告+免责’模式,虽强调透明度,但实质上将责任转移至用户与社会,引发道德与法律争议。未来,如何在鼓励创新与保障公共安全之间取得平衡,将成为全球AI治理的核心挑战。