马斯克旗下xAI未能阻止加州AI训练数据披露法案
美国加利福尼亚州一名联邦法官于2026年3月6日驳回了马斯克旗下AI公司xAI提出的初步禁令申请,裁定该公司未能证明加州新通过的AI训练数据披露法案(Assembly Bill 2013,简称AB 2013)会迫使其泄露贸易秘密。
该法案于2026年1月生效,要求所有在加州提供AI模型服务的公司,必须公开其训练数据的来源、收集时间、是否持续收集、是否包含受版权、商标或专利保护的内容,以及是否包含个人数据。此外,公司还需披露是否通过许可或购买方式获取数据,以及训练数据中合成数据的使用比例。
xAI在诉讼中称,披露上述信息将使其“经济毁灭”,因为其数据来源、数据规模及清洗方法均为核心贸易秘密。公司担心竞争对手如OpenAI若获取这些信息,将迅速复制其优势数据源,从而削弱xAI的竞争力。
然而,美国地方法官耶稣·贝纳尔(Jesus Bernal)在裁决中指出,xAI未能具体说明哪些数据或处理方法具有独特性,也未证明披露行为会带来直接且可量化的损害。其主张多为“抽象假设与一般性陈述”,缺乏实质性证据支持。
法官强调,公众有权了解AI模型的训练数据,以评估其可靠性与质量。例如,消费者可能希望了解模型是否使用了医学或科学数据,以判断其是否适合特定用途。该法案并非针对模型输出内容,也未要求企业发表意识形态立场或观点,因此不构成对言论自由的侵犯。
此外,xAI曾声称加州试图通过该法案监管其争议性聊天机器人Grok的输出内容,但法官驳回了这一说法,指出法案文本中并无此类意图。近期Grok因生成非自愿亲密图像(NCII)及儿童性虐待材料(CSAM)等争议引发加州调查,但法官认为这与数据披露要求无直接关联。
目前诉讼继续进行,但xAI在判决期间必须遵守法案要求。加州司法部发言人向路透社表示,此次裁决是“关键胜利”,部门将坚持捍卫该法案。
xAI未回应Ars Technica的置评请求。
编辑点评
此次判决标志着美国在AI监管领域迈出关键一步,凸显了政府与科技企业之间在数据透明度与商业机密间的角力。加州AB 2013法案虽未直接干预模型输出,但通过强制披露训练数据来源,实质上赋予了公众评估AI模型质量与偏见的工具。这在当前全球AI竞争加剧、技术黑箱问题日益凸显的背景下具有示范意义。马斯克的xAI试图以贸易秘密为由阻挠法案,但法院明确要求企业必须提供具体证据证明其数据的独特性,而非泛泛而谈。这一先例可能影响未来其他AI企业的合规策略,尤其在欧盟《人工智能法案》及美国各州陆续出台监管框架的背景下,企业必须在创新保护与公众知情权之间寻求平衡。长远看,该判决或推动全球AI治理向“透明化”方向演进,迫使科技巨头公开其模型训练逻辑,从而增强社会对AI系统的信任与监管能力。