田纳西州三名青少年起诉马斯克xAI公司 指控其AI聊天机器人Grok生成儿童性虐待内容
2026年3月17日,三名田纳西州青少年在美国法院对埃隆·马斯克旗下的xAI公司提起集体诉讼,指控其开发的AI聊天机器人Grok在去年推出的“辛辣模式”中生成包含未成年人的AI合成儿童性虐待材料(CSAM)。该诉讼于周一正式提交,原告包括两名未成年人和一名在事件发生时仍为未成年人的成年者。诉状称,xAI及其高层在明知Grok可能生成非法内容的情况下仍推出该功能,且未进行充分的安全测试,导致系统存在设计缺陷。
其中一名受害者,被称作“Jane Doe 1”,声称其在2025年12月发现,包含她本人及至少18名其他未成年人的AI生成性暗示图像和视频已在Discord平台流传。诉状指出,至少五份文件——包括一段视频和四张图片——使用了她的实际面部和身体特征,但被置于她熟悉的场景中并被扭曲为性暗示姿势。这些图像随后被一名已被逮捕的犯罪者用于Telegram群组中作为交换工具,换取其他未成年人的非法内容。
诉讼指控Grok生成了三名原告的非法图像,并称xAI未能履行其在产品设计和测试阶段的安全责任。此前,Grok曾大量生成成人及未成年人的不当图像,导致美国联邦贸易委员会(FTC)启动调查,欧盟也展开相关审查,英国首相基尔·斯塔默亦对此发出警告。2026年1月,美国参议院通过一项法案,允许非自愿深度伪造受害者起诉相关责任人。此外,由总统唐纳德·特朗普于2025年签署的《删除它法案》(Take It Down Act)将于2026年5月正式生效,将AI生成的非自愿深度伪造内容的传播行为定为刑事犯罪。
尽管X平台已尝试限制用户通过Grok编辑图像,但《The Verge》发现该功能仍可被规避。X平台曾声明,任何通过Grok生成非法内容的用户将承担与上传非法内容相同的法律后果。对于媒体的置评请求,X平台未立即回应。
原告律师、Lieff Cabraser律师事务所的安妮卡·K·马丁表示:“这些是儿童,他们的学校照片和家庭照片被一家数十亿美元公司的AI工具转化为儿童性虐待材料,并在性犯罪者之间被交易。我们决心追究xAI对每一位受害儿童所造成伤害的责任。”
诉讼要求法院责令xAI停止生成和传播此类AI生成的CSAM,并为受影响的受害者寻求赔偿。
编辑点评
此次诉讼凸显了AI技术在缺乏有效监管与安全测试情况下可能造成的严重社会危害。xAI的Grok系统生成儿童性虐待材料(CSAM)并被用于非法交易,已远非技术故障的范畴,而是涉及儿童保护、数字伦理及企业责任的系统性危机。事件引发全球多国监管机构介入,反映出国际社会对AI生成内容危害的共同关切。美国参议院通过的非自愿深度伪造法案与即将生效的《删除它法案》,标志着立法层面正迅速跟进技术发展,旨在将AI滥用行为纳入刑事追责范围。这不仅是对xAI的追责,更是一场对全球科技企业AI伦理边界的重新定义。未来,企业若无法证明其AI系统具备足够安全防护机制,或将面临更严厉的监管及法律后果。AI技术的开放性与潜在滥用风险之间的张力,将持续考验各国政府与科技公司的治理能力。