马斯克xAI被诉生成儿童性虐待内容 涉及千名未成年人
美国亿万富翁埃隆·马斯克旗下的xAI公司因其AI聊天机器人Grok生成儿童性虐待材料(CSAM)面临集体诉讼。诉讼称,三名田纳西州少女及其监护人指控xAI故意设计Grok以“从对真实人物包括儿童的性剥削中牟利”。据称,至少数千名未成年人受害,其真实照片被AI生成为性虐待内容并在网络传播,部分图像通过Discord服务器共享并用于Telegram群组交易。
警方调查发现,犯罪者通过第三方应用获取Grok服务生成图像,内容存储于xAI服务器并由其分发。原告要求法院下达禁令终止Grok有害输出,并索赔包括惩罚性赔偿。xAI未立即回应置评请求,此前曾将责任归于用户并威胁封禁滥用者。
诉讼指控与受害者经历
诉讼文件显示,一名未成年女孩在2025年12月收到匿名Instagram消息,称其“私密照片”被分享至一个包含18名其他女孩的文件夹中。该消息来自一名Discord用户,其后提供了AI生成的图像和视频,内容涉及该女孩及其他未成年人,并链接至犯罪者创建的Discord服务器。
受害者发现部分图像基于其未成年时期发布于社交媒体的照片,且识别出其他女孩为同校同学。她随即联系其他受害者并报警,警方展开调查。
警方调查与技术路径
调查人员确认,犯罪者与首名受害者曾有密切友好关系,从而获取其Instagram账号信息。警方在其手机中发现一款第三方应用,该应用通过付费方式获取Grok访问权限,用于将真实照片转换为AI生成的CSAM。
生成内容随后上传至Mega文件共享平台,并在Telegram群组中作为“交易工具”,换取其他未成年人的性内容。诉讼指控,xAI通过向第三方应用授权Grok服务器访问权限,实现了间接获利,同时规避对非法内容生成的直接责任。
xAI服务器与法律责任
诉讼称,所有由第三方应用生成的色情内容均存储于xAI服务器,并由xAI分发至终端用户。原告认为,xAI明知其服务被用于生成非法内容,仍允许其在服务器上存储和传输,构成违反儿童色情相关法律。
“xAI有义务保护未成年人,若法院认定其明知并参与传播CSAM,便无任何合理借口可推脱责任。”诉讼文件指出,Grok的“辛辣模式”等无审查功能无法成为正当商业利益的依据。
受害者心理与社会影响
原告律师安妮卡·K·马丁表示,受害者的隐私被彻底摧毁,遭受严重心理创伤。部分女孩担心图像在学校传播,影响大学申请或毕业典礼参与。更令人担忧的是,受害者的真实姓名及学校名称被附于文件,增加了被网络追踪的风险。
目前,xAI尚未就本次诉讼发表评论。此前在2026年1月的争议中,马斯克曾否认Grok生成任何CSAM,称“未发现任何未成年裸照”。“我们意图追究xAI对每一名受害儿童的责任,”马丁强调。
诉讼诉求
原告要求美国联邦法院:
1. 立即禁止Grok生成有害内容;
2. 对所有受害未成年人提供赔偿,包括惩罚性赔偿;
3. 公开要求xAI停止向第三方应用开放Grok服务器访问权限。
此案可能对AI内容生成技术的监管标准、企业责任边界及未成年人网络保护产生深远影响。
编辑点评
此事件凸显AI技术在商业化进程中面临的伦理与法律双重危机。xAI通过向第三方应用授权Grok服务,实际上构建了一条‘间接责任链’,将非法内容生成的风险外包,却未切断服务器层面的存储与分发路径,这在法律上可能构成‘明知或应知’的共犯行为。若法院认定xAI服务器承载并传输CSAM,其将面临美国《儿童保护法》(CPSA)及《儿童色情制品法》的直接追责,可能引发全球对AI模型授权模式的重新审视。
国际上,欧盟《人工智能法案》、英国《在线安全法案》及美国《人工智能问责法案》提案均强调‘开发者责任’,此案或成为检验这些法律框架是否具备实际执行力的试金石。若xAI败诉,将可能促使全球科技公司重新设计其AI服务的访问控制机制,尤其在涉及未成年人数据时,必须设立不可绕过的分级过滤系统。
此外,本案暴露了当前AI内容监管的盲区:当AI生成内容不再直接发布于公共平台,而通过私密渠道传播时,执法机构难以追踪责任源头。未来,各国或需建立AI内容‘数字指纹’追踪系统,确保从生成到分发的全链条可追溯。对于中国而言,此案将推动对《生成式人工智能服务管理暂行办法》的进一步细化,特别是在企业数据合规、第三方服务监管及未成年人保护机制方面,需加强穿透式监管。
长远看,若AI生成CSAM成为系统性风险,可能催生全球性的AI伦理准则及跨司法管辖区执法协作机制,类似于打击网络犯罪的‘云安全公约’。马斯克及其xAI的应对方式,将直接影响公众对AI技术的信任度,进而重塑全球AI产业发展格局。