马斯克xAI公司被指控生成未成年人色情图像 三名原告提起集体诉讼
美国加利福尼亚州联邦法院于2026年3月17日接到一起针对埃隆·马斯克旗下xAI公司的诉讼。三名匿名原告(其中两人仍为未成年人)指控其AI模型Grok在未采取基本防护措施的情况下,生成了包含真实未成年人的色情图像。
原告表示,xAI未采用其他前沿实验室普遍使用的安全机制,以防止AI模型从真实照片生成儿童色情内容。诉讼称,若模型允许生成裸露或色情内容,则几乎无法阻止其生成儿童性内容。
诉讼案名为“Jane Doe 1、Jane Doe 2(未成年人)、Jane Doe 3(未成年人)诉xAI Corp.及xAI LLC”,已提交至美国加利福尼亚北区联邦地区法院。
原告之一Jane Doe 1称,其高中舞会及年鉴照片被Grok篡改为裸体图像,后经Instagram匿名举报,发现相关图像已在Discord服务器传播。另一原告Jane Doe 2被刑事调查人员告知,有第三方移动应用使用Grok模型生成其性化图像。第三名原告Jane Doe 3的性化图像被发现于一名被拘捕者手机中。
原告律师指出,尽管图像由第三方应用生成,但其仍依赖xAI的代码与服务器,故xAI应承担法律责任。三名原告均表示正承受严重心理压力,担忧声誉与社交生活受影响,并要求依据多项保护儿童免遭剥削的法律追究民事责任。
xAI公司未就TechCrunch的置评请求作出回应。
编辑点评
此次诉讼凸显AI生成内容在伦理与法律层面的深层挑战。xAI作为由全球知名科技企业家主导的前沿AI企业,其产品Grok被指生成未成年人色情图像,不仅冲击公众对AI安全的信任,更引发对AI公司责任边界的广泛讨论。若法院支持原告主张,将可能重塑AI企业合规标准,迫使行业在推出生成式模型前必须实施更严格的内容过滤机制。
从国际视角看,此类事件可能推动多国监管机构加速制定针对AI生成内容的专项法规,尤其在儿童保护领域。欧盟《人工智能法案》、美国《AI安全法案》草案等均可能因此加快立法进程。同时,此案也可能引发全球范围内对AI“去监管化”趋势的反思,尤其是在美国,技术自由与公共安全之间的平衡正面临严峻考验。
长远而言,若多家AI公司被卷入类似诉讼,或会催生“AI责任保险”、“内容生成溯源”等新型监管工具,推动AI产业从“技术优先”转向“责任优先”的发展模式。该事件或成为全球AI治理史上的标志性案例,标志着技术公司必须为算法输出承担实质性法律责任。