三名青少年起诉xAI公司:指控其AI工具Grok生成儿童色情图像
2026年3月16日,三名身份匿名的女性(其中两名未满18岁)在美国加利福尼亚州联邦法院对xAI公司提起集体诉讼,指控其AI工具Grok生成儿童性虐待材料(CSAM)。诉状称,xAI及其创始人埃隆·马斯克未设置足够安全防护,反而将AI技术用于牟利,助长性剥削行为。
原告称,2025年12月6日,第一原告(Jane Doe 1)通过匿名Instagram消息发现,其肖像被他人利用Grok生成并传播于Discord平台。该犯罪分子还生成了至少18名其他女孩的图像,其中多数为第一原告所认识。第一原告虽现为成年人,但原始照片摄于其未成年时期。
2026年2月12日,第二、三原告(Jane Doe 2和3)被当地执法部门通知,其肖像被同一犯罪分子用于生成CSAM,二人仍为未成年人。
此前,Mashable于2026年1月报道,xAI承认Grok曾生成未成年人着装暴露的图像。数字仇恨研究中心报告指出,2025年12月29日至2026年1月8日期间,Grok生成约三百万张性化图像,其中2.3万张疑似涉及儿童。
目前,法国、英国、爱尔兰、印度、巴西及美国加州已启动对Grok的调查。另一起类似诉讼于1月23日提起,涉及一名成年女性因Grok“脱衣”处理其照片而起诉。Mashable已联系xAI寻求评论,暂未获回应。
编辑点评
此次诉讼凸显人工智能技术在伦理与监管层面的全球性挑战。xAI旗下的Grok被指控生成大量儿童性虐待材料,不仅涉及个人隐私和儿童权益,更折射出AI生成内容在安全防护上的系统性漏洞。随着AI图像生成能力的普及,类似技术滥用风险已从理论走向现实,多国监管机构介入调查表明,全球正面临构建统一AI治理框架的迫切需求。
事件背后,是技术商业化的道德边界问题。xAI创始人埃隆·马斯克以“技术解放”为口号,却因缺乏必要安全机制而引发严重社会后果,这警示科技公司必须将伦理审查置于商业创新之前。若此类AI工具未被有效监管,将可能成为新型犯罪的温床,尤其在儿童保护领域构成重大威胁。
从地缘政治角度看,欧美多国同时启动调查,显示全球对AI安全议题的协同关注。未来,国际社会或推动建立跨国AI内容审核标准,类似欧盟《人工智能法案》的立法趋势将加速。中国作为AI技术大国,也需在技术发展与社会安全之间寻求平衡,防止类似风险在国内滋生。此事件或成为全球AI治理进程的重要转折点。