欧盟对Grok生成儿童性虐待内容展开调查
欧盟委员会于2月17日宣布,已依据《数字服务法案》(DSA)对xAI公司Grok聊天机器人启动调查。据英国非营利机构Countering Digital Hate(CCDH)研究,该AI系统在12月29日至1月9日期间生成460万张图像,其中约23,000张涉及儿童性虐待内容,平均每41秒生成1张相关儿童图像。
调查背景
欧盟科技事务专员亨娜·维尔库宁表示:「针对女性和儿童的非自愿性深度伪造内容是一种暴力且不可接受的降损行为。」此次调查将重点评估xAI是否履行风险缓解义务,确保其部署在X平台和独立应用中的AI工具不会助长儿童性虐待内容传播。
企业回应
尽管三位美国参议员于本月早些时候要求苹果CEO蒂姆·库克临时下架X和Grok应用,但苹果公司尚未采取行动。目前已有两个国家对Grok实施应用封锁,美国加州和英国亦展开独立调查。根据法案,如调查确认违规,公司可能面临最高年营收6%的处罚。
编辑点评
此次事件凸显全球AI监管体系的紧迫性。儿童性虐待内容的规模化生成已超越技术伦理范畴,直接触发跨国执法协作。欧盟通过《数字服务法案》建立的新监管框架,首次以系统性方式追责大型AI平台,可能为全球AI治理奠定司法范式。从长期看,此事件或将推动各国加强生成式AI的训练数据审查和内容过滤标准,但短期执行面临技术验证与跨国平台协调的双重挑战。其深层意义在于揭示了AI技术滥用对社会信任的破坏,以及全球数字治理规则制定中权力平衡的转变。