美国西弗吉尼亚州起诉苹果公司,指控其未能阻止iCloud及iOS设备上的儿童性虐待内容
美国西弗吉尼亚州总检察长约翰·麦卡斯基(John "JB" McCuskey)已针对苹果公司提起消费保护诉讼,指控该企业未能有效防止儿童性虐待材料(CSAM)通过iOS设备和iCloud服务存储与传播。该州要求苹果公司实施有效的检测技术,并寻求法定赔偿、惩罚性赔偿及强制执行措施。
诉讼文件指出,其他科技公司如谷歌、微软和Dropbox已采用PhotoDNA等系统自动识别和阻止已确认的CSAM图像。PhotoDNA由微软和达特茅斯学院于2009年开发,通过“哈希匹配”技术将已知非法图像与用户上传内容进行对比。
2021年,苹果曾测试其CSAM检测功能,计划自动识别并删除iCloud中的儿童性虐待图像,并向美国国家失踪和受虐儿童中心报告。但该计划因隐私倡导组织担忧政府监控后门及内容审查风险而被撤销。此后苹果的安全措施未能满足批评者的期待。
2024年,英国儿童虐待预防机构及加州北区法院的集体诉讼均指责苹果在CSAM管控方面存在不足。苹果公司回应称,保护用户隐私和安全是其核心目标,已通过“通讯安全”(Communication Safety)功能在信息、照片、AirDrop及FaceTime通话中自动拦截涉黄内容。
编辑点评
此案凸显全球科技巨头在隐私保护与公共安全间的艰难平衡。西弗吉尼亚州的诉讼若成功,可能推动苹果重新评估其数据安全架构,影响全球数百万用户的隐私权与儿童保护体系。国际社会对此类技术解决方案的争议持续存在——PhotoDNA等技术的广泛应用表明,主动检测机制已成行业趋势,但苹果的保守立场反映硅谷对政府监管的天然排斥。
更深远的影响在于,此案或将加速美国国内对科技平台责任的立法讨论。随着2024年加州集体诉讼及英国监管机构的批评,苹果面临来自政府、受害者群体与竞争对手的三重压力。其安全功能的创新承诺需在技术可行性与政治可行性间取得共识,这或将重塑跨国科技公司的合规框架。对中国科技企业而言,此案提供了关于全球内容管理标准的重要参考,尤其在中美对隐私、安全与监管认知差异日益显著的背景下。