苹果App Store搜索推荐或引导用户至“去衣”应用 技术透明项目发布新报告
技术透明项目(TTP)近日发布新调查报告指出,苹果App Store和谷歌Play商店仍在通过搜索推荐和广告推广方式引导用户发现“去衣”类应用,这些应用可生成女性的深度伪造裸照,部分甚至标注为适合未成年人使用。
报告显示,针对“nudify”“undress”“deepnude”等关键词搜索,近40%的前10名应用具备生成裸露图像功能。部分搜索结果中出现推广广告,例如搜索“deepfake”时,首个结果为DuoFace公司推广的“FaceSwap Video”应用,该应用允许用户将静态图像中的人脸替换至视频中。TTP测试发现,上传一位穿白色毛衣女性的照片和一位裸体女性的视频后,应用生成了“穿毛衣女性的脸部叠加在裸体女性身体上”的视频内容。
另一项测试中,搜索“face swap”时,App Store显示“AI Face Swap”广告,该应用可将用户上传的两张图像进行人脸交换。TTP测试上传一位穿蓝色毛衣女性和一位裸体女性的图像,应用在无任何限制下完成人脸替换。
此外,用户在搜索框输入“AI NS”时,App Store自动补全建议“image to video ai nsfw”,该搜索结果中亦包含多个“去衣”类应用。
TTP已联系苹果、谷歌及部分应用开发者。苹果未回应具体指控,但已下架大部分被指涉应用。部分开发者承认使用Grok生成图像,但称“未意识到其可生成极端内容”,并承诺加强图像生成审核机制。
编辑点评
该事件凸显全球数字平台在AI生成内容监管上的系统性漏洞。随着深度伪造技术的普及,社交平台、应用商店等数字生态系统的责任边界日益模糊。苹果和谷歌作为全球最大的应用分发平台,其搜索推荐与广告系统在无形中成为“去衣”应用的传播渠道,反映出算法推荐机制在伦理与安全方面的盲区。此类应用不仅侵犯个人隐私,更可能被用于网络性骚扰、名誉损害等非法行为,对女性群体构成系统性风险。从国际治理角度看,此事推动了对AI生成内容监管框架的迫切需求,尤其在欧盟《人工智能法案》逐步落地、美国多州推动数字权利立法的背景下,平台企业的合规压力将持续上升。未来,平台可能面临更严格的算法透明度要求、内容审核责任以及用户数据保护义务,这或将重塑全球数字市场的监管格局。