Meta智能眼镜被曝向海外人工审核员传输私密视频
据瑞典媒体《瑞典日报》(Svenska Dagbladet)上周报道,使用Meta AI智能眼镜的欧洲用户可能在不知情的情况下,向位于欧盟以外国家的审核人员传输私密视频及敏感财务信息。
肯尼亚从事AI“标注”工作的员工向媒体透露,他们曾看到用户裸体、如厕、进行性行为,以及信用卡号码等高度敏感内容。这些数据来自Meta的Ray-Ban Display及其他具备AI功能的智能眼镜产品。用户若使用AI功能,需同意Meta的服务条款,允许其捕捉的数据由人工或自动化系统进行审核,以训练大型语言模型(LLMs)。
该数据处理流程常涉及肯尼亚内罗毕等地的低薪工作人员。根据报道引用的数据保护律师观点,此类行为受欧盟《通用数据保护条例》(GDPR)约束,要求对个人数据的处理过程保持透明。然而,记者需经过多番努力才得以查阅Meta可穿戴设备的隐私政策。该政策指出,敏感数据可能由人工或自动系统审查,并将责任转移至用户,要求其不分享敏感信息。
Meta尚未公开回应该报道细节,但事件引发对科技公司全球数据处理链、隐私保护合规性及AI训练伦理的广泛担忧。
编辑点评
此事件凸显了全球科技巨头在AI训练数据采集与处理过程中面临的严峻伦理与法律挑战。Meta将用户生成的私密影像用于AI模型训练,并外包至非洲等发展中国家进行人工标注,这不仅引发隐私权侵犯争议,也暴露了欧美数据保护法规与全球供应链之间的结构性矛盾。欧盟GDPR强调数据主体的知情权与控制权,但用户在使用产品时难以获取清晰、易懂的隐私政策,且往往在无意中“同意”了高风险数据处理。此举可能削弱公众对AI技术的信任,尤其在欧盟等监管严格的地区。长远来看,若不建立更透明的数据使用机制和公平的全球劳动标准,此类事件或成为AI全球化发展的主要障碍。同时,这一事件也可能推动各国加强对AI数据采集的立法监管,影响未来科技企业的全球运营模式。