Meta智能眼镜用户隐私争议再起:外包员工称目睹用户如厕及私密视频
Meta旗下Ray-Ban智能眼镜的隐私问题再度引发国际关注。据瑞典报纸《瑞典日报》(Svenska Dagbladet)、《哥德堡邮报》(Göteborgs-Posten)与肯尼亚记者Naipanoi Lepapa联合调查报道,Meta外包公司Sama的员工在为AI系统进行视频、图像和语音数据标注时,曾观看用户拍摄的如厕、更衣及亲密行为等私密内容。
该调查基于对Sama公司30余名员工的采访,涵盖不同层级的标注人员,部分员工参与了Meta其他AI项目的数据处理。报道指出,Sama员工称其处理的数据流包含大量隐私敏感内容,令其感到不适。一名匿名员工称,曾看到视频中一男子将眼镜放在床头柜后离开,随后其妻子进入房间更换衣物;另一名员工称,曾目睹用户伴侣裸体走出浴室。
Meta在回应BBC时表示,公司有时会与承包商共享用户上传至Meta AI聊天机器人的内容,用于提升用户体验,强调数据会先经过隐私保护过滤,例如模糊人脸。Meta智能穿戴设备隐私政策明确指出,当用户开启云处理、与Meta AI互动或上传至Facebook/Instagram等服务时,照片和视频将发送至Meta。此外,直播视频、音频、文本转录及语音记录也会被上传,并由机器学习系统和人工审核员处理,部分信息将分享给第三方服务提供商。
Meta AI隐私政策进一步说明,用户与AI的互动内容(包括对话和消息)可能被人工或自动审核,同时警告用户避免分享敏感信息,因AI可能保留并使用这些内容。值得注意的是,2023年8月,Meta将“Meta AI with camera”功能默认开启,直至用户关闭“Hey Meta”语音指令,当时公司称拍摄内容仅存于手机相册,不用于AI训练。但部分用户可能未充分理解相关隐私条款。
Sama员工指出,部分Ray-Ban用户可能在不知情情况下录制了银行卡信息或观看的色情内容。尽管智能眼镜在录制时会闪烁红光,但有批评称用户可能未注意到或误解该提示。一名员工表示:“我们看到一切,从客厅到裸体。Meta的数据库中存在这类内容。人们可能以错误方式录制,甚至不知自己在录什么。”
Sama对Ars Technica回应称,不评论具体客户项目,但强调公司符合GDPR与CCPA法规,使用严格审核的政策和程序保护客户信息,包括个人身份信息。其声明还称,数据标注工作在安全、受控的设施中进行,禁止个人设备进入生产区,员工均通过背景调查并接受持续的数据保护和AI伦理培训。
该事件已引发英国信息专员办公室(ICO)致函Meta进行质询。同时,据《纽约时报》2月报道,Meta计划今年在Ray-Ban及Oakley智能眼镜中加入人脸识别功能。此外,一项集体诉讼已于近期对Meta及Luxottica America提起,指控其营销标语“为隐私而设计,由你掌控”具有误导性,称合理消费者不可能理解其含义包含海外人工审核私密视频。该诉讼要求赔偿、惩罚性罚款,并禁止此类商业行为继续。
Ars Technica联系Meta未获回应,Meta亦拒绝就诉讼向其他媒体置评。
编辑点评
此次Meta智能眼镜隐私事件凸显了全球科技企业在AI数据训练与用户隐私保护之间的深层矛盾。尽管Meta声称采取隐私过滤措施,但外包标注流程的透明度不足,使得用户数据在跨国链路中暴露于高风险环境。Sama员工目睹的私密内容不仅涉及伦理问题,更触及数据主权与监管合规的边界。英国ICO的介入表明,欧盟对AI数据处理的监管意志正在强化,而集体诉讼则可能迫使Meta重构其隐私政策与营销话术。
从国际背景看,该事件加剧了公众对“智能穿戴设备”的信任危机,尤其在隐私保护意识日益增强的欧洲和北美市场。Meta计划在眼镜中引入人脸识别功能,可能进一步放大监管压力。若处理不当,或引发多国数据保护机构联合调查,甚至影响其AI产品在全球的推广节奏。
长远而言,该事件或推动行业建立更严格的数据标注伦理准则,强制要求企业对敏感数据处理流程进行实名化、可追溯审核。同时,用户知情权和选择权的边界将重新被定义,可能催生“隐私标签”或“数据使用透明度指数”等新监管工具。对于Meta而言,若无法有效回应此次危机,其AI战略的全球可信度将面临重大挑战。