欧盟指控Meta未能阻止未成年人使用Facebook和Instagram
2026年4月29日,欧盟委员会在伦敦宣布,对Meta Platforms展开调查,指控其未能有效阻止13岁以下未成年人注册并使用Facebook和Instagram,违反了欧盟《数字服务法案》(DSA)中关于保护未成年人的规定。
欧盟执委会指出,Meta缺乏有效机制防止儿童注册,且在账户开通后未能充分识别和移除未成年人账号。尽管Meta官方规定最低注册年龄为13岁,但调查发现其未能切实执行。此外,欧盟认为Meta未充分评估未成年人接触“年龄不适宜内容”的风险。
Meta对此表示异议,称已建立检测和移除机制,并指出年龄识别是整个行业面临的挑战,需行业共同解决。公司表示将在下周公布更多新措施,并将继续与欧盟委员会合作。
欧盟于2024年启动此次调查,依据《数字服务法案》要求平台执行自身规则,而不仅仅是声明。欧盟执行副主席亨娜·维克库宁(Henna Virkkunen)强调,平台需将条款转化为实际保护行动,尤其针对儿童用户。
目前,Meta可对初步调查结果提出回应,欧盟将在后续发布最终决定。若违规成立,Meta可能面临最高达全球年收入6%的罚款。
编辑点评
此次欧盟对Meta的指控,凸显了全球对科技平台未成年人保护监管的持续加码。《数字服务法案》作为欧盟数字治理的核心框架,正成为约束跨国科技企业的有力工具。Meta的合规短板暴露了大型平台在年龄验证、内容过滤和用户识别技术上的行业共性难题。该事件可能引发其他监管机构效仿,如英国、加拿大等国正逐步加强类似立法。对Meta而言,若被最终处罚,将不仅带来巨额财务压力,更可能影响其全球业务声誉和用户信任。长远看,此举或将推动整个行业在青少年保护技术标准上进行系统性升级。此次事件也反映出数字治理正从‘宽松自律’转向‘强制监管’的新阶段。