← 返回

欧盟指控Meta未能阻止未成年人使用Facebook和Instagram

欧盟委员会于2026年4月29日指控Meta Platforms未能有效阻止13岁以下未成年人注册并使用Facebook和Instagram,违反了欧盟《数字服务法案》(DSA)关于保护未成年人的规定。调查发现,Meta缺乏有效措施防止儿童注册,且在识别和移除未成年人账户方面行动不足。Meta回应称已具备检测和删除机制,并强调年龄识别是行业共同挑战,承诺下周公布新增措施。若最终认定违规,Meta可能面临高达全球年收入6%的罚款。该事件凸显欧盟对大型科技平台监管力度的加强。

欧盟指控Meta未能阻止未成年人使用Facebook和Instagram

2026年4月29日,欧盟委员会在伦敦宣布,对Meta Platforms展开调查,指控其未能有效阻止13岁以下未成年人注册并使用FacebookInstagram,违反了欧盟《数字服务法案》(DSA)中关于保护未成年人的规定。

欧盟执委会指出,Meta缺乏有效机制防止儿童注册,且在账户开通后未能充分识别和移除未成年人账号。尽管Meta官方规定最低注册年龄为13岁,但调查发现其未能切实执行。此外,欧盟认为Meta未充分评估未成年人接触“年龄不适宜内容”的风险。

Meta对此表示异议,称已建立检测和移除机制,并指出年龄识别是整个行业面临的挑战,需行业共同解决。公司表示将在下周公布更多新措施,并将继续与欧盟委员会合作。

欧盟于2024年启动此次调查,依据《数字服务法案》要求平台执行自身规则,而不仅仅是声明。欧盟执行副主席亨娜·维克库宁(Henna Virkkunen)强调,平台需将条款转化为实际保护行动,尤其针对儿童用户。

目前,Meta可对初步调查结果提出回应,欧盟将在后续发布最终决定。若违规成立,Meta可能面临最高达全球年收入6%的罚款。

编辑点评

此次欧盟对Meta的指控,凸显了全球对科技平台未成年人保护监管的持续加码。《数字服务法案》作为欧盟数字治理的核心框架,正成为约束跨国科技企业的有力工具。Meta的合规短板暴露了大型平台在年龄验证、内容过滤和用户识别技术上的行业共性难题。该事件可能引发其他监管机构效仿,如英国、加拿大等国正逐步加强类似立法。对Meta而言,若被最终处罚,将不仅带来巨额财务压力,更可能影响其全球业务声誉和用户信任。长远看,此举或将推动整个行业在青少年保护技术标准上进行系统性升级。此次事件也反映出数字治理正从‘宽松自律’转向‘强制监管’的新阶段。

相关消息:https://www.npr.org/2026/04/29/g-s1-119157/eu-meta-underage-users
当日日报:查看 2026年04月29日 当日日报