欧盟认定Meta未充分防止未成年人使用Facebook和Instagram
欧洲委员会于2026年4月29日发布初步决定,认定Meta违反《数字服务法》(DSA),未能有效防止13岁以下儿童使用Facebook和Instagram。
该决定基于近两年的调查,指出Meta未实施足够措施阻止未成年人访问其平台,也未有效识别和移除已注册的未成年用户。调查发现,未成年人可通过虚假出生日期注册账户,而Meta缺乏有效机制验证真实年龄。
欧盟科技政策负责人赫娜·维尔库宁表示:“Meta的通用条款明确其服务不面向13岁以下未成年人,但我们的初步调查表明,Instagram和Facebook在阻止该年龄段儿童访问方面几乎毫无作为。”
欧盟称,Meta提供的举报未成年人工具“使用困难且无效”,即使收到举报,也常无后续处理。这违反了DSA中“勤勉识别和减轻风险”的要求。
欧盟还批评Meta的风险评估“不完整且随意”,与欧盟多国证据显示10%至12%的13岁以下儿童使用Facebook或Instagram相矛盾。此外,委员会指出Meta忽视科学证据,即更年幼儿童更容易受到社交平台潜在危害的影响。
另一项关于Facebook和Instagram是否导致儿童“行为成瘾”的调查仍在进行中。
Meta被要求在规定期限内整改,包括更新风险评估方法并实施更严格的年龄验证工具。若最终被认定违规,可能面临全球年营业额6%的罚款,鉴于Meta2025年营收达2010亿美元,最高罚款可达120亿美元。
Meta回应称,其平台明确面向13岁以上用户,已部署技术检测和移除未成年账户,并将在下周公布更多新措施。
编辑点评
此次欧盟对Meta的初步裁定具有深远国际影响,标志着全球数字监管进入更严格的新阶段。作为全球最大的社交媒体平台,Meta的合规状况直接关系到数亿用户的数字安全,尤其涉及儿童保护这一敏感议题。欧盟《数字服务法》的执行不仅针对Meta,更在为全球科技公司设定行为标准,其“预防性监管”模式可能被其他国家效仿,推动全球平台治理趋同。
从地缘政治角度看,欧盟此举体现了其在数字主权领域的主导权扩张,通过立法工具对美国科技巨头施加约束,彰显“规则制定者”角色。这可能加剧欧美在数字监管领域的制度性竞争,影响未来全球数字经济规则的塑造。
经济层面,潜在高达120亿美元的罚款对Meta构成重大压力,也可能促使其他科技公司重新评估其全球合规成本。若Meta未能有效改进,可能引发连锁反应,迫使其他平台加强年龄验证系统,从而改变社交媒体用户的整体结构和使用模式。
长远来看,此次事件或成为全球儿童在线保护的转折点,推动各国加速制定类似法规,形成“数字童年保护”的国际共识。