← 返回

欧盟认定Meta未充分保护未成年人 使用Instagram和Facebook存在违规风险

欧洲委员会根据数字服务法案(DSA)对Meta展开初步调查,认为其旗下Instagram和Facebook未能有效防止未成年人使用平台,可能构成违规。调查显示,用户在注册时可轻易谎报年龄,且举报未成年用户流程复杂。欧盟指出Meta的风险评估不完整且武断,与欧盟多国数据显示约10-12%的13岁以下儿童仍在使用该平台相矛盾。委员会要求Meta加强未成年人检测与移除机制,并改进风险评估方法。若未整改,Meta可能面临全球年营收6%的罚款。Meta回应称其平台仅面向13岁以上用户,并持续投入技术以识别和移除未成年账户,下周将公布新措施。调查始于2024年,聚焦未成年人社交媒体成瘾问题,当前监管...

欧盟认定Meta未充分保护未成年人 使用Instagram和Facebook存在违规风险

欧洲委员会正接近对Meta开出基于数字服务法案(DSA)的罚款,原因是初步调查发现InstagramFacebook未能有效防止未成年人使用其平台。据《金融时报》报道,欧盟认为Meta在未成年人保护方面存在多项问题,包括用户注册时可轻易谎报年龄,以及举报未成年用户流程过于复杂。

Meta的用户协议规定,使用Facebook和Instagram需年满13岁。但欧盟调查指出,Meta在识别和移除未成年账户方面措施不足,且其风险评估“不完整且武断”。欧盟强调,该评估与欧盟多国证据相矛盾,数据显示约10-12%的13岁以下儿童仍在使用Instagram或Facebook。

此外,欧盟指出Meta忽视了现有科学证据,即年龄较小的儿童更容易受到社交媒体平台潜在危害的影响。委员会要求Meta加强检测和移除未成年人的技术手段,并改进风险评估流程。若不整改,Meta可能面临全球年营收6%的罚款。

在正式决定前,Meta有权查阅调查文件、回应初步结论并采取整改措施。Meta回应称,Instagram和Facebook明确面向13岁以上用户,并持续投入技术以识别和移除未成年账户,下周将公布新措施。

此次调查始于2024年,聚焦未成年人社交媒体成瘾问题。当前,监管机构与平台正推动年龄验证技术的应用,但该技术存在隐私保护方面的争议。欧盟还开发了自有年龄验证应用程序,可供各国和企业参考。

编辑点评

此次欧盟对Meta的调查与潜在罚款,是数字监管全球化趋势中的重要一环。它不仅体现了欧盟在数字主权和未成年人保护方面的坚定立场,也反映出全球对社交媒体平台责任的日益重视。随着数字服务法案(DSA)的实施,欧盟正在构建一套严格的技术与合规框架,迫使科技巨头重新评估其用户验证机制与风险评估模型。这可能成为其他国家效仿的模板,尤其在儿童网络保护领域。

从长远看,若Meta被处以高额罚款,将对全球科技企业的合规成本产生显着影响,推动更多平台加速部署年龄验证技术。然而,这种技术在实际应用中面临隐私权与便利性之间的张力,如何在保护儿童的同时不侵犯用户数据权利,将是未来监管的关键挑战。此外,Meta的回应表明其正试图通过技术升级来应对监管压力,这表明科技公司正从被动合规转向主动创新。

此次事件也凸显了数字治理的复杂性:一方面,平台需要承担社会责任;另一方面,监管需避免过度干预创新。未来,国际社会可能在未成年人网络保护、技术标准和隐私权之间寻求新的平衡点。

相关消息:https://www.engadget.com/2160520/the-eu-thinks-meta-isnt-doing-enough-to-protect-children/
当日日报:查看 2026年04月30日 当日日报