Meta接连败诉 或影响AI研究与用户安全
2026年3月,Meta公司在新墨西哥州和洛杉矶的两起与社交媒体成瘾相关的民事诉讼中均遭陪审团裁定败诉。陪审团认定,Meta未能有效监管其社交平台,使未成年人暴露于潜在危害之中。
案件审理过程中,原告方提交了数百万份内部文件,包括高管邮件、演示文稿以及公司内部研究。其中,有多项研究显示,Instagram平台上存在大量青少年收到不当性暗示内容的情况;另有研究发现,减少Facebook使用频率的用户焦虑和抑郁水平有所下降,但Meta已中止该类研究。
前Facebook高管Brian Boland在采访中指出,Meta在2021年Frances Haugen泄密事件后,逐步收紧了内部研究团队的权限。他曾表示,早期公司曾拥有具备独立研究能力的团队,但如今已不复存在。
Meta和YouTube(谷歌旗下)均表示将上诉。心理学家兼律师Lisa Strohman认为,企业原本期望利用内部研究赢得公众信任,但研究者作为父母和家庭成员,无法被收买,最终导致公众信任反而受损。
非营利组织“儿童与屏幕”研究所主任Kate Blocker指出,Meta泄露事件是全球性转折点,促使科技公司开始清除可能损害自身形象的研究项目。Tech Oversight Project执行董事Sacha Haworth则强调,本次诉讼虽未披露全新信息,但提供了关键语境——包括内部邮件、截图和营销演示,使公众得以全面了解公司内部运作。
随着科技行业加速推进人工智能,Meta、OpenAI、Google等公司更侧重产品开发,而非用户安全研究。Blocker警告,AI公司目前研究重点多在于模型行为、可解释性和对齐(alignment),对聊天机器人和数字助手对儿童发展的影响研究严重不足。她呼吁建立透明机制,公开企业研究成果,支持独立评估。
编辑点评
Meta在两起关键诉讼中的败诉,不仅暴露了其在社交媒体时代对用户安全的系统性忽视,更对当前AI产业的伦理治理路径构成警示。此案揭示,企业内部研究若缺乏透明度,一旦被公之于众,极易转化为法律和舆论的双重压力。历史表明,科技公司往往在危机爆发后才被动回应,而非主动建立预防机制。当前,AI技术正以更快的速度渗透社会,其对儿童心理、社会认知及信息获取的影响尚未被充分研究。若AI公司沿袭Meta的‘先发展、后监管’模式,可能重蹈覆辙,引发新一轮公共信任危机。因此,国际社会需推动建立强制性的AI影响评估框架,确保企业研究成果可被独立审查。此外,监管机构应考虑将‘研究透明度’纳入企业合规标准,避免未来出现类似‘黑箱’式治理。长远来看,这不仅是企业社会责任问题,更是关乎全球数字治理的制度性挑战。