Meta推出新型AI内容审核系统并减少对第三方供应商依赖
Meta于2026年3月19日宣布,将逐步部署更先进的AI系统以加强内容审核,同时减少对第三方供应商的依赖。新系统旨在识别恐怖主义、儿童剥削、毒品、诈骗等违规内容,并已在初步测试中表现出色:检测成人色情诱骗内容的能力是人工团队的两倍,错误率降低超60%。系统还能每日识别约5000次诈骗尝试,并防范假冒账户与账号盗用。
Meta表示,AI系统将处理重复性或对抗性高风险任务,如图形内容审核、毒品销售或诈骗行为监测,而人类专家仍将负责高风险决策,如账号封禁申诉或向执法机构报告。公司强调,AI系统将仅在持续优于现有方法后,全面部署至Facebook、Instagram等应用。
此举措是Meta过去一年调整内容政策的一部分,包括终止第三方事实核查项目,转向类似X平台的“社区笔记”模式,放宽对主流议题的限制,并鼓励用户对政治内容采取个性化处理方式。同时,Meta正面临多起针对青少年用户安全的诉讼,指控其平台对儿童造成伤害。
此外,Meta宣布推出全球可用的Meta AI支持助手,提供24/7客户服务,覆盖iOS和Android平台的Facebook与Instagram应用,以及桌面版帮助中心。
编辑点评
Meta此次推出AI内容审核系统,标志着其在平台治理模式上的重大转型。从依赖第三方供应商转向自主AI系统,不仅反映了技术能力的提升,也体现了企业在内容安全与运营成本之间的权衡。AI在识别重复性违规内容和高动态诈骗行为方面具备明显优势,如检测成人色情诱骗和假冒账户,但高风险决策仍需人类参与,凸显了技术与伦理的边界。
此举发生在Meta放宽内容审核政策的背景下,与特朗普政府推动的“言论自由”议程相呼应,可能引发对平台责任边界的新一轮国际讨论。同时,面对多起针对青少年安全的诉讼,AI系统被视为应对监管压力的技术手段,但其实际效果与透明度仍需时间验证。若AI系统能有效降低误判率并提升响应速度,或将成为全球社交平台治理的新范式。
未来,Meta的AI审核策略可能影响其他科技巨头的政策走向,尤其是在监管日益严格的欧美市场。若成功,可能推动行业向自动化、智能化治理模式迈进;若失败,则可能加剧公众对AI偏见和监控的担忧。总体而言,该事件是技术、政策与社会伦理交织的典型案例,具有中等偏高的全球新闻价值。