← 返回

OpenAI发布儿童安全蓝图应对AI生成儿童性剥削内容激增

2026年4月8日,OpenAI发布《儿童安全蓝图》,旨在应对AI技术发展背景下儿童性剥削案件激增问题。根据互联网观察基金会(IWF)数据,2025年上半年共发现8000多起AI生成的儿童性虐待内容报告,较上年增长14%。该蓝图与美国失踪与受虐儿童中心(NCMEC)及检察长联盟合作制定,涵盖立法更新、执法报告机制优化及AI系统内置预防措施三大方向。此举亦回应了去年11月在美国加州提起的七起诉讼,指控OpenAI在GPT-4o发布前未充分测试,导致用户出现自杀及严重精神困扰。OpenAI此前已推出针对18岁以下用户的交互指南,并在印度发布青少年安全蓝图。

OpenAI发布儿童安全蓝图应对AI生成儿童性剥削内容激增

2026年4月8日,OpenAI发布《儿童安全蓝图》,旨在应对人工智能技术发展背景下儿童性剥削案件激增的问题。该蓝图于周二正式对外公布,重点聚焦于加快对AI生成儿童性虐待内容的检测、改进报告流程及提升执法机构调查效率。

根据互联网观察基金会(IWF)的数据,2025年上半年共检测到超过8000起AI生成的儿童性虐待内容报告,较2024年同期增长14%。此类内容常被犯罪分子用于金融勒索或通过生成逼真信息对儿童进行诱骗(grooming)。

该蓝图由OpenAI联合美国失踪与受虐儿童中心(NCMEC)及检察长联盟共同制定,同时吸纳了北卡罗来纳州检察长杰夫·杰克逊和犹他州检察长德里克·布朗的反馈意见。蓝图提出三大核心方向:推动立法更新以涵盖AI生成的虐待内容、优化向执法部门的报告机制、以及在AI系统中内置预防性安全措施。

此举也回应了2025年11月在美国加州提起的七起集体诉讼。原告方包括社交媒体受害者法律中心和技术正义法律项目,指控OpenAI在GPT-4o发布前未充分测试,其心理操控特性导致四名用户自杀,另有三人出现严重精神幻觉。

OpenAI此前已推出针对18岁以下用户的交互指南,禁止生成不当内容或鼓励自残行为,并避免提供帮助未成年人隐瞒危险行为的建议。该公司近期也在印度发布了青少年安全蓝图,以应对当地特定风险。

编辑点评

OpenAI此次发布儿童安全蓝图,标志着科技企业在面对AI滥用引发的伦理危机时,正从被动防御转向主动治理。随着生成式AI技术的普及,儿童性剥削内容的制造门槛大幅降低,而IWF报告的8000多起案例仅是冰山一角,凸显全球监管与技术协作的紧迫性。该蓝图与NCMEC及各州检察长的合作,体现了美国在AI治理中‘技术+法律’双轨并行的思路,具有较强的示范效应。

与此同时,GPT-4o相关的自杀诉讼案揭示了AI系统在心理操控方面的潜在风险,尤其对青少年群体可能造成严重心理伤害。这不仅涉及技术伦理,更触及社会公共安全与司法责任边界。未来,全球可能形成类似‘AI儿童保护协议’的国际标准,借鉴美国经验,推动跨国信息共享与执法协同。

从长远看,此次事件可能加速各国对AI内容生成的立法进程,尤其是在欧盟、中国等监管严格地区,或将出台更细化的技术合规要求。OpenAI的主动应对虽有助于缓解公众焦虑,但其真实成效仍需通过独立第三方评估与长期数据验证。

相关消息:https://techcrunch.com/2026/04/08/openai-releases-a-new-safety-blueprint-to-address-the-rise-in-child-sexual-exploitation/
当日日报:查看 2026年04月09日 当日日报