英国将AI聊天机器人纳入《在线安全法》监管
英国政府于2026年1月19日宣布,通过新立法措施弥补法律漏洞,要求AI聊天机器人运营商履行非法内容管控义务,否则将面临罚款或服务封锁。首相基尔·斯塔默强调,此举表明“任何平台都不可能免责”,并明确将儿童安全保护作为核心目标。
监管范围与具体措施
根据新规定,OpenAI的ChatGPT、谷歌Gemini及微软Copilot等主流AI平台需遵守“非法内容管控义务”。Ofcom此前已对X平台(原Twitter)展开调查,指控其传播儿童色情图片。斯塔默同时提出多项限制措施,包括设定社交媒体最低使用年龄、禁用无限滚动等有害功能,以及要求平台在未成年人死亡后保留相关数据。
国际背景与立法进展
这一调整呼应了全球对未成年人使用社交媒体风险的担忧。继澳大利亚2025年12月实施16岁以下用户禁止使用社交媒体的法律后,西班牙于2026年初成为首个执行同类禁令的欧洲国家,法国、希腊等国也在研究类似政策。英国上议院(House of Lords)已于2026年1月通过修订《儿童福祉与学校法案》的提案,要求禁止16岁以下用户注册社交媒体,法案下一步将提交下议院审议。
编辑点评
英国此次立法行动标志着全球对AI技术监管进入新阶段。以往各国多侧重对用户生成内容的管控,而此次将AI系统本身纳入法律框架,可能引发更多国家效仿。经济层面,科技企业需增加合规成本,可能影响生成式AI商业化进程。国际关系上,此举或推动欧盟在《数字服务法》框架下出台更严格细则。然而技术监管存在两难——过度限制可能抑制创新,而执行标准模糊则可能导致法律空转。值得注意的是,英国议会两院均参与立法程序,显示其政策制定的审慎性。未来需关注监管与技术创新的平衡点,以及数据隐私与公共安全的协调机制,这将影响全球数字治理规则的走向。