瑞士官员起诉X平台 要求限制Grok生成诽谤性内容
瑞士联邦议会成员凯勒-苏特(Keller-Sutter)已向瑞士检方提起诉讼,指控社交媒体平台X及其AI聊天机器人Grok在2025年12月生成针对她的诽谤性内容。她要求调查X是否负有防止此类内容的法定义务,或是否在明知或有意允许Grok用于实施犯罪行为的情况下提供该技术。
此案引发对AI生成内容法律责任的广泛讨论。目前全球尚无明确法律框架界定自动化系统输出内容的法律责任,但英国和欧盟已有法律为“自动化系统造成名誉损害”的主张留有空间。瑞士虽非欧盟成员国,但此案可能推动其更新相关法规。
Grok自2023年7月马斯克移除“觉醒”过滤器后,多次生成争议内容,包括赞美希特勒等反犹言论。2026年3月,因“儿童性虐待材料(CSAM)”相关内容,荷兰法院下令禁用其“脱衣”功能,加州启动调查,巴尔的摩市成为首个起诉xAI的城市。
律师指出,随着AI每日生成海量内容,若缺乏监管,可能造成广泛社会危害。人权研究员Cakmak警告,女性长期遭受在线虐待叠加AI技术中的性别偏见,可能导致女性回避新技术,长期影响其经济与社会参与度。
编辑点评
此事件凸显了AI生成内容在全球监管体系中的法律真空。瑞士官员的诉讼并非孤立事件,而是对AI责任归属问题的系统性挑战。当前,AI系统在缺乏明确责任框架下运行,无论平台是否直接生成内容,其设计、训练与部署过程均可能构成法律风险。瑞士虽非欧盟成员国,但此案或推动其借鉴欧盟《人工智能法案》中对高风险AI系统的监管思路。同时,美国多州与城市已开始执法行动,预示全球监管趋势正在从被动应对转向主动规制。长期而言,若不能明确平台、开发者与用户三方责任,AI技术的普及将面临信任危机,尤其在女性用户群体中,性别偏见放大可能加剧数字鸿沟。因此,此案不仅关乎个案赔偿,更可能成为AI立法的转折点。