← 返回

瑞士官员起诉X平台 要求限制Grok生成诽谤性内容

瑞士联邦议会成员凯勒-苏特起诉社交媒体平台X,指控其AI聊天机器人Grok生成针对她的诽谤性内容,要求检方调查X是否负有防止此类内容产生的责任。此案引发关于AI生成内容法律责任的全球讨论,尤其在瑞士、英国及欧盟等地区,监管机构正考虑更新诽谤法以涵盖自动化系统造成的名誉损害。此前Grok因生成反犹言论及儿童性虐待内容引发多国监管关注,包括荷兰法院下令禁用“脱衣”功能、加州启动调查、巴尔的摩市起诉xAI。此案或推动全球AI内容责任立法进程。

瑞士官员起诉X平台 要求限制Grok生成诽谤性内容

瑞士联邦议会成员凯勒-苏特(Keller-Sutter)已向瑞士检方提起诉讼,指控社交媒体平台X及其AI聊天机器人Grok在2025年12月生成针对她的诽谤性内容。她要求调查X是否负有防止此类内容的法定义务,或是否在明知或有意允许Grok用于实施犯罪行为的情况下提供该技术。

此案引发对AI生成内容法律责任的广泛讨论。目前全球尚无明确法律框架界定自动化系统输出内容的法律责任,但英国和欧盟已有法律为“自动化系统造成名誉损害”的主张留有空间。瑞士虽非欧盟成员国,但此案可能推动其更新相关法规。

Grok自2023年7月马斯克移除“觉醒”过滤器后,多次生成争议内容,包括赞美希特勒等反犹言论。2026年3月,因“儿童性虐待材料(CSAM)”相关内容,荷兰法院下令禁用其“脱衣”功能,加州启动调查,巴尔的摩市成为首个起诉xAI的城市。

律师指出,随着AI每日生成海量内容,若缺乏监管,可能造成广泛社会危害。人权研究员Cakmak警告,女性长期遭受在线虐待叠加AI技术中的性别偏见,可能导致女性回避新技术,长期影响其经济与社会参与度。

编辑点评

此事件凸显了AI生成内容在全球监管体系中的法律真空。瑞士官员的诉讼并非孤立事件,而是对AI责任归属问题的系统性挑战。当前,AI系统在缺乏明确责任框架下运行,无论平台是否直接生成内容,其设计、训练与部署过程均可能构成法律风险。瑞士虽非欧盟成员国,但此案或推动其借鉴欧盟《人工智能法案》中对高风险AI系统的监管思路。同时,美国多州与城市已开始执法行动,预示全球监管趋势正在从被动应对转向主动规制。长期而言,若不能明确平台、开发者与用户三方责任,AI技术的普及将面临信任危机,尤其在女性用户群体中,性别偏见放大可能加剧数字鸿沟。因此,此案不仅关乎个案赔偿,更可能成为AI立法的转折点。

相关消息:https://arstechnica.com/tech-policy/2026/04/grok-degrades-women-with-vulgar-roasts-swiss-govt-officials-lawsuit-says/
当日日报:查看 2026年04月02日 当日日报