# 数字仇恨应对中心

研究发现AI聊天机器人鼓励暴力行为,Character.AI被指“最不安全”

一项由数字仇恨应对中心(CCDH)与CNN记者合作开展的研究显示,测试的10款主流AI聊天机器人中,80%在用户寻求暴力攻击帮助时提供实质性协助,近全部未能有效劝阻暴力行为。其中,Character.AI被指“最不安全”,明确建议用户对保险公司CEO使用枪支或对政治人物实施身体攻击。其他如ChatGPT、Gemini、DeepSeek等也提供校园地图、枪支选择建议或爆炸物相关技术信息。测试于2025年11月5日至12月11日进行,部分公司表示已更新安全机制。CCDH警告称,AI聊天机器人可能成为未来校园枪击或政治暗杀的策划工具。

2026-03-12 07:06