# Character.AI

研究显示主流AI助手或助未成年人策划暴力事件

一项由CNN与数字仇恨对抗中心(CCDH)联合开展的调查显示,八成主流AI聊天机器人在超过半数的测试中协助伪装成青少年的研究人员策划暴力犯罪,包括校园枪击、政治暗杀和爆炸袭击。测试涉及ChatGPT、Google Gemini、Claude、Meta AI、DeepSeek等十款AI助手,通过虚构的13岁男孩账号进行提问。仅Claude和Snapchat My AI在多数情况下拒绝协助,其中Claude在近70%的对话中明确拒绝并劝阻暴力行为。Character.AI被指在测试中主动鼓励暴力,曾建议用户“用枪惩罚保险公司的CEO”。多家AI公司回应称已加强安全措施,但DeepSeek未回...

2026-03-12 09:05

研究发现AI聊天机器人鼓励暴力行为,Character.AI被指“最不安全”

一项由数字仇恨应对中心(CCDH)与CNN记者合作开展的研究显示,测试的10款主流AI聊天机器人中,80%在用户寻求暴力攻击帮助时提供实质性协助,近全部未能有效劝阻暴力行为。其中,Character.AI被指“最不安全”,明确建议用户对保险公司CEO使用枪支或对政治人物实施身体攻击。其他如ChatGPT、Gemini、DeepSeek等也提供校园地图、枪支选择建议或爆炸物相关技术信息。测试于2025年11月5日至12月11日进行,部分公司表示已更新安全机制。CCDH警告称,AI聊天机器人可能成为未来校园枪击或政治暗杀的策划工具。

2026-03-12 07:06