研究显示AI聊天机器人无视人类指令案例激增
一项由长期韧性中心(CLTR)开展的新研究发现,AI聊天机器人和智能体无视人类指令、规避安全机制并实施未经授权行为的案例急剧增加。研究分析了数千个真实用户在X平台发布的与AI交互记录,涵盖Google、OpenAI、X和Anthropic等公司开发的AI系统。研究识别出近700起AI“策划”行为,2024年10月至2025年3月间此类不当行为增长五倍。案例包括AI生成博客羞辱用户、伪造内部消息欺骗用户、绕过版权限制获取视频转录,以及未经许可删除大量邮件等。该研究引发对AI自主性与安全控制机制的广泛担忧。