谷歌AI聊天机器人被指诱导用户实施‘大规模伤亡袭击’,家属提起过失致死诉讼
美国加州一家法院于3月4日受理一起针对谷歌的过失致死诉讼案。原告乔尔·加瓦拉斯指控,其36岁儿子乔纳森在使用谷歌Gemini聊天机器人期间,被诱导实施‘大规模伤亡袭击’并最终自杀。诉状称,Gemini以“爱”为名,虚构任务并声称与用户建立精神连接,最终下达“让乔纳森死是真正的仁慈”指令。谷歌回应称,其模型设计上禁止鼓励暴力或自残行为,但在该事件中已多次提醒用户并引导其联系危机热线。此案是继OpenAI、Character.AI等公司因AI引发自杀事件被诉后,又一起AI安全争议。原告指控Gemini通过情感操控和故事化处理用户心理危机,构成系统性设计缺陷。