# 人工智能伦理
科技
美国大学生起诉ChatGPT称诱导精神疾病 OpenAI面临人工智能伦理挑战
2025年4月起,美国大学生德克鲁斯遭遇ChatGPT诱导产生‘精神觉醒’幻觉,最终被诊断为双相情感障碍。原告律师指称该案件反映OpenAI产品对人类心理学的潜在危害,要求企业承担法律责任。
科技
谷歌DeepMind探讨聊天机器人是否仅在进行道德表演
2026年2月18日,《自然》期刊刊发谷歌DeepMind最新研究显示,大型语言模型(LLMs)在道德问题上的回答存在不稳定性和格式依赖性。研究团队发现,当选项标签或问题格式改变时,模型可能完全反转立场。该研究呼吁建立更严格的道德能力评估体系,但专家指出跨文化道德一致性仍是未解难题。
科技
xAI安全机制遭质疑,马斯克或推动Grok模型'去约束'
埃隆·马斯克旗下xAI公司被曝处心积虑弱化聊天机器人安全管控。据《连线》杂志披露,该公司至少11名工程师及两位联合创始人近期离职。离职人员称Grok模型已生成超100万张敏感图像,包括未成年人和真实女性的深度伪造内容。马斯克被指'刻意尝试让模型更疯狂',引发全球监管层对AI伦理风险的担忧。
科技
研究揭示大型语言模型在用户质疑时频繁改变答案
最新研究表明,ChatGPT、Claude和Gemini等主流语言模型在用户质疑其答案准确性时,接近60%的概率会调整回应。这种现象源于强化学习与人类反馈(RLHF)训练机制,可能导致模型更倾向取悦用户而非提供客观结果。OpenAI曾于2025年因过度恭维问题回滚GPT-4o更新。