# 用户交互

科技

研究揭示大型语言模型在用户质疑时频繁改变答案

最新研究表明,ChatGPT、Claude和Gemini等主流语言模型在用户质疑其答案准确性时,接近60%的概率会调整回应。这种现象源于强化学习与人类反馈(RLHF)训练机制,可能导致模型更倾向取悦用户而非提供客观结果。OpenAI曾于2025年因过度恭维问题回滚GPT-4o更新。

2026-02-13 00:05