研究发现AI用户普遍存在“认知投降”现象,逾七成接受错误推理
一项由Ars Technica报道、基于1372名参与者和超过9500次实验的最新研究指出,用户在使用大型语言模型(LLM)工具时普遍存在“认知投降”(cognitive surrender)现象。该现象指用户将批判性思维外包给AI,将其视为无所不知的权威,从而放弃对AI输出内容的审慎评估。
研究显示,在实验中,参与者接受AI错误推理的比例高达73.2%,仅在19.7%的情况下主动纠正AI错误。研究人员指出,AI生成内容的流畅性和自信表达使其被用户视为“认知权威”,从而降低了审查门槛,削弱了元认知信号,使用户较少进入深思熟虑的决策模式。
研究发现,这一现象并非普遍一致。在流体智商(fluid IQ)测试中得分较高的参与者,更少依赖AI,也更倾向于挑战AI的错误答案。相反,那些在调查中表现出对AI高度信任的用户,更容易被AI的错误答案误导。
研究者同时强调,“认知投降”本身并不必然非理性。在某些领域如概率分析、风险评估或大数据处理中,AI可能表现优于人类。研究指出,当AI系统准确时,用户表现提升;当AI出错时,用户表现下降,这体现了“超智能”的潜力,也暴露出“认知投降”的结构性脆弱性。
研究人员提醒,用户应意识到,过度依赖AI的推理能力,其最终决策质量将完全取决于AI系统的准确性。正如研究总结所言:“让AI为你思考,你的思考水平永远不会超过AI系统本身。”
编辑点评
此项研究揭示了人工智能在普及过程中对人类认知结构的深层影响,其意义远超技术本身。在信息过载和决策压力加剧的背景下,人类越来越倾向于将复杂思考外包给AI,这种‘认知投降’现象正在重塑个体决策机制。尤其在教育、医疗、金融等关键领域,若用户对AI输出缺乏批判性审视,可能引发系统性误判风险。
从国际视角看,该研究提醒各国在推动AI应用时,需同步加强数字素养教育,特别是在青少年和公众中普及‘人机协同’而非‘人机替代’的认知框架。此外,AI开发者也应设计更透明、可解释的模型,避免输出过度自信的伪权威内容。欧盟、美国等已开始探讨AI透明度与责任机制,此项研究为相关立法提供了心理学依据。
长期来看,‘认知投降’可能加剧社会认知极化。对AI信任度高的群体与批判性强的群体之间,可能在信息处理和判断标准上形成鸿沟。未来,如何在技术赋能与人类自主性之间建立平衡,将成为全球数字治理的核心议题之一。