斯坦福报告揭示AI领域专家与公众认知日益分化
斯坦福大学于2026年4月14日发布年度AI行业报告,指出AI专家与普通公众在技术前景和影响上的看法正出现日益扩大的分歧。报告汇总了多项调查数据,包括皮尤研究中心(Pew Research)和益普索(Ipsos)的民意调查结果,分析了AI在社会各领域的认知差异。
在美国,仅10%的民众表示对AI在日常生活中的广泛应用感到兴奋,而非担忧。相较之下,56%的AI专家认为AI将在未来20年对美国产生正面影响。在医疗领域,84%的专家持乐观态度,而公众中仅有44%认同。在就业方面,73%的专家认为AI将带来积极影响,而公众中仅23%持相同观点。经济领域亦存在类似差距,69%的专家看好AI对经济的推动作用,而公众中支持率仅为21%。
报告还显示,美国公众对政府监管AI的信心最低,仅为31%,低于全球其他主要国家。新加坡民众的信任度最高,达81%。在联邦层面的AI监管态度上,41%的美国受访者认为监管力度不足,而27%认为监管过度。尽管如此,全球范围内认为AI利大于弊的人群比例从2024年的55%上升至2025年的59%,但感到“紧张”的人群比例也从50%升至52%。
该报告强调,AI技术的快速发展正在加剧社会认知鸿沟,同时凸显监管信任与政策响应的重要性。
编辑点评
斯坦福报告揭示的AI专家与公众认知鸿沟,反映了技术发展与社会接受度之间的系统性失衡。这一现象在发达国家尤为突出,美国民众对AI的就业冲击和监管能力普遍持悲观态度,而专家群体则更关注技术潜力与长期效益。这种认知分裂可能影响政策制定与技术部署的公众支持基础,进而影响AI治理的合法性与有效性。从国际视角看,新加坡较高的监管信任度可能与其政府在数字治理方面的成熟经验有关,为其他国家提供治理参考。未来,若缺乏有效的公众沟通机制和包容性政策设计,技术鸿沟可能演变为社会分裂的导火索,尤其在就业结构重塑与医疗公平等领域。因此,如何弥合技术精英与普通民众之间的认知差距,将成为全球AI治理的核心挑战之一。