维基百科禁止使用生成式AI撰写或改写条目
维基百科于2026年3月26日宣布,正式禁止使用生成式人工智能(AI)撰写或改写条目内容。该组织称,此类AI工具“常常违反维基百科多项核心内容政策”,包括对来源可靠性和中立性的要求。
编辑仍可使用大型语言模型(LLMs)进行翻译或对已有文本进行轻微润色,但必须由人类编辑严格核查最终内容的准确性。政策文件指出,LLMs可能“超出用户指令范围,改变文本原意,导致内容与所引用来源不符”。
在翻译场景中,编辑需具备双语熟练能力,以识别并修正AI生成的潜在错误。维基百科强调,无论何种用途,最终内容必须经人类验证,确保符合其编辑准则。
维基百科管理员Chaotic Enby在声明中表示:“我真诚希望此举能引发更广泛的变革,赋能其他平台的用户社区,推动用户自主决定AI在各自社区中的使用范围和方式。” 该管理员将新政策视为“对近年来企业强制推行AI趋势的抵制”,并称其为“对抗‘劣质化’(enshittification)的一步”。
编辑点评
维基百科禁止生成式AI撰写内容的决定,反映了全球在AI技术应用与内容可信度之间日益尖锐的矛盾。作为全球最广泛使用的知识共享平台,维基百科的立场具有示范效应,可能引导其他内容平台重新评估AI辅助创作的边界。此举虽未完全排除AI,但强调人类主导验证,凸显了对信息准确性和来源可靠性的坚守,这在AI“幻觉”问题频发的背景下尤为关键。
从国际影响看,该政策可能推动全球知识社区对AI伦理的讨论,尤其是在教育、学术和公共信息领域。美国科技公司近年来大力推广AI生成内容,维基百科的抵制可视作对技术霸权的一种回应。未来,类似平台可能面临是否跟进的抉择,或推动制定更严格的AI内容审核标准。
长期而言,该政策或促使AI开发商优化模型,使其在保持生成效率的同时增强事实核查能力。同时,它也警示全球数字内容生态:技术进步必须与可信度、透明度和人文责任并行,否则可能损害公众对数字信息的信任基础。