← 返回

维基百科编辑限制AI翻译贡献者因出现“幻觉”错误

维基百科编辑团队近期实施新政策,限制部分由开放知识协会(OKA)雇佣的翻译贡献者,因其在使用AI工具(如Google Gemini和ChatGPT)翻译英文条目时引入大量“幻觉”错误,包括事实性错误、缺失引文及无关来源引用。该问题暴露了AI在大规模知识翻译中的可靠性风险,尽管OKA初衷为扩充多语言内容,但其依赖全球南方廉价劳动力并依赖AI加速的模式引发编辑社区担忧。编辑团队选择对重复犯错的翻译者实施限制,但未全面禁止OKA的翻译活动,体现维基百科开放治理机制在应对技术挑战中的灵活性。

维基百科编辑限制AI翻译贡献者因出现“幻觉”错误

维基百科编辑团队近日实施新政策,限制部分由开放知识协会(OKA)雇佣的翻译贡献者。该限制源于编辑在审查翻译内容时发现,部分翻译者使用AI工具(如Google Gemini和ChatGPT)加速工作,但生成内容中出现大量“幻觉”错误,包括事实性错误、缺失引文及引用无关来源。

该问题源于OKA运营的一项翻译项目,该项目主要依赖全球南方的廉价劳动力进行英文维基条目的多语言翻译。尽管OKA的初衷是扩大维基百科的多语言覆盖,但其大量使用AI工具导致内容质量下降,引发编辑社区对AI在知识生产中可靠性的担忧。

维基百科编辑团队最终决定对多次犯错的OKA翻译者实施限制,但未全面禁止OKA的翻译活动。这一应对措施体现了维基百科开放治理模式在面对生成式AI挑战时的灵活性与纠错机制。

编辑们指出,即使善意的扩内容努力,若过度依赖AI,也可能损害全球最大知识库的可信度。此次事件凸显了AI技术在内容生产中的双刃剑效应,以及人工审核在保障信息准确性的关键作用。

编辑点评

此次事件凸显生成式AI在知识传播中的重大挑战。尽管AI能加速翻译进程,但其‘幻觉’特性——即编造不存在的事实、引用虚构来源——直接威胁信息权威性。维基百科作为全球信赖的知识平台,其开放治理模式在此显示出韧性:通过社区审核与分级限制,而非一刀切禁止,平衡效率与质量。这一案例具有全球启示意义:当AI被用于多语言内容生产,尤其在发展中国家劳动力参与的背景下,必须建立严格的审核机制。未来,AI辅助翻译或需嵌入事实核查模块,或由本地编辑团队二次校验,方能在扩展知识边界的同时维护可信度。长远来看,该事件可能推动AI工具厂商优化其输出逻辑,或促使知识平台制定更细致的技术使用规范。

相关消息:https://news.slashdot.org/story/26/03/06/020239/ai-translations-are-adding-hallucinations-to-wikipedia-articles?utm_source=rss1.0mainlinkanon&utm_medium=feed
当日日报:查看 2026年03月06日 当日日报