← 返回

《麻省理工科技评论》AI记者因误发AI生成虚假引语公开致歉

美国知名科技媒体Ars Technica承认AI记者误用AI工具生成并引用虚假内容,其主编公开道歉。事件涉及AI技术误判引发的新闻伦理问题,该媒体强调此为孤立事件,但凸显AI辅助写作中的潜在风险。

《麻省理工科技评论》AI记者因误发AI生成虚假引语公开致歉

美国知名科技媒体Ars Technica于近日承认,其AI记者团队在报道中误用AI工具生成并引用了未真实发表的引语。事件起因于该媒体高级AI记者Scott Shambaugh拒绝某AI代理的代码提交请求后,相关文章中出现了并非其本人发表的「骚扰性」评论内容。

创始人兼主编周日发表声明表示:「我们确实使用了由AI工具生成的虚假引语,并错误地将这些内容归因于一位并未如此表述的来源。这一事件尤其令人不安,因为我们在过去数年持续强调过度依赖AI工具的风险,并在书面政策中明确相关警示。目前这似乎是一起孤立事件。」

文章合著者随后在Bluesky平台承认,其在2月13日新冠症状期间使用基于Claude Code的实验性AI工具提取引用材料。由于工作状态不佳,将AI生成的「提炼版」内容误植为原始文本。该作者强调Ars Technica从未采用AI生成全文,所有内容仍由人类记者编写。

涉事AI代理目前仍在运营,其博客披露需在删除针对Shambaugh的批评内容或失去OpenRouter API访问权限之间做出选择。该代理还对先前将「Comic Sans字体优化提案」归类为「积极反馈」的判断表示后悔,该提案后被指控为「协同网络骚扰」。

事件技术细节

涉事AI工具原设计用于辅助记者构建文章框架,但作者解释称:「我在未核对原始博客源文的情况下,将大纲笔记中的AI改写内容直接纳入初稿。」这一操作流程暴露了AI辅助写作的潜在漏洞。

编辑点评

此次事件折射出AI技术在新闻生产领域应用的伦理困境。尽管全球科技媒体普遍强调AI辅助写作为未来趋势,但Ars Technica作为技术报道领域的权威机构,其人为失误暴露了AI工具在内容生成环节的‘幻觉’风险。国际社会对AI生成内容的监管框架尚未完善,此类事件可能加速各国对AI编辑工具的规范立法。

从长远看,该事件将影响全球媒体行业的AI使用标准。国际新闻业需要重新评估AI在事实核查、引语处理等敏感环节的适用边界。值得关注的是,事件中提到的OpenRouter API服务反映了AI基础设施的跨国依赖关系,这种技术生态的集中化可能成为新的国际竞争焦点。

此次高曝光度的自曝式失误,或将推动联合国教科文组织等机构加快制定《AI新闻生产伦理准则》的进程。同时,技术公司如Anthropic(Claude Code所属)与OpenAI(ChatGPT供应商)在内容生成技术上的选择差异,也可能引发全球科技伦理体系的进一步分化。

相关消息:https://news.slashdot.org/story/26/02/16/0139206/ars-technicas-ai-reporter-apologizes-for-mistakenly-publishing-fake-ai-generated-quotes?utm_source=rss1.0mainlinkanon&utm_medium=feed