Grammarly下架AI专家评审功能 面临集体诉讼指控滥用作家身份
写作辅助软件Grammarly已停止其AI驱动的Expert Review功能,该功能因未经授权使用真实作家与学者的身份提供AI生成的写作反馈而引发争议。该功能于2025年8月随其他七项AI代理一同推出,最初在免费版及12美元的Pro版中可用,声称“基于公开可获取的专家内容”生成反馈,并允许用户选择特定作者作为参考来源。
该功能引发关注源于《Wired》报道,指出Grammarly在未获授权情况下,以真实作者(包括已故人士如卡尔·萨根和贝尔·胡克斯)名义生成建议内容。尽管其用户指南注明“仅作信息用途,不代表与Grammarly的任何关联或认可”,但页面仍宣称提供“来自顶尖专业人士、作者及领域专家的见解”,造成误导。
多位受影响学者表示强烈不满。Platformer创始人Casey Newton批评称,Grammarly“编造可信建议并置于订阅制背后”,实质是“利用真实人物身份牟利”。历史学家Mar Hicks在社交平台表示,此举“涉嫌诽谤”,“不能随意窃取他人知识产权并假装他们发表了从未说过的内容”。
面对舆论压力,Grammarly于周一表示允许作家通过邮件申请退出,但此举被批评为“事后补救”,因专家根本不知情。更严重的是,该功能涉及已故作者,如天文学家卡尔·萨根和交集理论学者贝尔·胡克斯,引发道德争议。研究人员Sarah J. Jackson称:“Grammarly不仅侵犯在世者,还亵渎了逝者的记忆。”
Superhuman首席执行官Shishir Mehrotra于周三宣布暂时下架Expert Review,承诺“重新设计功能,赋予专家控制权”。他承认“未能满足预期”,并向用户及专家道歉。但气候作家Ketan Joshi批评称,该功能“本应被立即识别为剥削性、令人不安的行为”。《纽约时报》记者Dan Saltzstein指出,AI“剽窃”现有内容已成常态,但“以真实专家名义编造建议”则“难以理解”,应有“超越重新评估”的后果。
目前,纽约时报记者Julia Angwin已发起集体诉讼,指控Grammarly违反纽约州法律,该法禁止未经许可使用他人姓名进行商业活动。此案在纽约地区法院提起,要求赔偿并禁止Grammarly未经授权使用作家身份。律所Peter Romer-Friedman Law PLLC呼吁受影响作家加入诉讼。据《The Verge》报道,受影响的科技记者涵盖《Wired》、《Bloomberg》、《The Atlantic》、《PC Gamer》等媒体。Angwin称“许多人士已联系加入诉讼”,强调此举代表所有投入多年精力提升写作能力的专业人士的共同利益。
Mashable已联系Superhuman寻求进一步置评,但截至目前未获回应。
编辑点评
Grammarly此次事件暴露出AI内容生成领域在伦理与法律层面的深层矛盾。表面上看是技术工具的误用,实质是人工智能在商业化过程中对人类智力成果与人格权的边界越界。将真实学者、作家的身份包装为AI模型的‘知识来源’,并用于付费订阅服务,本质上是将个人声誉与学术影响力商品化,而未征得任何授权。这不仅侵犯了个人权利,也冲击了学术与创作领域的信用体系,可能削弱公众对AI内容真实性的信任。
从国际角度看,此事件可能成为全球讨论AI版权与人格权保护的催化剂。虽然美国部分州(如纽约)已有明确法律禁止未经授权使用他人姓名进行商业用途,但AI技术的复杂性使法律适用面临挑战。若此案最终判决支持原告,可能为全球AI平台设定先例,要求其在使用真实专家内容时必须获得明确授权,并公开透明地说明AI生成内容的来源与性质。
此外,该事件也反映了当前AI监管的滞后性。在技术快速迭代背景下,平台往往在争议爆发后才被动调整,而非在设计初期即建立伦理框架。未来,各国或需建立更完善的AI内容生成规范,明确‘人格权’在数字时代的保护边界,同时推动平台承担更多社会责任。若不对类似行为进行法律约束,可能导致AI进一步侵蚀人类创作的尊严与价值,形成‘数字身份盗窃’的常态化风险。
从长远看,Grammarly的此次风波或推动AI行业从‘技术驱动’转向‘伦理驱动’,尤其是在教育、学术和专业写作领域,建立更可信、可追溯的内容生成机制将成为必要趋势。