Grammarly暂停AI专家反馈功能 因未经许可使用真实作者姓名
写作辅助平台Grammarly(现称Superhuman)已暂停其名为“Expert Review”的AI功能,原因是该功能在未经许可的情况下使用真实作家姓名生成AI写作建议,引发广泛争议。
公司首席执行官Shishir Mehrotra在LinkedIn上发布声明,称该功能于今年8月推出,旨在通过公开信息和第三方大型语言模型(LLM)提取知名人士的写作风格,为用户提供写作建议。但过去一周,多位专家反馈其观点被误用,认为其声音被AI系统“冒用”,导致公众误解其立场。
Mehrotra承认产品设计存在不足,表示:“我们听到了反馈,意识到未能达到预期目标。” 公司决定暂时禁用该功能,重新设计以赋予专家更多控制权,包括选择是否参与、如何呈现其知识以及设定商业模型。
Grammarly称,其愿景是解决“AI的最后一公里”,将AI直接嵌入用户工作流中。未来平台将开放给更多专家创建类似“AI助手”的代理,例如教授批改论文、销售主管优化客户提案等。专家将拥有自主权,决定是否参与及如何授权其知识使用。
该事件凸显生成式AI在伦理与版权方面的挑战,尤其是在使用公众人物观点时的边界问题。
编辑点评
此次事件揭示了生成式AI在内容创作领域面临的伦理困境。Grammarly的Expert Review功能虽旨在提升用户体验,但未经许可使用真实作者声音的行为,触及了知识产权与人格权的敏感地带。在AI大规模模拟人类创作的背景下,如何界定‘引用’与‘冒用’,成为行业亟需规范的问题。
从国际视角看,该事件可能推动全球对AI内容生成的监管框架升级。欧盟《人工智能法案》已将高风险AI系统纳入监管范围,而美国目前尚无统一标准,此类争议或加速政策讨论。此外,该事件也反映了技术企业对‘用户信任’的重新评估——在追求创新的同时,必须建立透明、可控的参与机制,尤其是涉及公众人物时。
长远来看,AI与人类创作者的关系将从‘替代’走向‘协作’。Grammarly提出的‘专家自主授权’模式,或成为未来AI平台的范式。若能成功实施,将为学术、商业、媒体等领域提供更可持续的AI应用路径,但前提是必须确保数据来源合法性与用户知情权。