Grammarly未获授权使用作者身份,引发隐私争议
Grammarly旗下AI写作工具Superhuman推出的新功能“Expert Review”在未征得作者同意的情况下,使用多位作者的真实姓名为其AI建议背书,引发广泛批评。受影响者包括The Verge记者Sean Hollister、Nilay Patel、David Pierce、Tom Warren及多位知名公众人物。
该功能旨在通过引用权威人士的观点增强AI建议的可信度,但未经当事人授权即使用其姓名,被批评为“身份盗用”。多位受影响作者表示,他们是在测试产品时才发现自己的名字被用于AI编辑建议中。
Grammarly公司未对事件道歉或撤回功能,仅表示将允许专家通过发送邮件至expertoptout@superhuman.com申请退出。公司产品与企业营销副总裁Alex Gay称,此举旨在“提高专家对其姓名使用的控制权”,并“帮助有影响力的声音触及新受众”。
然而,该回应未提及“事先同意”或“用户授权”等关键问题。发言人Jen Dakin补充称,公司“正在进一步优化功能”,但未说明是否将提供更全面的保护机制。
批评者指出,仅靠邮件申请退出无法有效保护身份权,尤其对不使用该工具或不熟悉其功能的公众而言,难以察觉自身权利被侵犯。业界呼吁建立更透明、自动化的身份授权机制,以应对AI时代日益复杂的伦理挑战。
编辑点评
此事件凸显AI技术在追求可信度与用户授权之间的伦理冲突。Grammarly以‘提升AI建议权威性’为由使用真实作者姓名,虽在功能设计上有其逻辑,但严重忽视了个人身份权的法律与道德边界。在当前全球对AI监管日益严格的背景下,此类行为可能加剧公众对AI滥用的担忧。
从国际影响看,该事件虽起源于美国,但涉及全球用户和内容创作者,尤其在欧洲等重视数据隐私的地区,可能引发合规风险。欧盟《人工智能法案》等框架正逐步加强对AI系统透明度与用户同意的强制要求,Grammarly若无实质改进,或面临法律诉讼与市场声誉损失。
长远来看,此类争议将推动行业建立更明确的AI引用伦理准则。未来AI工具在引用人类观点时,需获得明确授权,或采用匿名化、署名可选等机制,避免对个人身份造成非自愿商业利用。这不仅是技术问题,更是对数字时代人格权的再定义。