作家起诉Grammarly擅自利用其身份提供AI编辑服务
Grammarly近日推出名为“Expert Review”的AI功能,模拟多位知名作家和专家(如斯蒂芬·金、卡尔·萨根、卡拉·斯威舍等)提供编辑反馈,但未获得相关人士授权。记者朱莉娅·安吉文已对母公司Superhuman提起集体诉讼,指控其侵犯隐私权与公开权。
该功能仅限年费144美元的订阅用户使用,但实际反馈内容空洞,引发广泛质疑。作家凯西·牛顿测试后收到AI模拟的卡拉·斯威舍的反馈:“能否简要比较每日使用AI者与AI怀疑论者如何表达风险,形成读者可以追随的主线?”该反馈被指过于泛泛,质疑为何公司要使用这些作家的名义。
斯威舍本人得知后通过短信回应牛顿:“你们这些贪婪的信息与身份窃贼,准备好迎接我全麦康纳希式的报复吧。另外,你们真烂。”
Grammarly已暂停“Expert Review”功能。Superhuman首席执行官希希尔·梅赫罗特拉在LinkedIn上道歉,但仍为功能辩护,称其可模拟教授、销售主管或专家提供反馈,为专家建立与用户的广泛连接。
安吉文在声明中表示:“我花了数十年磨练写作和编辑技能,对一家科技公司出售我辛勤所得专长的仿制品感到痛心。”她长期致力于调查科技公司对隐私的影响,其自身也因被AI模仿而成为争议焦点。
此案引发对AI技术伦理、个人身份权及隐私保护的广泛讨论。
编辑点评
此次Grammarly事件凸显AI技术在商业化进程中面临的伦理困境。当AI模仿公众人物的风格甚至身份,却未获授权,实质上是对个体人格权和名誉权的侵犯。在技术快速迭代背景下,现有法律框架对‘数字人格’的保护尚不完善,此类案件可能成为未来AI监管的重要参照点。
该事件也反映出公众对AI透明度与责任归属的日益关注。尽管Grammarly声称其功能旨在提升用户体验,但实际反馈的空洞性暴露了技术与真实价值之间的鸿沟。若技术公司持续在未明确授权下利用他人身份,将加剧公众对AI滥用的警惕,影响用户信任。
从全球趋势看,欧美地区已开始探索AI生成内容的法律责任认定。欧盟《人工智能法案》等立法正在推动对“深度伪造”和身份仿冒的规范。此案或推动美国在联邦或州层面出台更严苛的AI身份使用法规,未来可能形成跨国法律协调。
长远来看,此事件或将促使科技企业重新评估AI功能设计中的伦理边界,推动行业建立“数字身份授权”机制,避免技术进步与个人权利保护之间的冲突加剧。