美国两起案件裁定AI不具备人类智能 人工智能生成内容不享版权与律师特权
2026年3月,美国联邦最高法院拒绝受理艺术家兼计算机科学家斯蒂芬·塔勒(Stephen Thaler)就其AI生成艺术品申请版权的上诉案,维持了华盛顿特区上诉法院2025年作出的裁决:非人类创作的作品不可受版权保护。
该案中,塔勒开发了一款AI系统并声称其创作的艺术品应受版权保护。但法官帕特里夏·A·米勒特(Patricia A. Millett)指出,美国版权局长期规定“作品必须源于人类创作方可获得版权保护”,该规定符合法律传统。法院驳回塔勒关于此规定违宪的主张,最高法院亦未受理上诉,意味着裁决已具终局效力。
与此同时,另一案件涉及金融公司高管布拉德利·赫普纳(Bradley Heppner),他被控挪用1.5亿美元资金,面临联邦起诉。赫普纳曾通过AI模型Claude咨询辩护策略,并向律师提供相关记录。其律师主张这些记录受律师-客户特权保护,应保密。
联邦法官杰德·S·拉科夫(Jed S. Rakoff)裁定该主张不成立。他指出,Claude并非律师,因此双方交流不属于律师-客户沟通;且根据Anthropic公司条款,用户输入与AI输出均可能被收集用于模型训练,不具备保密性。此外,Claude在测试中明确提示用户“应咨询合格律师”,证明其不具备提供法律建议的资格。
两起案件共同表明,美国司法系统目前明确将AI视为工具而非具有法律人格的实体,其生成内容不享有与人类创作同等的法律保护。
编辑点评
这两起美国司法裁决具有深远的国际法律与技术治理意义。首先,它们确立了AI在法律人格层面的‘非人类’定位,为全球范围内的AI版权、隐私、责任归属等问题提供了重要判例参考。尤其在版权领域,若AI生成内容不被保护,将直接影响创意产业的商业模式和激励机制,促使企业和创作者更强调人类参与的创作过程。
其次,律师-客户特权案揭示了AI在司法程序中的边界问题。若用户将AI作为‘虚拟顾问’使用,其数据可能被用于训练模型,从而破坏法律程序的保密性。这为各国在AI监管中提出警示:必须明确界定AI在专业服务中的角色,避免其被误用为法律代理或保密沟通渠道。
从长期看,该判决可能推动全球立法者加快制定AI法律框架,尤其是在知识产权、数据隐私和司法伦理方面。随着AI在商业与司法领域的渗透加深,如何在鼓励创新与维护法律秩序之间取得平衡,将成为国际社会共同面对的挑战。