AI工具通过“洁净室”方法绕开开源软件版权限制
一个名为Malus的AI工具利用生成式人工智能技术,创建开源软件的“洁净室”克隆版本,旨在复制其功能同时规避版权归属和copyleft义务。该项目由联合国研究人员Mike Nolan与另一位开发者共同开发,其法律策略参考了1982年Columbia Data Products对抗IBM版权的经典案例。当时,Columbia通过分离团队设计兼容系统:一组人员分析IBM BIOS并制定技术规范,另一组“洁净”团队在无接触原始代码的情况下从零构建兼容BIOS,从而避免侵犯版权。
Malus声称,其AI机器人独立“从零”重构任何开源项目,生成法律上独立的代码,采用企业友好的许可模式,无需归因、无需copyleft、无任何问题。其网站宣传语为“终于摆脱开源许可义务”。
Mike Nolan表示,该工具不仅是讽刺,更具有现实意义,旨在警示开源技术工作者:他们同样可能成为经济压力下的牺牲品。他强调,通过Stripe收费验证工具功能,是为了避免研究被“过于特殊、过于聪明”的技术社区忽视。
此方法在生成式AI时代重新引发争议。支持者认为AI生成代码属原创,可绕过现有版权约束;反对者则指出,大型语言模型训练数据源自互联网广泛采集,包括大量开源项目,因此AI输出本质上是衍生作品。该事件引发对AI生成代码法律地位、开源生态可持续性及未来软件版权框架的广泛讨论。
编辑点评
Malus项目虽具讽刺性质,却揭示了生成式AI对开源软件生态的根本性挑战。其核心逻辑——通过AI实现“洁净室”重构——在技术上可行,但在法律与伦理层面极具争议。1982年的洁净室方法依赖人工隔离设计,而现代AI通过海量数据训练生成代码,其“原创性”边界模糊,可能动摇开源许可证的基石。若企业广泛采用此类工具,将加剧开源社区的资源不平等,削弱开发者贡献动力,威胁开源生态的可持续性。
从全球科技治理角度看,此事件凸显现有版权框架在AI时代的滞后性。各国正面临如何界定AI生成内容版权归属的难题,美国、欧盟等地区已启动相关立法讨论。Malus的出现可能加速立法进程,促使各国重新审视“衍生性”与“独立创作”的法律定义。
长期而言,若AI可低成本绕开开源许可,可能导致开源项目商业化模式崩溃,加剧技术垄断。开源社区或需发展新的许可机制(如AI训练禁用条款),或推动更严格的AI训练数据来源透明化。此事件虽未引发直接冲突,但已点燃全球科技界关于开源未来、AI伦理与知识产权的深层辩论,其影响或逐步显现于未来三年内的技术政策制定中。