# LLM

加州大学研究发现AI路由工具存在安全漏洞 可窃取加密货币凭证

加州大学研究人员发现,部分第三方AI大语言模型(LLM)路由工具存在严重安全漏洞,可能导致加密货币被盗。研究测试了28个付费和400个免费路由工具,发现9个主动注入恶意代码,17个获取研究人员的AWS凭证,1个成功从测试钱包中盗取以太坊(ETH)。这些路由工具终止TLS连接,可访问所有明文消息,使开发者在使用AI编程代理时面临私钥泄露风险。研究人员建议开发者避免将私钥或助记词通过AI代理传输,并呼吁AI公司对模型响应进行加密签名以增强安全性。

2026-04-13 12:03

Python 'Chardet' 包被LLM重写并重新许可引发开源社区争议

Python开源包'chardet'的维护者于近期发布7.0版本,声称实现43倍性能提升,并称其为MIT许可证下的全新重写。然而,社区发现该版本实际上是由现有代码和测试套件通过Claude大型语言模型生成,引发关于版权归属与开源许可合法性的广泛争议。原版本6及更早版本采用LGPL许可证,新版本则转为MIT许可证。维护者援引Oracle v. Google案中关于API克隆属于合理使用的判决,但未提供‘洁净室’开发证据。此外,LLM输出的版权归属尚无定论,法院近期倾向认为其不具可版权性。该事件在GitHub上引发激烈讨论,质疑是否可通过LLM‘清洗’开源代码并重新授权,从而规避原有开源社区权益。

2026-03-07 03:05