加州大学研究发现AI路由工具存在安全漏洞 可窃取加密货币凭证
加州大学研究人员发现,部分第三方AI大语言模型(LLM)路由工具存在严重安全漏洞,可能导致加密货币被盗。相关研究论文于周四发布,揭示了四种攻击路径,包括恶意代码注入和凭证窃取。
论文共同作者Chaofan Shou在X平台表示:“26个LLM路由工具正在秘密注入恶意工具调用并窃取凭证。”
当前,越来越多的LLM代理通过第三方API中间件或路由工具聚合访问OpenAI、Anthropic和Google等服务商。然而,这些路由工具会终止互联网TLS(传输层安全)连接,获得所有消息的明文访问权限。
这意味着,开发者在使用AI编程代理(如Claude Code)处理智能合约或钱包时,可能将私钥、助记词等敏感数据通过未经过审查或未加密的路由基础设施传输。
研究人员测试了28个付费路由工具和400个来自公共社区的免费路由工具。结果显示,9个路由工具主动注入恶意代码,2个部署了自适应规避触发器,17个获取了研究人员的Amazon Web Services(AWS)凭证,1个成功从研究人员持有的测试钱包中盗取以太坊(ETH)。
研究人员为测试钱包预充值小额以太坊作为“诱饵”,损失金额低于50美元,但未提供交易哈希等详细信息。
此外,研究人员进行了两次“投毒实验”,表明即使原本良性的路由工具,在重用泄露的凭证后也可能变得危险。
研究人员指出,区分路由工具是否恶意非常困难。“客户端无法察觉‘凭证处理’与‘凭证窃取’之间的界限,因为路由工具在正常转发过程中本就可读取机密信息。”
研究还发现一种名为“YOLO模式”的设置,即AI代理自动执行命令而无需用户逐条确认,这在被恶意利用时极具风险。
研究人员警告,原本合法的路由工具可能在操作者不知情的情况下被静默武器化,而免费路由工具可能以低价API访问为诱饵,实施凭证窃取。
“LLM API路由工具位于生态系统的临界信任边界,但目前被视为透明传输通道。”
研究建议,使用AI代理进行编程的开发者应加强客户端防御,避免让私钥或助记词在AI代理会话中传输。
长期解决方案是AI公司对模型响应进行加密签名,使代理执行的指令可被数学验证为来自真实模型。
该研究发表于arXiv.org,相关成果已引起行业关注。
编辑点评
此次加州大学的研究揭示了AI基础设施中一个长期被忽视的安全隐患:路由工具作为AI模型与用户之间的中间层,已成为潜在的攻击跳板。其严重性在于,这些路由工具往往被开发者视为“透明通道”,但事实上它们拥有完整访问权限,可窃取敏感数据甚至直接执行恶意操作。这一发现对全球AI应用生态构成警示,尤其是在金融、区块链和智能合约等高敏感场景中,开发者必须重新评估其技术栈的安全性。从国际视角看,AI安全正从模型本身扩展到整个供应链,各国监管机构可能因此加快对AI中间件的审查和标准制定。未来,加密签名验证、端到端加密和零信任架构可能成为AI工具链的标配,推动全球AI安全标准的统一。此事件也凸显了开源和免费工具在安全审查上的普遍缺失,可能引发对AI生态供应链透明度的全球性讨论。