数千个AI生成应用暴露企业与个人敏感数据 专家警告安全漏洞严重
安全研究人员Dor Zvi及其团队RedAccess对使用Lovable、Replit、Base44和Netlify等AI软件开发工具创建的数千个“vibe-coded”Web应用进行了分析,发现其中超过5000个应用缺乏任何安全或身份认证机制。这些应用可通过公开URL直接访问,部分仅需使用任意邮箱登录即可进入。
Zvi表示,约40%的此类应用暴露了敏感数据,包括医疗信息、财务数据、企业演示文稿、战略文件以及客户与聊天机器人的完整对话日志。研究团队通过Google和Bing搜索这些AI平台的域名,结合关键词筛选,轻松识别出大量存在漏洞的应用。
经进一步核查,近2000个应用被证实存在数据泄露风险。WIRED验证的截图显示,部分应用包含医院医生的个人身份信息、广告购买数据、企业市场策略PPT、零售商的客户聊天记录(含姓名与联系方式)、航运公司的货物记录以及各类财务报表。部分应用甚至允许未授权用户获得系统管理权限并移除其他管理员。
在Lovable平台中,研究人员还发现大量仿冒Bank of America、Costco、FedEx、Trader Joe's和McDonald's等知名企业的钓鱼网站,均使用该AI工具创建并托管于其域名下。Zvi指出,这些应用通常未经开发流程或安全检查即投入使用,企业员工可随时生成并部署,造成严重安全风险。
Zvi称:“这是迄今为止最严重的数据泄露事件之一,组织正在通过AI生成的应用向全球泄露敏感信息。”
编辑点评
此次事件揭示了AI开发工具在安全规范与企业治理层面的系统性缺陷。随着低代码、无代码和AI生成应用的普及,企业快速部署应用的能力大幅提升,但安全审查机制严重滞后。超过5000个应用暴露敏感数据,且40%涉及医疗、金融等高风险领域,表明当前AI开发生态存在重大合规漏洞。
从国际视角看,此类漏洞可能被国家行为体或网络犯罪组织利用,用于情报收集或定向攻击。例如,仿冒企业网站可成为钓鱼攻击的跳板,暴露的数据可能被用于供应链攻击或勒索。此外,跨国企业在使用这些工具时,其数据可能被托管在境外服务器,涉及跨境数据流动与隐私合规问题,如GDPR或中国《个人信息保护法》的适用性。
未来,监管机构可能推动对AI开发平台实施强制安全审计与风险披露机制。企业需建立AI应用生命周期管理流程,包括权限控制、数据加密和部署审批。此事件或将促使全球科技公司重新评估其AI工具的安全设计原则,推动“安全即服务”(Security as Code)的标准化发展。