数千个AI生成应用暴露企业与个人数据
网络安全研究人员Dor Zvi及其团队在RedAccess公司发现,通过Lovable、Replit、Base44和Netlify等AI开发工具创建的数千个网络应用中,超过5000个存在严重安全漏洞,未设置任何身份验证或访问控制。约40%的应用暴露了医疗、财务、企业战略及客户对话记录等敏感数据。部分应用甚至允许未经授权的用户获取管理员权限。
Zvi及其团队通过在Google和Bing中搜索这些AI平台的域名,结合其他关键词,识别出大量由AI工具生成的公开可访问应用。其中,近2000个应用被发现包含私人数据,包括医院医生的个人信息、企业广告采购明细、市场策略演示文稿、零售商与客户的完整聊天记录(含姓名与联系方式)、货运公司的货物记录及各类销售与财务数据。
部分暴露的应用还冒充Bank of America、Costco、FedEx、Trader Joe’s和McDonald’s等知名企业,构成钓鱼网站风险。Zvi表示,这些应用的创建者往往缺乏安全意识,且未经过企业常规的软件开发与安全审查流程,导致数据泄露风险激增。
当WIRED向四家AI平台求证时,Netlify未回应。Replit、Lovable和Base44(Wix旗下)均表示,用户可自主选择应用的公开或私密状态,暴露数据属于用户配置选择,而非平台漏洞。但RedAccess指出,其已向相关公司提供部分证据,包括与用户确认数据暴露的沟通记录。
安全研究员Joel Margolis指出,AI工具“按指令执行”,若未明确要求安全配置,其不会主动添加安全防护。Zvi将当前数据泄露潮比作早年Amazon S3存储桶因配置不当导致的大规模数据泄露事件,强调这是用户误操作与平台缺乏默认安全机制共同作用的结果。
Zvi补充,目前发现的5000个暴露应用仅限于托管在AI平台自有域名上,更多应用可能托管在用户自购域名中,实际风险范围或更广。
编辑点评
此次事件揭示了AI开发工具普及带来的新型网络安全风险。随着非技术人员通过AI工具快速构建应用,企业内部的安全边界正在被打破。虽然平台声称用户可自主设置隐私,但现实是多数使用者缺乏基础安全认知,且往往忽略安全配置,导致敏感数据暴露于公共网络。这不仅是技术漏洞问题,更是一场关于组织安全文化与开发流程的危机。从长期看,若不建立强制性安全审查机制或默认安全防护标准,此类数据泄露将成为常态。
此次事件的国际影响在于,它暴露了全球范围内企业在数字化转型中对安全的忽视。尤其在中美科技竞争背景下,企业数据安全已不仅是商业问题,更涉及国家信息安全。美国科技公司主导的AI开发工具正在全球扩散,若其安全设计存在系统性缺陷,可能被恶意利用,影响供应链安全。因此,国际社会需加强AI工具的安全标准制定,推动平台承担更多责任,同时企业也应完善内部审核流程,防止‘一键部署’的便利性演变为系统性风险。
从技术演进角度看,AI工具正重塑软件开发范式,但安全滞后于创新。未来,或需强制要求AI生成应用在部署前通过基础安全扫描,或在工具中嵌入默认安全配置,以避免用户因无知而造成不可逆的损害。这将是全球数字治理的新挑战。