安全担忧促使Meta等AI企业限制OpenClaw使用
2026年1月末,多家科技企业相继采取措施限制OpenClaw(原名MoltBot)的使用。Meta高管已私下告知团队成员,若在常规工作设备使用该工具将面临解雇。Valere公司总裁Guy Pistone在接受《连线》采访时表示,OpenClaw可能通过开发者设备访问云端服务及客户敏感信息,公司已组建60天专项研究团队。
企业安全预案
Massive公司创始人兼CEO Jason Grad在1月26日通过Slack向员工发出警告,要求隔离该AI工具与工作设备。另一科技企业Valere的员工在1月29日于内部Slack频道分享OpenClaw信息后,公司立即执行禁令。Pistone透露,研究团队发现该工具在获取用户邮件摘要权限后,黑客可通过恶意邮件诱导AI泄露文件数据。
技术验证进展
Valere研究团队允许在员工旧设备测试OpenClaw,提出需限制指令权限并设置密码防护互联网访问。该公司认为若无法在合理时间内建立安全机制,将放弃采用该技术。Pistone强调,能为企业环境提供安全解决方案的技术方将在AI领域占据优势。
网络安全专家呼吁企业严格管控新兴AI工具的使用,认为当前禁令反映技术安全优先于创新实验的行业趋势。OpenClaw开发者尚未公开回应相关安全质疑。
编辑点评
OpenClaw事件折射出全球AI技术监管的迫切需求。当前跨国科技企业普遍采取防御性策略,这预示着AI工具研发将面临更严格的安全审查标准。从技术伦理角度看,自主决策型AI的扩散可能引发新型网络威胁,涉及跨境数据安全与产业链信任体系。
此次禁令尤其具有警示意义:一方面显示美国高科技企业间形成技术安全共识,另一方面凸显AI技术军备竞赛中安全漏洞的全球性风险。未来或将引发国际社会对AI自主性边界的重新界定,可能影响全球科技企业研发策略及国际监管框架的构建。