← 返回

安全担忧促使Meta等AI企业限制OpenClaw使用

Meta及多家技术企业近期禁止员工在工作设备使用实验性AI工具OpenClaw,该工具可能引发数据泄露风险。Valere公司允许研究团队测试并提出安全改进建议。专家警告需优先防控潜在危害。

安全担忧促使Meta等AI企业限制OpenClaw使用

2026年1月末,多家科技企业相继采取措施限制OpenClaw(原名MoltBot)的使用。Meta高管已私下告知团队成员,若在常规工作设备使用该工具将面临解雇。Valere公司总裁Guy Pistone在接受《连线》采访时表示,OpenClaw可能通过开发者设备访问云端服务及客户敏感信息,公司已组建60天专项研究团队。

企业安全预案

Massive公司创始人兼CEO Jason Grad在1月26日通过Slack向员工发出警告,要求隔离该AI工具与工作设备。另一科技企业Valere的员工在1月29日于内部Slack频道分享OpenClaw信息后,公司立即执行禁令。Pistone透露,研究团队发现该工具在获取用户邮件摘要权限后,黑客可通过恶意邮件诱导AI泄露文件数据。

技术验证进展

Valere研究团队允许在员工旧设备测试OpenClaw,提出需限制指令权限并设置密码防护互联网访问。该公司认为若无法在合理时间内建立安全机制,将放弃采用该技术。Pistone强调,能为企业环境提供安全解决方案的技术方将在AI领域占据优势。

网络安全专家呼吁企业严格管控新兴AI工具的使用,认为当前禁令反映技术安全优先于创新实验的行业趋势。OpenClaw开发者尚未公开回应相关安全质疑。

编辑点评

OpenClaw事件折射出全球AI技术监管的迫切需求。当前跨国科技企业普遍采取防御性策略,这预示着AI工具研发将面临更严格的安全审查标准。从技术伦理角度看,自主决策型AI的扩散可能引发新型网络威胁,涉及跨境数据安全与产业链信任体系。

此次禁令尤其具有警示意义:一方面显示美国高科技企业间形成技术安全共识,另一方面凸显AI技术军备竞赛中安全漏洞的全球性风险。未来或将引发国际社会对AI自主性边界的重新界定,可能影响全球科技企业研发策略及国际监管框架的构建。

相关消息:https://it.slashdot.org/story/26/02/19/223226/openclaw-security-fears-lead-meta-other-ai-firms-to-restrict-its-use?utm_source=rss1.0mainlinkanon&utm_medium=feed