← 返回

Meta等科技公司因网络安全风险禁止使用OpenClaw

2026年1月,Meta及多家美国科技公司禁止员工使用开源AI工具OpenClaw。该工具由个人开发者创建,因自主性强且存在隐私泄露风险引发企业担忧。部分公司正尝试在隔离环境中研究其安全改进方案。

Meta等科技公司禁止使用OpenClaw

2026年1月,Meta及多家美国科技公司已明确禁止员工在办公设备中使用开源AI工具OpenClaw。该公司CEO表示,该工具可能破坏企业安全体系,导致云服务数据和客户敏感信息泄露。

工具背景与风险

OpenClaw由个人开发者Peter Steinberger于2024年11月推出,最初名为MoltBot。尽管其具备自主执行文件整理、网络搜索等操作能力,但近期多家公司发现该工具存在安全漏洞。例如,若用户收到恶意邮件要求OpenClaw共享文件,黑客即可通过AI工具窃取数据。

企业应对措施

部分企业选择对OpenClaw采取严格管控。Valere公司禁止员工接触该工具,但允许研究部门在隔离设备上测试其安全性。另一家不愿具名的软件公司则通过白名单限制设备软件安装。Meta高管强调,任何未授权的AI工具使用可能导致员工被解雇。

技术探索与商业潜力

尽管存在禁令,部分企业仍关注其商业价值。网络代理公司Massive在云端隔离测试OpenClaw后推出配套产品ClawPod。CEO Jason Grad表示,该工具可能预示未来AI技术方向,但需完善安全防护机制。

编辑点评

OpenClaw事件揭示了AI自主化工具对全球企业网络安全的冲击。作为首个被大规模禁止的开源AI代理程序,其技术特性引发跨国科技公司集体行动,凸显AI安全监管的迫切性。该事件推动企业重新评估现有安全协议,可能影响全球AI开发标准。

从国际视角看,美国科技公司的快速响应反映了对AI技术军备竞赛的担忧。当自主AI突破传统软件边界时,数据主权问题将延伸至更多国家。类似OpenClaw的技术可能在其他领域引发连锁反应,例如工业控制系统或政府数据库。

长期来看,此次事件或将加速全球AI安全认证体系的建立。各国监管部门可能针对自主AI代理制定专门立法,而开源社区的治理模式也将面临重构。企业需在创新激励与风险防控间寻找平衡,这对全球科技产业生态具有深远意义。

相关消息:https://www.wired.com/story/openclaw-banned-by-tech-companies-as-security-concerns-mount/