OpenClaw安全威胁促使Meta等AI公司限制其使用
近日,全球多家人工智能企业因担忧OpenClaw工具的安全风险,采取限制措施阻止员工使用。Massive公司联合创始人兼CEO Grad表示,其企业代理工具服务已明令禁止该工具的部署,并贯彻“先缓解再调查”的处理原则。
在另一科技公司Valere,员工于1月29日在内部Slack频道提及OpenClaw后,公司总裁立即宣布全面禁用。Valere CEO Guy Pistone向《连线》杂志透露,该工具一旦侵入开发人员设备,可能获取云服务及客户敏感信息,包括信用卡数据和GitHub代码库。他同时指出OpenClaw具备行为痕迹清除能力,构成潜在威胁。
Valere研究团队于一周后对旧电脑进行测试,建议通过权限分级和控制面板密码保护来提升安全性。在向《连线》提交的报告中,研究人员强调用户需认知到该工具可能被诱导行为的弱点,例如设置为其处理邮件摘要时,黑客可通过伪造邮件窃取文件副本。
目前尚无OpenClaw具体攻击案例,但其开源特性及快速传播能力已引发科技行业高度警惕。
编辑点评
网络安全与AI技术的博弈正在成为全球科技领域的焦点。OpenClaw事件揭示了开源工具在技术革新与安全风险间的平衡难题,其引发的连锁反应可能重塑企业AI应用规范。美国科技巨头的快速响应反映了对核心数据资产的保护意识,而Valere的实验性测试则展示了行业在风险防控中的主动性。该事件或将推动国际社会对AI工具的伦理审查和监管合作,尤其在云服务和代码基础设施领域。从长远看,此类技术安全事件可能加速AI发展与网络安全的交叉学科建设,对全球数字治理框架产生深远影响。