企业面临AI代理治理与安全挑战
随着人工智能代理(AI agents)在各类组织中越来越多地与人类协同工作,企业可能无意中打开了新的安全攻击面。不安全的AI代理可能被操控以访问敏感系统和专有数据,从而显着增加企业风险。
在一些现代企业中,非人类身份(NHI)的数量已超过人类身份,而这一趋势在代理式AI广泛应用后将急剧扩张。因此,稳健的治理机制和强化的安全基础至关重要。
根据德勤AI研究所2026年《AI现状报告》,近74%的企业计划在两年内部署代理式AI,但仅有21%报告拥有成熟的自主代理治理模式。企业高管最关注数据隐私与安全(73%),其次是法律、知识产权及监管合规(50%),以及治理能力与监督(46%)。
企业可能尚未意识到,其环境中的AI代理正被视为“第一类公民”,拥有访问关键系统的权限,从而形成潜在的盲点与暴露点。专家指出,亟需建立一个强大的控制平台,统一管理、监控并保护AI代理及其工具和模型在企业中的运行。
“控制平台是共享的集中化层级,用于管理哪些用户可运行哪些代理、拥有哪些权限、遵循哪些政策、使用哪些模型与工具”,德勤网络安全实践主管安德鲁·拉夫拉(Andrew Rafla)表示。“缺乏真正的控制平台,就无法实现代理的自主规模化——你只是在进行无管理的执行,这伴随着大量风险。”他强调,若无法回答“代理执行了什么操作、代表谁、使用了什么数据、遵循何种政策,以及是否可追溯或终止”,则说明控制平台尚未真正发挥作用。
治理必须让这些问题的答案变得清晰可见,而非仅停留在理想层面。治理是将AI试点项目转化为生产级应用的关键桥梁,使企业能从实验阶段迈向安全、可重复的全公司自动化。缺乏治理的代理部署不会“安全失败”,而是“不可预测且大规模失败”。
该内容由MIT Technology Review旗下Insights团队制作,非编辑部撰写,由人类记者、编辑、分析师和插图师完成调研、设计与撰写,包括问卷设计与数据收集。AI工具仅用于辅助生产流程,并经过严格人工审核。
编辑点评
AI代理的普及正重塑企业运营模式,但其带来的安全与治理挑战不容忽视。当前全球企业虽积极布局AI代理,但治理能力严重滞后,形成‘技术先行、管理滞后’的结构性风险。德勤报告揭示的21%成熟治理率,凸显多数企业仍处于被动应对阶段,缺乏统一控制平台,易在规模化应用中暴露系统性漏洞。这一问题不仅关乎企业自身数据资产安全,也影响供应链、客户信任及合规性,尤其在金融、医疗、政府等高敏感领域,可能引发连锁风险。未来,AI治理将成为企业数字化成熟度的关键指标,推动各国监管机构加速制定相关标准。同时,控制平台的建设将催生新的技术生态,包括权限管理、行为审计、模型合规等细分领域,形成新的产业增长点。从长远看,能否建立安全、可追溯、可控制的AI代理体系,将决定企业在全球数字经济竞争中的可持续性。