谷歌与美国国防部达成协议 允许其AI模型用于“任何合法政府用途”
据The Information报道,谷歌已与美国国防部签署一项机密协议,允许其AI模型用于“任何合法政府用途”。该协议在谷歌员工要求首席执行官桑达尔·皮查伊阻止国防部使用其AI技术后不到24小时内被披露,员工担忧AI可能被用于“不人道或极具危害性”的方式。
协议规定,AI系统不得用于国内大规模监控或自主武器系统,除非有人类监督和控制。然而,合同明确指出,谷歌“无权控制或否决政府合法运营决策”,这意味着相关限制更多是原则性承诺,而非具有法律约束力的义务。
该协议使谷歌加入OpenAI和xAI行列,成为与美国政府达成类似机密AI协议的公司之一。而Anthropic此前因拒绝移除其AI模型中针对武器和监控相关功能的限制,被美国国防部列入黑名单。
谷歌向路透社发表声明称,公司坚持AI不应用于国内大规模监控或自主武器系统,除非有适当的人类监督。谷歌表示,通过API提供其商业模型,并遵循行业标准实践和条款,是“以负责任方式支持国家安全”的体现。
编辑点评
此次谷歌与美国国防部达成的AI协议,标志着商业科技巨头深度参与军事与国家安全事务的进一步深化。该协议虽强调‘合法用途’和人类监督,但其非约束性条款意味着谷歌在实际操作中缺乏对政府使用AI的实质性控制权,引发伦理与责任归属的广泛讨论。在全球AI军备竞赛加速的背景下,此类合作可能推动美国在军事智能化领域保持领先,但也加剧了技术滥用、监控扩张和自主武器系统失控的风险。
从地缘政治角度看,美国政府对AI技术的集中采购和军事化应用,可能刺激其他国家加速类似布局,导致AI军备竞赛加剧。同时,谷歌等科技企业的被动参与,暴露了当前国际社会在AI治理框架上的缺失,亟需建立跨国、多边的AI军控机制。未来,类似协议可能成为各国政府与科技企业合作的模板,但其伦理边界和法律规制将成为国际社会持续关注的焦点。