谷歌员工呼吁限制AI军事应用 随伊朗空袭及Anthropic被封事件发酵
美国谷歌、OpenAI及其他科技公司员工近日联署多封公开信,要求其雇主明确禁止将人工智能技术用于军事目的,尤其是大规模监控和自主武器系统。此举背景为美国近期对伊朗发动空袭及国防部将Anthropic公司列为“供应链风险”所引发的行业震荡。
一封题为《我们不会被分裂》的公开信于3月1日获得近900名科技从业者签名,其中近800人来自谷歌,近百人来自OpenAI。该信批评国防部试图通过制造公司间对立施压,称“这种策略只有在我们彼此不知对方立场时才有效”,并强调“此信旨在建立共同理解与团结,应对国防部压力”。
美国政府于3月1日宣布对伊朗实施空袭,称旨在应对伊朗核与导弹计划“迫在眉睫的威胁”。此次军事行动加剧了科技界对政府使用AI技术的担忧。与此同时,五角大楼因Anthropic拒绝允许其技术用于监控或自主武器,将其列入“供应链风险”清单,引发业界广泛抗议。
科技团体“无科技用于种族隔离”(No Tech For Apartheid)发布联合声明,呼吁亚马逊、谷歌、微软拒绝国防部要求,拒绝允许AI用于大规模监控或滥用场景。声明特别指出,谷歌正与五角大楼谈判将AI模型Gemini部署于机密系统,类似此前允许xAI的Grok在机密环境运行的协议,但缺乏任何监管约束。
谷歌母公司Alphabet未回应媒体多次置评请求。而谷歌首席科学家Jeff Dean在X平台表态,称“大规模监控违反宪法第四修正案,对言论自由有寒蝉效应”,并指出监控系统易被用于政治或歧视性目的。Dean曾于2018年领导谷歌应对Project Maven项目引发的员工抗议,最终公司让合同失效,并制定AI原则。
2024年,谷歌因与亚马逊共同签署价值12亿美元的Project Nimbus协议,为以色列政府提供AI工具,包括图像分类、目标追踪等,引发员工抗议,逾50人被解雇。尽管公司称合同符合AI原则,但内部文件显示,员工曾担忧该协议可能助长人权侵犯。
此外,谷歌于2025年初修订AI原则,删除了“禁止开发武器或监控技术”的明确条款,引发进一步争议。Anthropic员工及科技行业人士呼吁国会审查政府动用“非常规权力”制裁美国科技公司的合法性,强调私营企业应有权拒绝政府不当要求而不受报复。
编辑点评
此次科技行业内部对AI军事化应用的集体抗议,凸显了全球技术伦理与国家安全之间的深层矛盾。美国对伊朗的军事行动与对Anthropic的制裁,实质上将技术公司置于政治与伦理的十字路口,迫使科技巨头在政府需求与员工价值观之间做出选择。谷歌、OpenAI等公司的员工联署行动,不仅反映员工对技术滥用的担忧,更标志着全球AI治理从企业自律向公众监督和立法干预演进的趋势。此事件可能推动美国国会重新审视“供应链风险”机制的合法性,尤其在针对本国企业时。从国际影响看,若美国政府持续对科技企业施加此类压力,可能削弱全球对美国科技领导力的信任,促使其他国家在AI发展上采取更自主路径。同时,科技公司若集体拒绝对军方开放前沿AI模型,或迫使国防部转向非商业AI开发路径,影响其技术研发速度。长期而言,此事件或加速全球AI伦理标准的分化,形成以美国、欧盟、中国为代表的三大治理阵营,对全球技术秩序产生深远影响。