Anthropic拒绝五角大楼新条款,坚守自主武器与大规模监控红线
在五角大楼设定的截止日期前不足24小时,人工智能公司Anthropic拒绝了国防部要求无限制访问其AI系统的条款。该公司坚持其两大原则:禁止用于美国国内的大规模监控,以及禁止用于致命性自主武器系统。
尽管OpenAI和xAI已同意新条件,但Anthropic拒绝让步,导致其首席执行官达里奥·阿莫迪被召至白宫与国防部长彼得·赫格塞思会面,后者发出最后通牒,要求其在周五结束前让步,否则将采取后续措施。
阿莫迪在周四晚间发表的声明中表示,他深信AI在捍卫美国及其他民主国家、对抗专制对手方面的存在主义重要性。Anthropic已主动将模型部署至国防部及情报机构,但强调“在少数情况下,AI可能损害而非捍卫民主价值”,并明确指出大规模国内监控和完全自主武器系统属于此类范畴。
阿莫迪指出,部分自主武器对民主防御至关重要,而完全自主武器未来或将成为国家安全的关键,但目前前沿AI系统尚不具备足够的可靠性以支持此类武器。他未排除未来可能配合使用,但强调当前技术条件不成熟。
五角大楼已要求主要国防承包商评估对Anthropic模型Claude的依赖,此举被视为将该公司列为“供应链风险”的初步步骤。此前,五角大楼已公开使用该分类应对国家安全威胁。此外,有报道称五角大楼正考虑援引《国防生产法》强制Anthropic遵守新条款。
阿莫迪强调,国防部的威胁不会改变公司立场:“我们无法以良知为代价同意其要求。”他同时承诺,若国防部决定终止合作,Anthropic将协助实现平稳过渡,避免对军事规划、作战或其他关键任务造成干扰,并承诺在所需时间内按其提出的广泛条款提供模型服务。
编辑点评
此次Anthropic与五角大楼的对峙,标志着AI技术在军事应用中的伦理边界正面临前所未有的挑战。事件的核心不仅是技术合规,更是民主价值观与国家安全战略之间的张力。在当前全球地缘政治紧张、大国竞争加剧的背景下,美国国防部试图全面掌控前沿AI系统,以确保军事优势,但Anthropic的抵制凸显了科技企业对技术滥用的深层忧虑。这不仅关乎美国国内政策,更可能影响全球AI治理框架的形成。若美国政府强行推进,可能引发科技公司对军方合作的普遍抵触,进而削弱其在技术领域的国际领导力。同时,此次事件可能促使其他国家加快对AI军事化监管的立法,推动全球范围内对自主武器系统的国际协议讨论。长远来看,AI技术的军事化路径与伦理边界将成为国际社会必须共同面对的重大议题。