Anthropic与美国国防部AI使用争端升级
美国AI初创公司Anthropic与国防部就其AI模型在军事领域的使用权限爆发公开冲突。Anthropic拒绝允许其模型用于对美国公民的大规模监控或完全自主武器系统,而国防部长皮特·赫格塞斯(Pete Hegseth)则强调,国防部应有权在合法范围内自由使用该技术。
核心分歧
Anthropic首席执行官达里奥·阿莫德(Dario Amodei)明确表示,公司不会支持其AI模型用于无人类干预的自主武器系统或对美国公民进行大规模监控。公司认为,AI技术具有独特风险,需建立特殊安全机制。相较传统军工承包商,Anthropic强调其对技术应用的道德与安全责任。
国防部立场
赫格塞斯认为,国防部不应受制于供应商的内部政策,任何“合法用途”均应被允许。国防部发言人肖恩·帕内尔(Sean Parnell)在社交媒体上表示,该部门无意进行大规模国内监控或部署自主武器,但要求对Anthropic模型的“所有合法用途”开放权限,以避免影响军事行动和战备安全。
时限与后果
帕内尔宣布,Anthropic需在东部时间周五下午5:01前作出回应,否则国防部将终止合作,并将其列为“供应链风险”,可能禁止其参与国防项目。若合作终止,国防部或需等待6至12个月,由OpenAI或xAI等替代供应商填补技术空白。
未来影响
风险投资机构Trousdale Ventures的萨钦·塞斯(Sachin Seth)指出,Anthropic被列为供应链风险可能导致其业务“灯灭”,但若国防部被迫转向次优模型,或引发国家安全隐患。xAI正加速推进其系统达到涉密等级,而OpenAI可能延续与Anthropic相似的限制政策。目前双方僵局未解,事件或将影响美国军用AI发展路径。
编辑点评
此次Anthropic与美国国防部的争端,实质是AI技术主权与军事应用边界的一次关键考验。在全球AI军备竞赛加速背景下,美国国防部寻求技术自由度,而科技公司则强调伦理与安全边界,反映技术发展与国家权力之间的结构性张力。
从国际角度看,该事件凸显AI技术在国家安全中的核心地位。若美国政府成功强制企业开放技术,或将为其他国家设立先例,推动全球AI军事化加速;反之,若企业成功维护其应用限制,可能促使各国建立更严格的AI军用规范。当前全球AI伦理框架尚未成熟,此冲突或成为塑造未来AI治理规则的重要节点。
经济与安全层面,美国军用AI技术的延迟可能削弱其战略优势,而Anthropic若被排除,或被迫转向更符合政府要求的替代方案,如xAI。这不仅影响美国本土科技生态,也可能重塑全球AI企业与政府关系的范式。长远来看,此次事件或将推动国际社会对AI军事化议题的深入讨论与规则制定。