← 返回

Anthropic首席执行官称无法接受五角大楼AI使用要求

美国人工智能公司Anthropic首席执行官达里奥·阿莫迪表示,该公司“无法良心上接受”五角大楼要求扩大其AI技术使用范围的条件。Anthropic在声明中指出,国防部新提出的合同条款未能有效防止其AI模型Claude被用于对美国民众的大规模监控或完全自主武器系统。五角大楼发言人肖恩·帕内尔回应称,军方仅希望在合法范围内使用AI技术,且不会允许公司单方面设定使用限制,称Anthropic需在东部时间周五下午5:01前做出决定,否则将终止合作并视其为供应链风险。Anthropic是目前唯一未向美军内部网络提供AI技术的四家主要AI公司之一,其他包括谷歌、OpenAI和xAI。此次争端凸显A...

Anthropic首席执行官称无法接受五角大楼AI使用要求

美国人工智能公司Anthropic首席执行官达里奥·阿莫迪周四表示,该公司“无法在良心上接受”五角大楼要求扩大其人工智能技术使用范围的条件。

Anthropic在声明中指出,国防部新提出的合同条款“在防止Claude被用于对美国民众的大规模监控或完全自主武器系统方面几乎没有进展”。该公司强调,其政策明确禁止模型用于此类用途,但目前仍未与五角大楼达成协议。

五角大楼发言人肖恩·帕内尔在社交媒体上回应称,军方“无意使用AI对美国民众进行大规模监控(这属于非法行为)”,也“不希望开发无需人类干预的自主武器”。他强调,军方将仅在合法框架内使用AI技术,且不会允许任何公司“决定我们如何做出作战决策”。

帕内尔同时表示,Anthropic需在东部时间周五下午5:01前决定是否接受新条款,否则五角大楼将终止与该公司的合作,并将其视为“DOW供应链风险”(DOW指美国国防工业供应链)。

Anthropic是目前唯一一家尚未向美军内部网络提供AI技术的主要AI公司,其他包括谷歌、OpenAI和埃隆·马斯克旗下的xAI均已达成合作。此次争议凸显出AI技术在国家安全与伦理边界之间的紧张关系。

编辑点评

此次Anthropic与五角大楼的分歧,反映了全球AI技术发展中的核心矛盾:技术创新与伦理约束之间的张力。当AI模型被用于军事领域时,如何确保其不被滥用,尤其在涉及自主武器系统和大规模监控等敏感议题上,成为国际社会普遍关注的焦点。五角大楼强调合法使用和作战自主权,而Anthropic则坚持技术伦理底线,这种对立不仅是商业谈判,更涉及未来战争形态的定义。

从地缘政治角度看,美国军方加速AI军事化部署,可能引发其他国家的模仿或反制,从而加剧全球军备竞赛。同时,若美国允许AI在无人干预下执行军事任务,将挑战国际人道法和《特定常规武器公约》等现有框架。此外,Anthropic作为行业领军企业,其立场可能影响其他科技公司在AI军事化问题上的战略选择。

长远来看,此次事件可能推动国际社会就AI军用伦理建立统一标准。若美国坚持推进AI军用,而企业持续抵制,或将促使政府出台强制性法规,或催生新的监管机制。这不仅关乎技术应用边界,更可能重塑21世纪的国际安全秩序。

相关消息:https://tech.slashdot.org/story/26/02/26/2352217/anthropic-ceo-says-ai-company-cannot-in-good-conscience-accede-to-pentagon?utm_source=rss1.0mainlinkanon&utm_medium=feed
当日日报:查看 2026年02月27日 当日日报