# 军事AI

美国国防部AI风险标签案宣判:Anthropic败诉,禁用令维持

美国联邦上诉法院哥伦比亚特区巡回上诉法院驳回了AI公司Anthropic要求暂停国防部将其列为“国家安全供应链风险”的紧急申请。法院认为,在军事冲突期间,政府对AI技术获取渠道的控制权优先于企业可能遭受的财务或声誉损失。该标签此前从未应用于美国本土企业,且禁止与国防部合作的承包商使用Anthropic的AI模型。此案源于2025年7月双方达成的协议,后因 Anthropic 拒绝允许其模型用于致命自主武器和大规模国内监控,谈判破裂。2026年2月,美国总统特朗普下令联邦机构停止使用Anthropic产品,称其“试图胁迫战争部”。Anthropic于3月提起诉讼,称此举为“非法报复”。加州...

2026-04-09 16:09

美军或用生成式AI辅助目标排序 决策仍由人类最终确认

美国国防部官员透露,美军可能利用生成式AI系统对潜在目标进行排序并提出优先打击建议,但最终决策仍由人类审核。该系统可结合飞机位置等变量分析数据,推荐优先目标。OpenAI的ChatGPT和xAI的Grok或将在未来用于此类任务,而Anthropic的Claude已用于伊朗、委内瑞拉等地区的军事行动。此举是美军“Maven”大数据计划的延伸,后者自2017年起利用计算机视觉分析无人机影像。生成式AI的引入旨在加快决策速度,但其输出更易获取却更难验证。此披露正值美军对伊朗一所女子学校发动袭击后引发广泛质疑,初步调查显示部分原因在于使用了过时目标数据。目前,美军仅批准少数AI模型用于机密环境,...

2026-03-13 07:04

五角大楼正式将Anthropic列为供应链风险企业

美国国防部正式将人工智能公司Anthropic列为‘供应链风险’企业,禁止使用其AI产品Claude的国防承包商参与政府项目。此举源于双方在AI使用限制上的分歧,特别是 Anthropic拒绝允许五角大楼将Claude用于自主致命武器和大规模监控。尽管该标签通常用于有敌对国关联的外国企业,但这是首次应用于美国本土公司。国防部长Pete Hegseth称,任何与Anthropic有商业活动的公司都将面临合同取消,Anthropic则指称此措施违法。双方僵局已升级,可能诉诸法律。此前有报道称,Claude在美军近期对伊朗的军事行动中发挥了关键情报作用。

2026-03-06 08:03

特朗普下令美国联邦机构立即停止使用Anthropic人工智能工具

美国现任总统特朗普于2026年2月28日宣布,指示所有联邦机构立即停止使用Anthropic公司的人工智能工具,并设立六个月的过渡期。此举源于美国国防部与Anthropic在军事AI应用限制问题上的持续争议。国防部要求取消此前协议中对AI军事用途的限制,允许‘所有合法用途’,而Anthropic则反对可能用于完全自主致命武器或大规模监控美国公民的条款。Anthropic是首家与美军合作的AI公司,曾签署2亿美元合同开发专用于政府的Claude Gov模型,目前通过Palantir和亚马逊云平台支持涉密军事工作。此次冲突引发科技界关注,OpenAI、Google等公司员工亦支持Anthro...

2026-03-01 05:03

OpenAI称与Anthropic共享军事AI使用红线

OpenAI首席执行官山姆·阿尔特曼表示,他支持竞争对手Anthropic对军事使用AI设定的‘红线’,即禁止用于国内大规模监控或全自动武器系统。此举发生在五角大楼要求Anthropic在2026年2月27日美东时间下午5:01前取消相关限制,否则可能终止其高达2亿美元的合同,并威胁动用《国防生产法》。阿尔特曼称,OpenAI正与五角大楼谈判,寻求在部署其AI模型于涉密系统时保留类似限制。Anthropic首席执行官达里奥·阿莫迪拒绝让步,称此类用途超出当前技术安全边界。五角大楼官员则指责其‘妄图控制美军’。专家指出,这是罕见的政府与AI企业关于技术使用权限的公开争端,凸显人工智能治理的...

2026-02-28 05:08

OpenAI首席执行官奥尔特曼称将与Anthropic划清相同红线 阻碍国防部AI部署

OpenAI首席执行官山姆·奥尔特曼在内部备忘录中表示,公司将遵循与竞争对手Anthropic相同的AI使用红线,即禁止用于大规模监控或自主致命武器系统。此举正值美国国防部与Anthropic因AI技术应用产生激烈争执之际。尽管奥尔特曼仍寻求与国防部达成协议,允许ChatGPT用于敏感军事场景,但该立场可能阻碍国防部替换Anthropic的Claude模型的计划。若谷歌等其他科技巨头跟进,将使国防部推进AI军事化面临更大挑战。这是美国主要AI企业首次集体对政府使用其技术设定明确边界。

2026-02-28 01:06