微软支持Anthropic起诉美国防部“供应链风险”认定
微软于2026年3月13日向加州旧金山联邦法院提交支持性法庭简报,支持AI初创公司Anthropic针对美国国防部将其列为“供应链风险”的诉讼请求。微软主张应暂停该认定,直至法院审理完毕,称此举将对其与美国军方合作的技术服务产生直接负面影响。微软表示,若未获临时限制令,其及其他政府承包商将被迫重新规划依赖Anthropic产品的业务,造成重大成本与运营中断。该案件正在审理中,裁决需获法官批准后方可生效。
# 供应链风险
微软于2026年3月13日向加州旧金山联邦法院提交支持性法庭简报,支持AI初创公司Anthropic针对美国国防部将其列为“供应链风险”的诉讼请求。微软主张应暂停该认定,直至法院审理完毕,称此举将对其与美国军方合作的技术服务产生直接负面影响。微软表示,若未获临时限制令,其及其他政府承包商将被迫重新规划依赖Anthropic产品的业务,造成重大成本与运营中断。该案件正在审理中,裁决需获法官批准后方可生效。
帕兰提尔(Palantir)首席执行官亚历克斯·卡尔普(Alex Karp)于2026年3月12日确认,该公司仍在其产品中集成Anthropic公司的Claude大型语言模型,尽管美国国防部已将Anthropic指定为供应链风险。卡尔普在马里兰州举行的AIPcon 9大会上对CNBC表示,国防部计划逐步淘汰Anthropic,但目前尚未实施。尽管如此,五角大楼仍在使用Claude模型支持伊朗战事。帕兰提尔计划未来引入其他大型语言模型以应对当前局势。此事件凸显美国政府与科技企业间在AI安全与应用上的分歧。
美国人工智能公司Anthropic因被美国国防部认定为供应链风险,已提起诉讼,指控政府侵犯其第一和第五修正案权利。Anthropic认为,政府此举意在摧毁其作为全球增长最快私营企业的经济价值。该公司对政府使用AI进行大规模监控表示担忧,尤其反对将其技术用于分析第三方数据以实现持续监控。此举引发关于政府监控、宪法权利与AI伦理的广泛讨论,同时暴露了美国政府在情报收集方面的长期争议性实践,包括对“目标”等术语的重新解释。事件在特朗普政府背景下发生,凸显了政策透明度与技术伦理之间的冲突。
美国国防部首席技术官艾米尔·迈克尔周四表示,Anthropic公司开发的Claude人工智能模型因其内置的“政策偏好”可能“污染”国防供应链,影响武器、防弹衣等装备的有效性。这是首次有美国本土企业被官方认定为供应链风险,此前此类标签通常用于外国对手。该决定要求国防部承包商和供应商证明未在与军方合作中使用Claude。Anthropic已于周一起诉特朗普政府,称其行为“前所未有且违法”,并称数亿美元合同面临风险。迈克尔强调此举并非惩罚性,且政府未主动向企业施压禁用Claude,仅限于供应链内。Anthropic成立于2021年,由从OpenAI离职的团队创立,其Claude模型已在大型企业...
微软公司于2026年3月10日支持Anthropic公司,呼吁法院发布临时禁令,阻止五角大楼将Anthropic列为供应链风险企业,并要求暂停该禁令对现有合同的适用。微软称此举将避免干扰美军对先进人工智能技术的当前使用,并警告若不采取行动,可能影响美军作战能力。此前,美国防部已正式禁止使用Anthropic技术,并将其列为供应链风险,该标签通常用于外国对手。Anthropic于同日起诉特朗普政府,称其行为‘前所未有且违法’,并可能导致数亿美元合同受损。
在安德罗尼克(Anthropic)于周一起诉特朗普政府将其列为供应链风险企业后,谷歌宣布扩大与美国国防部的合作,推出新功能允许军方及文职人员在非机密网络上创建定制AI代理。该功能通过GenAI.mil平台提供,使用无代码或低代码工具Agent Designer,用于自动化行政任务如会议记录、行动项生成等。目前系统运行于非机密网络,但正探讨扩展至机密及最高机密环境。国防部技术负责人Emil Michael表示对谷歌合作持高度信心,并称与安德罗尼克的争议已“正在推进解决”,无需依赖法院。安德罗尼克因拒绝向国防部提供技术用于自主武器或国内监控被排除在机密云系统之外,此前是唯一在该系统内运行的A...
人工智能公司Anthropic于2026年3月10日向美国加利福尼亚州联邦法院提起诉讼,指控特朗普政府对其实施的“供应链风险”标签及禁用其AI产品Claude的行政指令为非法报复行为。该公司称,其拒绝向军方提供无限制使用权限,因技术伦理限制不支持致命自主武器和大规模监控。此标签是美国首次对本土企业作出此类认定,通常用于与外国对手有关联的公司。Anthropic同时在华盛顿特区上诉法院提起诉讼,并获得包括OpenAI和谷歌在内的30余名AI专家支持,认为此举将削弱美国在人工智能领域的竞争力。
2026年3月9日,超过30名OpenAI和谷歌DeepMind员工联署提交法庭简报,支持Anthropic公司对美国国防部(DOD)提起的诉讼。此前,美国防部因Anthropic拒绝允许其AI技术用于大规模监控美国人或自主武器系统,将其列为供应链风险实体。员工们指出,此举属于不当滥用权力,可能影响美国在人工智能领域的竞争力,并抑制行业对AI风险与收益的公开讨论。简报强调,若政府对合同条款不满,应通过终止合同而非施加惩罚性标签。同时,DOD在作出该决定后迅速与OpenAI签订协议,引发部分员工抗议。此案凸显AI伦理、政府监管与企业自主权之间的深层矛盾。
超过30名来自OpenAI和谷歌的员工,包括谷歌DeepMind首席科学家杰夫·迪恩,于2026年3月9日提交法庭支持简报,支持Anthropic公司针对美国国防部等联邦机构的诉讼。该诉讼源于五角大楼将Anthropic列为“供应链风险”实体,限制其与军方承包商合作。简报指出,此举将损害美国在人工智能领域的产业与科研竞争力,并抑制对前沿AI系统的专业讨论。支持者强调,Anthropic要求禁止AI用于大规模国内监控和自主致命武器开发的条款合理且必要。OpenAI首席执行官山姆·阿尔特曼亦公开批评该决定,称其对行业和国家不利。OpenAI随后迅速与美军签署合同,被部分人士视为趁机获利。
2026年3月9日,Anthropic公司向美国国防部提起诉讼,抗议其被列为供应链风险企业。随后,近40名来自OpenAI和谷歌的员工,包括谷歌首席科学家Jeff Dean,联名提交支持性法庭文件(amicus brief),反对特朗普政府的决定。他们指出,Anthropic拒绝将技术用于国内大规模监控和全自动致命武器系统的立场合理,且相关风险真实存在。该指定不仅禁止Anthropic参与军方合同,也迫使其他使用其产品的公司断开连接,但其工具已被深度整合进五角大楼工作流程,甚至在宣布禁令后数小时内即被用于针对伊朗领袖阿亚图拉·阿里·哈梅内伊的军事行动。支持者强调,AI驱动的大规模监控和无...
美国国防部于2026年3月9日宣布将Anthropic公司列入供应链风险名单,禁止其AI技术用于国防项目。此前,该部门曾授予Anthropic价值2亿美元的合同,使其成为首个在机密网络中部署AI模型的公司。此举引发广泛争议,专家指出该决定与此前威胁动用《国防生产法》强制获取技术相矛盾,且可能影响军事人员对AI工具的依赖。Anthropic已对特朗普政府提起诉讼,称其行为‘前所未有且违法’。该公司自2021年成立以来迅速发展,估值达3800亿美元,是美国增长最快的科技初创企业之一。亚马逊是其主要投资方,已投入80亿美元。目前,AWS客户仍可使用Claude模型,但国防领域应用被全面禁止。
美国人工智能企业Anthropic于2026年3月9日向加州北区联邦地区法院提起诉讼,指控特朗普政府将其标记为‘供应链风险’并取消政府合同,理由是该公司拒绝允许其AI模型Claude用于国内监控或自主武器系统。诉讼称该行为‘前所未有且违法’,已导致政府及私人合同被取消或面临风险,涉及金额达数亿美元。公司表示此举旨在保护业务、客户与合作伙伴,同时仍愿与政府对话寻求解决方案。
人工智能公司Anthropic于2026年3月9日向美国联邦法院提起两起诉讼,指控特朗普政府因该公司对AI安全的立场而非法将其列为“供应链风险”实体。该标签由国防部提出,禁止其技术被用于国防采购,被视为实质上的黑名单。Anthropic称此举违反其宪法第一修正案权利,并超出了供应链风险法律的适用范围。公司CEO达里奥·阿莫迪此前声明,禁止其Claude模型用于自主武器或大规模监控美国公民。国防部则反驳称,政府有权合法使用技术于军事和战术场景,且私企无权限制政府用途。此事件引发对AI治理、国家安全与言论自由边界的新一轮争议。
人工智能公司Anthropic已向加州联邦法院提起诉讼,指控美国政府将其列为供应链风险企业,属于非法报复行为。该公司认为,此举因其在大规模国内监控和全自主武器系统上设定伦理红线而遭到惩罚,违反了美国宪法第一修正案和第五修正案。特朗普政府已下令所有联邦机构六个月内停止使用Anthropic技术,包括总务管理局终止其OneGov合同,财政部和国务院等机构亦计划断开合作。Anthropic称政府行为超出行政权限,意在摧毁其经济价值。微软等客户表示将继续合作,但将隔离与国防部相关项目。此案引发两党争议,担忧企业因政策立场受政治打压。
美国人工智能公司Anthropic于2026年3月9日向加州联邦法院提起诉讼,挑战美国国防部将其列为“供应链风险”的决定。该认定源于双方在军事应用中使用其AI技术(如自主武器系统)限制问题上的分歧。Anthropic认为此举违法,侵犯其言论自由权利,并可能使其失去数亿美元政府合同及下游客户。公司CEO达里奥·阿莫迪称,该认定仅适用于直接参与军方合同的客户,不影响一般商业用途。国防部未立即回应。多家科技行业组织及前国家安全官员联名呼吁政府重新考虑,称此举可能抑制美国创新。若认定维持,军方承包商如Palantir可能需更换AI模型,增加政府成本。OpenAI已与国防部达成新合同,但未说明其技...
人工智能公司Anthropic于2026年3月9日向旧金山联邦法院提起诉讼,挑战美国国防部(DOD)将其列为供应链风险实体的决定。此前,双方就军方是否应无限制访问Anthropic的AI系统产生争执。Anthropic明确拒绝其技术用于大规模监控美国公民或驱动完全自主武器系统。美国防长彼特·赫格塞斯称军方应可为任何合法目的使用AI系统。该标签通常用于外国对手,要求与国防部合作的机构不得使用Anthropic模型。Anthropic在诉状中称此举‘前所未有且非法’,并援引宪法保护言论自由。此案正在发展中。
美国人工智能初创公司Anthropic于2026年3月9日向加州北区联邦地区法院提起诉讼,挑战特朗普政府将其列为国防部供应链风险实体的决定。该公司称此举“前所未有且违法”,已导致其联邦合同被取消,私人合作面临不确定性,经济损失或达数亿美元。Anthropic此前曾与国防部签订2亿美元合同,是首个部署AI技术至美军机密网络的AI实验室。尽管被列为风险实体,其模型仍用于支持美军在伊朗的军事行动。特朗普此前在社交媒体上要求联邦机构立即停止使用Anthropic技术,称其为“极端左翼AI公司”。该公司强调将继续推动与政府对话,同时寻求司法救济。
美国国防部(特朗普政府时期称‘战争部’)正式将人工智能企业Anthropic列为国家安全供应链风险,引发后者强烈反对。Anthropic首席执行官达里奥·阿莫迪表示该决定缺乏法律依据,公司将提起诉讼。此次争议源于Anthropic此前与联邦政府签署2亿美元合同,但要求禁止其技术用于大规模国内监控或自主武器系统,遭拒后引发冲突。特朗普已签署行政命令,要求所有联邦机构停止使用Anthropic的AI。尽管双方重新谈判,阿莫迪强调将无偿提供模型支持军事过渡,直至被允许为止。此外,美国军方已使用Anthropic的Claude模型协助对伊朗实施打击行动。
微软、谷歌和亚马逊确认,其客户在非国防相关场景下可继续使用Anthropic公司开发的Claude人工智能模型。美国国防部于周四将Anthropic列为供应链风险企业,因其拒绝向军方提供无限制技术访问权限,尤其涉及大规模监控和全自动武器等高风险应用。尽管如此,三大科技公司均表示,其平台(如微软M365、GitHub、Google Cloud、AWS)上的Claude服务不受限制,仅限于非国防用途。Anthropic首席执行官Dario Amodei强调,该限制仅针对直接与国防部合同相关的使用,不影响其他客户及非相关业务合作。目前,Anthropic已表示将通过法律途径挑战该指定。Clau...
亚马逊宣布将继续向其云服务客户开放 Anthropic 的人工智能技术,但排除涉及美国国防部(DoD)的工作。此举发生在美防部于周四将 Anthropic 列为“供应链风险”实体之后,Anthropic 已表示将对此提起诉讼。亚马逊、微软和谷歌均发布声明,确认在非国防领域继续支持 Claude 模型。亚马逊自2023年以来已向 Anthropic 投资80亿美元,并与其建立深度商业合作,包括通过 AWS Bedrock 提供 Claude 模型,以及在名为 Project Rainier 的数据中心项目中使用其定制芯片 Trainium 2。