美国白宫要求暂停向 Anthropic 授予人工智能相关军用合同
美国白宫于2026年2月28日宣布,将暂停向人工智能公司Anthropic授予涉及军用用途的合同,直至相关安全审查完成。此举旨在评估该技术在军事应用中的潜在风险,包括数据安全、算法偏见及战略滥用可能。白宫发言人表示,该决定并非针对公司本身,而是出于国家安全考量。Anthropic未立即回应,但此前其AI模型已被用于部分国防项目试点。该措施可能影响美国人工智能在国防领域的部署进度。
# Anthropic
美国白宫于2026年2月28日宣布,将暂停向人工智能公司Anthropic授予涉及军用用途的合同,直至相关安全审查完成。此举旨在评估该技术在军事应用中的潜在风险,包括数据安全、算法偏见及战略滥用可能。白宫发言人表示,该决定并非针对公司本身,而是出于国家安全考量。Anthropic未立即回应,但此前其AI模型已被用于部分国防项目试点。该措施可能影响美国人工智能在国防领域的部署进度。
2026年2月27日,美国总统特朗普在Truth Social上指示联邦机构停止使用Anthropic公司产品,并给予六个月内逐步淘汰的过渡期。随后,国防部长彼得·赫格塞斯宣布,国防部立即认定Anthropic为国家安全供应链风险企业,禁止任何与美军合作的承包商、供应商或合作伙伴与Anthropic开展商业活动。该决定源于Anthropic拒绝允许其AI模型用于大规模国内监控或全自主武器系统,引发美方不满。Anthropic首席执行官达里奥·阿莫迪重申其立场,表示愿在保障措施到位的前提下继续为国防部服务,并承诺协助平稳过渡至其他供应商,避免影响军事规划与作战任务。
2026年2月28日凌晨,美国防部长彼得·赫格塞斯宣布将人工智能公司Anthropic列为‘供应链风险’企业,禁止任何与美国国防部合作的公司开展与Anthropic的商业活动。该决定紧随总统唐纳德·特朗普在Truth Social平台宣布全面禁用Anthropic产品之后。此前,五角大楼要求Anthropic在2月28日东部时间下午5:30前同意允许其在‘所有合法用途’下使用Claude模型,包括自主致命武器系统和大规模监控,否则将面临制裁。赫格塞斯称,Anthropic的‘有效利他主义’立场试图限制美军行动,违反美国国家安全原则。受影响企业包括Palantir和AWS等。过渡期为六个月...
亚马逊于2026年2月27日宣布与OpenAI达成战略投资与技术合作,承诺投资最高达500亿美元,其中首期150亿美元,其余350亿美元视OpenAI达成特定里程碑及完成美国IPO或直接上市而定。作为合作一部分,OpenAI将在亚马逊云服务(AWS)上部署2吉瓦Trainium AI芯片,并在未来八年向AWS投入1000亿美元,扩大此前380亿美元的协议。此举标志着亚马逊在AI领域进一步布局,同时维持与Anthropic的现有合作。该合作亦与OpenAI同时宣布的1100亿美元融资轮同步,其中包括英伟达和软银各300亿美元投资。亚马逊CEO安迪·贾西表示,此举将增强AWS在AI基础设施中...
美国总统特朗普下令所有美国联邦机构立即停止使用Anthropic公司的人工智能技术,此举源于该公司此前要求限制五角大楼使用其AI模型,不得用于全自动武器或对美国民众的大规模监控。Anthropic今年7月与五角大楼签署2亿美元合同,但未满足五角大楼要求其模型可用于所有合法用途的期限,导致国防部威胁将其列为供应链风险或动用《国防生产法》强制执行。特朗普在Truth Social上称此举为‘灾难性错误’,并强调此举危及国家安全和军队安全。他还宣布将给予国防部等机构六个月过渡期逐步退出使用。OpenAI随后也表态,将与Anthropic划出相同红线,禁止AI用于大规模监控或自主致命武器。
美国总统特朗普于2026年2月27日通过Truth Social平台宣布,美国联邦政府将立即停止使用AI公司Anthropic的所有产品,并要求各机构在六个月内完成技术替代。此举源于Anthropic与五角大楼在AI技术使用限制上的激烈争执,特别是关于是否允许其模型用于国内大规模监控或全自动武器系统。五角大楼此前设定截止时间为当天下午5:01(美国东部时间),要求Anthropic取消相关限制,否则将考虑动用朝鲜战争时期的《国防生产法》并将其列为供应链风险企业。OpenAI首席执行官山姆·阿尔特曼表示支持Anthropic设定的“红线”,并正在与五角大楼谈判部署其模型的条款。Anthro...
2026年2月27日,美国总统特朗普在Truth Social上发文,指责AI公司Anthropic试图‘胁迫’美国国防部,并下令所有联邦机构立即停止使用其产品。争议源于Anthropic首席执行官达里奥·阿莫迪拒绝签署国防部要求的‘任何合法用途’协议,该协议允许军方使用其AI技术进行大规模国内监控及致命自主武器系统。OpenAI和xAI已同意新条款,但Anthropic坚持限制AI在特定军事场景下的应用,称其可能损害民主价值观。特朗普称此举将危及国家安全与美军战斗力,宣布为期六个月的停用过渡期,并警告若Anthropic不配合将动用总统权力施压。事件引发科技界与军方对AI伦理与国家安全...
美国现任总统唐纳德·特朗普于2026年2月27日宣布,立即指示所有联邦机构停止使用Anthropic公司的人工智能工具。此举源于该公司与军方在人工智能军事应用限制问题上的长期争执。特朗普在Truth Social平台称,Anthropic的‘左翼激进分子’试图‘胁迫国防部’,犯下‘灾难性错误’。美国防部此前试图修改与Anthropic等AI公司于去年7月达成的协议,取消AI使用限制,允许‘所有合法用途’,但Anthropic反对,担心AI可能被用于自主致命武器或对美国公民进行大规模监控。尽管国防部表示目前未使用AI进行此类活动,且无此计划,但特朗普政府高层反对由民用科技公司主导军用AI规...
2026年2月27日,美国总统特朗普在Truth Social上发布声明,要求所有联邦机构停止使用Anthropic公司产品,原因是该公司与国防部在AI应用安全问题上发生公开争执。特朗普允许六个月内逐步退出,但强调Anthropic将不再被允许作为联邦承包商。争议焦点在于Anthropic拒绝让其AI模型用于大规模国内监控或全自动武器系统,国防部对此表示不满。公司CEO达里奥·阿莫迪重申立场,承诺在被终止合作时将协助平稳过渡,避免影响军事行动。
OpenAI首席执行官山姆·阿尔特曼表示,他支持竞争对手Anthropic对军事使用AI设定的‘红线’,即禁止用于国内大规模监控或全自动武器系统。此举发生在五角大楼要求Anthropic在2026年2月27日美东时间下午5:01前取消相关限制,否则可能终止其高达2亿美元的合同,并威胁动用《国防生产法》。阿尔特曼称,OpenAI正与五角大楼谈判,寻求在部署其AI模型于涉密系统时保留类似限制。Anthropic首席执行官达里奥·阿莫迪拒绝让步,称此类用途超出当前技术安全边界。五角大楼官员则指责其‘妄图控制美军’。专家指出,这是罕见的政府与AI企业关于技术使用权限的公开争端,凸显人工智能治理的...
美国AI公司Anthropic与国防部就其AI模型在军事领域的使用权限爆发公开冲突。Anthropic拒绝允许其模型用于对美国公民的大规模监控或完全自主武器系统,而国防部长皮特·赫格塞斯(Pete Hegseth)则强调,国防部应有权在合法范围内自由使用该技术。双方分歧核心在于AI技术控制权归属——企业还是政府。若Anthropic未能在截止时间前回应,国防部可能将其列为供应链风险,终止合作。此举或影响美军AI技术部署进度,引发国家安全与技术自主性争议。
OpenAI首席执行官山姆·奥特曼在2026年2月25日向员工发送备忘录,表示希望公司协助缓和与竞争对手Anthropic及美国国防部之间的紧张关系。奥特曼重申公司反对AI用于大规模监控或自主致命武器,强调人类应在高风险自动化决策中保留控制权。目前,Anthropic需在美东时间2月26日17:01前决定是否允许五角大楼无限制使用其AI模型,但五角大楼未让步。此前,约70名OpenAI员工联署公开信《我们不会分裂》,声援Anthropic。奥特曼称将探索在符合公司原则前提下,与五角大楼就机密环境部署AI模型达成协议,并承诺设置技术防护措施。OpenAI去年获五角大楼2亿美元合同,用于非机...
美国国防部与人工智能公司 Anthropic 就军事用途的 AI 技术使用限制发生激烈对峙。国防部长彼得·赫格塞斯要求 Anthropic 在指定时间内放宽其模型的安全限制,包括大规模国内监控和全自动武器系统,但该公司拒绝,称此举违反其公司政策。此次冲突凸显了私营企业在前沿 AI 开发中日益增长的影响力,以及政府在国家安全领域对商业技术的依赖。此前,国防部于7月向 Anthropic、OpenAI、Google DeepMind 和 xAI 等四家公司授予最高达2亿美元的合同,用于开发与国家安全相关的 AI 原型。此举标志着美国加速推进“AI优先”军事战略,但同时也引发关于技术控制权、伦...
美国人工智能企业Anthropic拒绝接受五角大楼提出的新合同条款,该条款允许军方在无限制条件下使用其AI模型,包括大规模监控和完全自主的致命武器系统。五角大楼首席技术官Emil Michael威胁若不合作,将把Anthropic列为“供应链风险”,此举通常用于国家安全威胁。尽管OpenAI和xAI已同意相关条款,Anthropic首席执行官Dario Amodei仍坚持公司红线,称“威胁不会改变我们的立场”。白宫已安排其与国防部长Pete Hegseth会面,但 Anthropic 仍未让步。事件引发科技行业内部对军用AI伦理的广泛讨论。
美国国防部正对AI公司Anthropic施加压力,要求其允许军方无限制使用其技术,包括用于大规模监控和全自动致命武器系统,否则可能被认定为‘供应链风险’,面临数百亿美元合同损失。Anthropic首席执行官Dario Amodei拒绝该要求,称在技术不可靠的当下无法接受,但愿与国防部合作提升系统可靠性。OpenAI和xAI已同意类似条款,而亚马逊、微软、谷歌等科技公司也逐步放宽对军方和执法机构AI应用的限制。科技员工对此普遍感到道德困境和被背叛,多个组织代表70万名员工联署要求公司拒绝军方要求。若Anthropic最终让步,或引发行业全面转向军事化AI应用,加剧全球对自主武器和大规模监控...
美国国防部要求Anthropic公司无限制开放其人工智能技术,引发该公司拒绝,理由是反对AI用于国内大规模监控及自主武器。随着周五截止日期临近,超过300名谷歌员工与60名OpenAI员工联署公开信,呼吁各自公司领导人支持Anthropic立场,拒绝国防部单方面要求。信中强调应共同维护AI伦理边界,反对将AI用于大规模监控和自主武器。OpenAI首席执行官山姆·阿尔特曼表示不认同国防部对AI公司施加压力,公司亦支持Anthropic的红线。谷歌DeepMind首席科学家杰夫·迪恩在社交媒体上表示,大规模监控违反第四修正案,可能寒蝉效应并被滥用。目前谷歌与OpenAI尚未正式回应,但内部表...
OpenAI首席执行官山姆·奥尔特曼在内部备忘录中表示,公司将遵循与竞争对手Anthropic相同的AI使用红线,即禁止用于大规模监控或自主致命武器系统。此举正值美国国防部与Anthropic因AI技术应用产生激烈争执之际。尽管奥尔特曼仍寻求与国防部达成协议,允许ChatGPT用于敏感军事场景,但该立场可能阻碍国防部替换Anthropic的Claude模型的计划。若谷歌等其他科技巨头跟进,将使国防部推进AI军事化面临更大挑战。这是美国主要AI企业首次集体对政府使用其技术设定明确边界。
人工智能初创公司Anthropic面临与美国国防部的僵局,须在美东时间周五下午5:01前决定是否允许军方无限制使用其AI模型。若拒绝,国防部长Pete Hegseth威胁将该公司列为‘供应链风险’或援引《国防生产法》强制执行。Anthropic此前已与国防部签署2亿美元合同,是首个将其模型整合进机密网络任务流程的AI实验室。公司CEO Dario Amodei强调,反对AI用于全自动武器或对美国民众进行大规模监控,称部分用途可能损害民主价值观。国防部则坚持要求‘所有合法用途’的使用权,并称此举为‘常识性要求’,否则将危及军事行动。该事件引发业界关注,OpenAI CEO Sam Altm...
2026年2月27日,人工智能公司Anthropic拒绝接受美国五角大楼提出的AI安全审查要求,引发关于人工智能监管与技术创新之间平衡的广泛讨论。该事件凸显了私营科技企业与政府机构在AI治理问题上的分歧。Anthropic强调其现有的安全框架已足够,无需额外政府干预。此举可能影响美国国防部未来与私营AI企业的合作模式,并在全球AI治理议题中引发连锁反应。
美国人工智能公司Anthropic首席执行官达里奥·阿莫迪表示,该公司“无法良心上接受”五角大楼要求扩大其AI技术使用范围的条件。Anthropic在声明中指出,国防部新提出的合同条款未能有效防止其AI模型Claude被用于对美国民众的大规模监控或完全自主武器系统。五角大楼发言人肖恩·帕内尔回应称,军方仅希望在合法范围内使用AI技术,且不会允许公司单方面设定使用限制,称Anthropic需在东部时间周五下午5:01前做出决定,否则将终止合作并视其为供应链风险。Anthropic是目前唯一未向美军内部网络提供AI技术的四家主要AI公司之一,其他包括谷歌、OpenAI和xAI。此次争端凸显A...