美国法院裁定Anthropic胜诉初步禁令 法官指政府行为涉嫌第一修正案报复
美国旧金山联邦法院法官丽塔·林于2026年3月25日裁定,授予人工智能初创公司Anthropic针对特朗普政府的初步禁令。该禁令旨在暂停国防部将Anthropic列为供应链风险及禁止联邦机构使用其Claude模型的决定。法官指出,政府此举构成对该公司表达不同意见的非法第一修正案报复。Anthropic此前已与国防部就模型部署展开谈判,但因对自主武器和国内大规模监控使用限制存在分歧而未达成协议。此案涉及10 U.S.C. § 3252和41 U.S.C. § 4713两项法律条款,Anthropic已另案向华盛顿上诉法院提起正式审查。此案被视为美国首例本土企业被官方定性为供应链风险的案例,...
2026-03-27 08:02
Anthropic报告指出AI技能鸿沟显现 早期使用者优势扩大
Anthropic最新经济影响报告显示,尽管AI尚未导致大规模失业,但已出现技能鸿沟,早期使用者在职场中优势明显。研究发现,使用Claude模型进行核心任务自动化的工作岗位,与较少接触AI的岗位在失业率上无显着差异。然而,AI应用的不均衡分布正在加剧,高收入国家及知识密集型地区使用更频繁,且主要用于专业任务。公司首席经济学家Peter McCrory警告,若不建立监测机制,未来五年内AI可能淘汰半数初级白领岗位,失业率或升至20%。报告强调,AI正成为“奖励已知使用者”的技术,加剧社会不平等风险。
2026-03-26 06:03
法官称政府对Anthropic的禁令疑似惩罚行为
美国加利福尼亚州旧金山联邦法院法官丽塔·F·林在2026年3月25日的听证会上表示,美国政府对AI公司Anthropic的禁令看起来像是对其公开批评国防部AI使用政策的惩罚。Anthropic因CEO达里奥·阿莫德伊拒绝允许其AI模型Claude用于自主武器或监视美国公民,而被特朗普政府禁止在联邦机构中使用其产品。国防部将Anthropic列为“供应链风险”,此举通常用于外国对手实体。Anthropic已提起两项诉讼,指控政府违反第一修正案言论自由权并越权使用供应链风险法。法官林表示将在数日内就是否暂停禁令作出裁决,此案或影响政府对AI技术的监管方向。
2026-03-25 09:04
美国司法部称Anthropic不可信 无法参与军事作战系统
美国司法部代表国防部在法院提交文件,反驳AI公司Anthropic关于其第一修正案权利受侵犯的指控,称政府对其施加供应链风险标签不违法。该标签可能使Anthropic失去数亿美元军方合同。司法部称,此举基于对Anthropic未来可能破坏国家安全系统的担忧,而非限制其言论自由。目前,法院已安排听证会,决定是否允许Anthropic在诉讼期间继续运营。美国军方正计划用Google、OpenAI和xAI等公司的AI系统替代Anthropic的Claude模型,并已有多家公司及前军方人士支持Anthropic的立场。
2026-03-18 09:02
美国国防部禁用Anthropic AI技术 引发业界担忧
美国国防部于2026年3月9日宣布将Anthropic公司列入供应链风险名单,禁止其AI技术用于国防项目。此前,该部门曾授予Anthropic价值2亿美元的合同,使其成为首个在机密网络中部署AI模型的公司。此举引发广泛争议,专家指出该决定与此前威胁动用《国防生产法》强制获取技术相矛盾,且可能影响军事人员对AI工具的依赖。Anthropic已对特朗普政府提起诉讼,称其行为‘前所未有且违法’。该公司自2021年成立以来迅速发展,估值达3800亿美元,是美国增长最快的科技初创企业之一。亚马逊是其主要投资方,已投入80亿美元。目前,AWS客户仍可使用Claude模型,但国防领域应用被全面禁止。
2026-03-10 04:02
微软表示将继续在非国防部客户中提供Anthropic人工智能产品
微软宣布,尽管美国国防部将Anthropic列为供应链风险企业,但仍将继续在非国防部客户中提供其人工智能技术,包括通过M365、GitHub及AI Foundry等平台。此前,美国国防部通知Anthropic将其列为风险企业,Anthropic已表示将提起诉讼挑战该决定。美国总统唐纳德·特朗普此前要求联邦机构停止使用Anthropic,国防部长彼得·赫格塞斯称该公司的服务将在六个月内终止。有报道称Anthropic模型参与了近期对伊朗的空袭行动。微软是首家明确将继续与Anthropic合作的主要科技公司,而部分国防科技企业已指示员工改用其他AI模型。微软与Anthropic于今年11月达...
2026-03-06 19:08
美防务专家联名致信国会 质疑五角大楼将Anthropic列为供应链风险
一群前美国防务与情报官员及政策专家于2026年3月5日联名致信国会,要求调查五角大楼将人工智能公司Anthropic列为供应链风险的决定。他们称该决定是“危险先例”,违背了设置供应链风险机制的初衷——即防范外国对手渗透。此举源于总统特朗普下令联邦机构停止使用Anthropic,其Claude模型在企业界广受欢迎。专家指出,此举惩罚美国企业拒绝移除对大规模国内监控和全自动武器的防护措施,实为“类别错误”,将削弱美国在人工智能领域的竞争力。信件由30人签署,包括退役海军少将唐纳德·阿瑟、前国防部副助理部长戴安娜·班克斯·汤普森等。同时,信息技术产业协会(ITI)也致函国防部长赫格塞斯,呼吁通...
2026-03-05 19:09
Anthropic重启与五角大楼谈判 以防被列为供应链风险企业
Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)正与美国国防部重启谈判,以避免公司被特朗普政府列为供应链风险实体。此前双方因数据使用条款破裂谈判,国防部要求移除限制“批量数据”分析的条款,而Anthropic认为此举可能涉及大规模国内监控,属红线问题。若被列为风险企业,将导致国防承包商切断与Anthropic的联系。该公司此前已获2亿美元国防部合同,其AI模型Claude被用于机密环境及国家安全机构。科技协会联名致信特朗普,警告此举可能削弱美国AI领导力,影响对华竞争。相关方包括Nvidia、Google、Apple等企业代表。
2026-03-05 16:02
Anthropic与美国防部重启谈判,AI军用许可争议再起
据《金融时报》报道,Anthropic首席执行官达里奥·阿莫迪已与美国国防部副部长埃米尔·迈克尔重启谈判,旨在解决此前因AI工具军用条款分歧导致的谈判破裂。此前,美国总统特朗普下令联邦机构停止使用Anthropic技术,国防部长彼得·赫格塞斯称该公司为国家安全供应链风险。Anthropic曾与国防部签署2亿美元合同,使其Claude模型成为首个进入政府涉密网络的大型AI模型,但公司要求禁止用于国内监控或自主武器系统。美方则要求技术可用于任何合法用途。谈判中,国防部曾提出删除“批量获取数据的分析”相关条款,引发Anthropic强烈反对。与此同时,OpenAI在周五与国防部达成新协议,引发...
2026-03-05 14:02
挪威主权财富基金启用AI模型筛查投资伦理风险
挪威央行投资管理公司(NBIM)宣布,自2025年起全面启用Anthropic公司开发的Claude大型语言模型,用于筛查新进入其股票投资组合公司的潜在伦理与治理风险。该基金规模达2.2万亿美元,管理全球超7200家公司投资,持有约1.5%全球上市股票。AI工具可每日生成风险评估报告,帮助识别强迫劳动、腐败或欺诈等风险,尤其在新兴市场小企业中提升监测效率。NBIM称,此举可提前24小时内发现风险并采取行动,避免潜在损失。此前其在2025年因退出卡特彼勒及五家以色列银行投资引发美国政府批评,目前伦理框架正在政府主导下修订中,相关决策权已暂时调整。
2026-02-27 00:10
美国防部长赫格塞斯要求安特罗普公司限期让步 事关AI安全管控
美国国防部长彼得·赫格塞斯要求安特罗普公司(Anthropic)首席执行官达里奥·阿莫德伊在周五晚前同意让美军无限制使用其AI模型,否则将面临严厉处罚。据Axios报道,赫格塞斯在周二的紧张会谈中警告,若无法达成协议,国防部将切断合作并宣布安特罗普为‘供应链风险’,或援引《国防生产法》强制其调整模型以满足军方需求。尽管存在分歧,军方仍因依赖其领先AI模型Claude而维持对话。安特罗普表示愿调整使用政策,但拒绝允许模型用于大规模监控美国公民或开发全自动武器系统。
2026-02-25 04:03
五角大楼与Anthropic就Claude使用问题产生分歧
2026年2月15日,据Axios报道,美国军方要求AI企业允许其技术用于'所有合法用途',但Anthropic明确反对。五角大楼威胁可能取消与其2亿美元合同。此前《华尔街日报》披露Claude曾参与抓捕委内瑞拉总统马杜罗的行动,但公司发言人强调未讨论具体军事用途,仅聚焦自主武器和国内监控政策限制。
2026-02-16 06:04