沃伦参议员质疑国防部将Anthropic列入黑名单系报复行为
美国参议员伊丽莎白·沃伦致信国防部长彼特·赫格塞斯,质疑国防部将人工智能初创公司Anthropic列为供应链风险企业系“报复行为”。沃伦指出,国防部本可终止合同或继续在非涉密系统中使用其技术,却选择施压企业,使其提供可用于监控美国公民及部署全自主武器的工具。Anthropic已于2月27日被贴上“供应链风险”标签,随后提起诉讼。与此同时,OpenAI与国防部达成合作,但合同细节未公开,引发国会及公众对AI技术用于大规模监控和自主武器的担忧。沃伦亦致函OpenAI首席执行官山姆·阿尔特曼,要求披露协议条款。目前,民主党在国会缺乏推动强制措施的权力,因共和党控制白宫及两院。
2026-03-23 21:04
Anthropic招聘化学武器与高能炸药政策经理 引发全球AI安全争议
美国人工智能公司Anthropic在LinkedIn发布招聘启事,寻求一名化学武器与高能炸药政策经理,负责制定AI系统在敏感领域信息处理的安全防护措施。公司强调其产品禁止用于武器开发,该职位属于安全防护团队,旨在防止AI技术被恶意滥用。此举引发与美国国防部的公开矛盾,后者因Anthropic拒绝为自主武器系统提供技术支持,将其列为国家安全供应链风险,并禁止军方使用其技术。Anthropic已就此提起诉讼。该事件凸显AI安全与国家安全之间的张力,也反映了全球在AI监管与技术应用平衡上的深层分歧。
2026-03-21 06:05
美国陆军与Anduril签署十年合同 最高价值200亿美元
美国陆军于2026年3月14日宣布与国防科技初创公司Anduril签署一项为期十年的合同,潜在总值高达200亿美元。该合同包含五年基础期及五年可选延期,涵盖硬件、软件、基础设施与服务,旨在整合此前超过120项分散采购。此举被视为加速军事数字化转型的重要举措。Anduril由虚拟现实创业者Palmer Luckey共同创立,其技术愿景包括自主战斗机、无人机和潜艇。该公司去年营收约20亿美元,正洽谈新一轮融资,估值或达600亿美元。与此同时,美国国防部正与Anthropic就供应链安全问题产生争议,而OpenAI亦因与五角大楼合作遭遇内部动荡。
2026-03-15 05:02
安杜里尔公司收购ExoAnalytic 扩大太空业务规模
美国自主武器制造商安杜里尔(Anduril Industries)宣布收购太空监测公司ExoAnalytic,此举使其太空部门员工总数由120人增至250人。ExoAnalytic拥有先进的地静止轨道物体跟踪技术,可提供高精度的星体运动、稳定性变化及异常检测数据,广泛应用于军事通信、导弹预警和侦察。收购后,安杜里尔将整合ExoAnalytic的技术,强化其在五角大楼‘黄金穹顶’导弹防御计划中的角色,并将重点转向军用太空技术开发,而非商业应用。公司强调其太空业务核心为保障太空安全、确保太空访问权及实现对太空资产的全面追踪。
2026-03-12 02:17
Anthropic起诉美国政府禁用其技术 白宫称其为“激进左翼公司”
美国人工智能公司Anthropic于2026年3月10日向加州北区联邦地区法院提起诉讼,指控特朗普政府以“国家安全风险”为由全面禁用其Claude AI技术,称此举是对其言论自由权的侵犯。Anthropic表示,其拒绝将技术用于自主武器系统和大规模国内监控,符合其对AI安全的立场。白宫回应称Anthropic是“激进左翼、觉醒主义公司”,并强调总统有权确保军队不被“意识形态”限制。多家科技公司员工及自由表达组织支持Anthropic,批评政府行为具有报复性,可能扼杀技术创新与公共辩论。此案引发对AI监管边界、政府权力与企业自主权之间关系的广泛讨论。
2026-03-11 04:11
OpenAI与谷歌员工支持Anthropic起诉五角大楼
2026年3月9日,Anthropic公司向美国国防部提起诉讼,抗议其被列为供应链风险企业。随后,近40名来自OpenAI和谷歌的员工,包括谷歌首席科学家Jeff Dean,联名提交支持性法庭文件(amicus brief),反对特朗普政府的决定。他们指出,Anthropic拒绝将技术用于国内大规模监控和全自动致命武器系统的立场合理,且相关风险真实存在。该指定不仅禁止Anthropic参与军方合同,也迫使其他使用其产品的公司断开连接,但其工具已被深度整合进五角大楼工作流程,甚至在宣布禁令后数小时内即被用于针对伊朗领袖阿亚图拉·阿里·哈梅内伊的军事行动。支持者强调,AI驱动的大规模监控和无...
2026-03-10 05:02
Anthropic起诉美国防部反对供应链风险认定
人工智能公司Anthropic于2026年3月9日向旧金山联邦法院提起诉讼,挑战美国国防部(DOD)将其列为供应链风险实体的决定。此前,双方就军方是否应无限制访问Anthropic的AI系统产生争执。Anthropic明确拒绝其技术用于大规模监控美国公民或驱动完全自主武器系统。美国防长彼特·赫格塞斯称军方应可为任何合法目的使用AI系统。该标签通常用于外国对手,要求与国防部合作的机构不得使用Anthropic模型。Anthropic在诉状中称此举‘前所未有且非法’,并援引宪法保护言论自由。此案正在发展中。
2026-03-10 00:06
OpenAI机器人部门负责人辞职 称与五角大楼合作“缺乏治理框架”
OpenAI机器人部门负责人在社交媒体上宣布辞职,称公司与美国五角大楼达成的AI合作项目“仓促推进,未明确定义治理框架”,并强调反对无司法监督的美国国内监控及无人授权的致命自主武器系统。该负责人表示此举基于原则,而非人事问题,并对团队及OpenAI联合创始人Sam Altman表示尊重。OpenAI回应称,其与五角大楼的合作明确划定了红线,禁止国内监控和自主武器,公司将继续与各方讨论相关议题。该负责人此前曾任职于Meta,2024年末加入OpenAI。
2026-03-08 07:02
OpenAI机器人项目负责人凯特琳·卡利诺夫斯基因与五角大楼合作协议辞职
OpenAI机器人团队负责人凯特琳·卡利诺夫斯基于2026年3月7日宣布辞职,原因系反对公司与美国国防部达成的AI技术合作协定。她在社交媒体上表示,尽管支持AI在国家安全中的应用,但反对未经司法监督的国内监控及无人授权的致命自主武器系统。该协议引发内部争议,OpenAI称其设有明确红线,包括禁止国内监控和自主武器,但卡利诺夫斯基批评协议推出仓促、缺乏治理保障。事件发生后,ChatGPT应用卸载量激增295%,而竞争对手Claude在美区App Store下载榜升至首位。OpenAI与五角大楼的合作协议在Anthropic谈判破裂后迅速达成,后者因拒绝提供技术用于大规模监控和自主武器被国防...
2026-03-08 05:02
美国国防部将Anthropic列为国家安全供应链风险 企业宣布将提起诉讼
美国国防部(特朗普政府时期称‘战争部’)正式将人工智能企业Anthropic列为国家安全供应链风险,引发后者强烈反对。Anthropic首席执行官达里奥·阿莫迪表示该决定缺乏法律依据,公司将提起诉讼。此次争议源于Anthropic此前与联邦政府签署2亿美元合同,但要求禁止其技术用于大规模国内监控或自主武器系统,遭拒后引发冲突。特朗普已签署行政命令,要求所有联邦机构停止使用Anthropic的AI。尽管双方重新谈判,阿莫迪强调将无偿提供模型支持军事过渡,直至被允许为止。此外,美国军方已使用Anthropic的Claude模型协助对伊朗实施打击行动。
2026-03-07 05:05
美国国防部正式将Anthropic列为供应链风险企业
美国国防部已正式通知Anthropic公司,将其及其产品列为供应链风险实体,此举引发业界广泛关注。该决定源于Anthropic CEO达里奥·阿莫迪拒绝允许美军使用其AI系统进行大规模监控或无人干预的自主武器系统。尽管Anthropic是唯一具备处理机密数据能力的前沿AI实验室,且其Claude模型正被用于伊朗军事行动中的数据分析,国防部仍坚持此认定。此举可能影响美军建设及AI企业运营,数百名OpenAI和谷歌员工呼吁政府撤销该决定,批评其对本土创新的不当打压。OpenAI已与国防部达成允许“所有合法用途”的协议,但部分员工担忧其模糊表述可能导致类似争议。阿莫迪称该决定具惩罚性质,并指其...
2026-03-06 05:05
初创公司开发军用AI模型 引发伦理与安全争议
美国初创公司Smack Technologies宣布完成3200万美元融资,致力于开发专用于军事行动规划的人工智能模型。该公司CEO安迪·马尔科夫曾为美国海军陆战队特种作战司令部指挥官,其团队通过模拟战争场景训练AI模型,以优化军事任务规划。马尔科夫表示,通用大模型如Claude缺乏军事数据训练,无法胜任目标识别等任务。此举引发伦理争议,未来生命研究所专家安娜·赫尔指出,当前AI系统在识别战斗人员与平民、判断投降行为方面存在严重局限,不适合用于高风险作战决策。美国国防部与Anthropic因AI军事使用限制问题发生分歧,导致后者被认定为供应链风险。目前全球超过30个国家已部署不同程度自主...
2026-03-05 07:03
OpenAI调整与美国国防部AI合作条款应对舆论反弹
OpenAI首席执行官山姆·阿尔特曼承认公司与美国国防部(DOW)的AI合作协议发布仓促,引发外界对其‘机会主义’和‘草率’的批评。该协议最初在特朗普总统下令联邦机构停止使用竞争对手Anthropic后迅速达成,但因允许AI技术用于合法的国内监控和自主武器系统而引发用户抵制。OpenAI随后更新协议,增加禁止‘故意’用于国内监控的条款,但仍以法律合规为唯一限制,未涉及自主武器问题。此举未能平息公众疑虑,用户取消订阅激增,ChatGPT下载量大幅下降,Anthropic的Claude反超成为美国App Store最热门免费应用。阿尔特曼重申公司不设伦理限制,主张政府应主导社会决策,但承诺若...
2026-03-03 18:08
OpenAI与五角大楼达成AI军用协议 引发行业争议
2026年3月2日,OpenAI首席执行官山姆·阿尔特曼宣布公司已与美国国防部(特朗普政府称其为‘战争部’)达成新协议,声称保留了禁止国内大规模监控和自主致命武器的红线。然而,行业人士和前员工质疑该协议实为妥协,因其允许‘任何合法用途’,而美国政府过去曾以法律为依据实施大规模监控。相比之下,Anthropic因拒绝类似条款被五角大楼列为供应链风险,面临联邦机构禁用。OpenAI的技术防护措施如分类器和云部署被指作用有限,无法有效阻止军方在法律框架内使用其技术进行监控或武器系统开发。此举引发全球对AI军事化、隐私权及科技企业伦理责任的广泛讨论。
2026-03-02 23:05
OpenAI公布与美国国防部协议细节 称设有多重安全防护
OpenAI在与美国国防部达成协议后,发布博客详细说明其技术部署安全框架,强调禁止用于大规模国内监控、自主武器系统及高风险自动化决策。该公司称其通过云API部署、保留安全控制权及合同保护等多层机制保障红线,与 Anthropic 因立场分歧未能达成协议形成对比。CEO Sam Altman承认协议“显然仓促”,但称此举旨在缓解政府与科技行业紧张关系。Techdirt分析指出协议可能允许间接国内监控,OpenAI则反驳称部署架构比合同条款更重要。该事件引发对AI安全边界及军用部署伦理的广泛讨论。
2026-03-02 01:03
特朗普政府切断与Anthropic合作 美国AI安全争议升级
2026年3月1日,美国国防部以国家安全为由,援引供应链风险法案,将AI公司Anthropic列入黑名单,禁止其参与军方项目。此举源于该公司创始人Dario Amodei拒绝将技术用于美国公民的大规模监控或自主武装无人机。总统特朗普随后指示所有联邦机构立即停止使用Anthropic技术,导致该公司可能损失高达2亿美元合同。Anthropic已宣布将提起诉讼,称该决定“法律依据不足”。MIT教授Max Tegmark指出,AI行业长期抵制监管,自我承诺安全却未能立法固化,导致当前困境。OpenAI、Google DeepMind等公司也相继放弃安全承诺,引发对AI治理真空的担忧。专家认为,...
2026-03-01 09:02
Anthropic首席执行官批评五角大楼将其列为“供应链风险”
美国人工智能公司Anthropic首席执行官达里奥·阿莫迪(Dario Amodei)对美国国防部及白宫将该公司列为“供应链风险”并禁止其产品用于国防承包业务的决定表示强烈反对,称此举“前所未有”且“具有惩罚性”。阿莫迪强调,Anthropic反对其AI模型用于大规模国内监控和完全自主武器系统,但支持其他政府提出的使用场景。同日,竞争对手OpenAI宣布与美国国防部达成协议,将部署其AI模型至军事网络,引发部分公众对隐私和AI军事化应用的担忧。事件发生于2026年2月28日,涉及美国国防政策与AI技术监管的交叉议题。
2026-03-01 06:02
Anthropic与美国国防部AI使用争端升级
美国AI公司Anthropic与国防部就其AI模型在军事领域的使用权限爆发公开冲突。Anthropic拒绝允许其模型用于对美国公民的大规模监控或完全自主武器系统,而国防部长皮特·赫格塞斯(Pete Hegseth)则强调,国防部应有权在合法范围内自由使用该技术。双方分歧核心在于AI技术控制权归属——企业还是政府。若Anthropic未能在截止时间前回应,国防部可能将其列为供应链风险,终止合作。此举或影响美军AI技术部署进度,引发国家安全与技术自主性争议。
2026-02-28 04:07
OpenAI首席执行官奥特曼称愿协助缓和与五角大楼紧张关系 员工联署支持Anthropic
OpenAI首席执行官山姆·奥特曼在2026年2月25日向员工发送备忘录,表示希望公司协助缓和与竞争对手Anthropic及美国国防部之间的紧张关系。奥特曼重申公司反对AI用于大规模监控或自主致命武器,强调人类应在高风险自动化决策中保留控制权。目前,Anthropic需在美东时间2月26日17:01前决定是否允许五角大楼无限制使用其AI模型,但五角大楼未让步。此前,约70名OpenAI员工联署公开信《我们不会分裂》,声援Anthropic。奥特曼称将探索在符合公司原则前提下,与五角大楼就机密环境部署AI模型达成协议,并承诺设置技术防护措施。OpenAI去年获五角大楼2亿美元合同,用于非机...
2026-02-28 04:03
AI企业与五角大楼对峙:Anthropic拒绝军方“任何合法用途”条款
美国人工智能企业Anthropic拒绝接受五角大楼提出的新合同条款,该条款允许军方在无限制条件下使用其AI模型,包括大规模监控和完全自主的致命武器系统。五角大楼首席技术官Emil Michael威胁若不合作,将把Anthropic列为“供应链风险”,此举通常用于国家安全威胁。尽管OpenAI和xAI已同意相关条款,Anthropic首席执行官Dario Amodei仍坚持公司红线,称“威胁不会改变我们的立场”。白宫已安排其与国防部长Pete Hegseth会面,但 Anthropic 仍未让步。事件引发科技行业内部对军用AI伦理的广泛讨论。
2026-02-28 02:12