# 军事应用

人工智能加速战争杀伤链:美伊冲突暴露AI军事应用风险

自2026年2月28日美国与以色列对伊朗发动代号‘史诗怒火’的突袭行动以来,战争进程急剧加快,首日即打击1000个目标,数日内伊朗最高领袖阿里·哈梅内伊等高层被击毙。美军中央司令部司令布拉德·库珀表示,已打击超5500个目标,部分归功于先进AI工具,可将决策时间从数小时缩短至数秒。AI公司Anthropic虽获2亿美元军方合同,其模型‘Claude’成为首个获准接入机密军事网络的AI系统,但因拒绝军方‘无限制访问’要求,遭国防部禁用并被指‘傲慢背叛’。OpenAI随即接替其角色,而Anthropic已提起诉讼。AI在军事中主要用于‘杀伤链’提速,如Palantir与Anthropic合作...

2026-03-21 16:05

帕兰提尔开发者大会聚焦AI军事应用 强调为美军提供不对称优势

2026年3月20日,帕兰提尔(Palantir)在未公开的美国大西洋中部酒店举办开发者大会,聚焦生成式人工智能在军事与商业领域的应用。公司首席技术官希亚姆·桑卡尔(Shyam Sankar)和首席执行官亚历克斯·卡尔普(Alex Karp)强调,公司使命是为美军提供“不公平优势”,并称其技术理念是为认知能力打造“钢铁侠战甲”。尽管商业业务年增长率达120%,但公司核心仍根植于国防领域。卡尔普在演讲中明确表示,公司支持战争行动,拒绝与反对军事应用的客户合作。大会期间,美国海军副上将、Maven项目负责人等军方代表出席,同时展示商业客户如时尚品牌Mixology Clothing通过AI系...

2026-03-21 00:06

美国国防部计划允许AI公司在机密数据上训练模型

美国国防部正探讨在安全环境中允许生成式AI公司使用机密数据训练军事专用模型,以提升其在目标分析等任务中的准确性。目前AI模型如Anthropic的Claude已在机密环境中用于回答问题,但尚未从数据中学习。新计划将使模型直接接触机密情报,如监视报告和战场评估,可能带来安全风险。国防部计划先在非机密数据(如商业卫星影像)上测试模型效果,再推进至机密数据。该举措是国防部加速成为‘AI优先’作战力量的一部分,背景为与伊朗冲突升级。OpenAI和xAI已获准在机密环境运行模型。专家指出,若管理不当,机密信息可能通过模型泄露给无权限部门,但通过严格隔离可降低向公众泄露风险。

2026-03-18 07:02

OpenAI技术或将在伊朗冲突中应用

OpenAI与美国国防部达成协议,允许其人工智能技术在机密环境中使用,尽管公司声称禁止用于自主武器或国内监控,但实际约束力存疑。随着美国对伊朗军事行动升级,OpenAI技术可能被用于目标分析、优先排序、无人机防御及后勤管理。尽管人类仍需人工审核AI输出,但其在情报解读和作战决策中的角色正逐步扩大。同时,OpenAI与Anduril合作开发反无人机系统,其模型已接入美军行政AI平台GenAI.mil,用于起草文件、合同和后勤支持。这一趋势反映美军全面拥抱AI的转型战略,而OpenAI正深度介入军事应用领域。

2026-03-17 10:31

Palantir展示AI聊天机器人如何用于军事作战计划生成

美国国防部与人工智能初创公司Anthropic之间的争议持续升温,后者拒绝向政府提供其Claude AI模型的无条件访问权限,引发国防部将其产品标记为“供应链风险”。在此背景下,Palantir作为军方主要承包商,宣布将Claude整合至其为美国情报与国防机构提供的软件系统中,用于生成数据驱动的洞察、识别模式及支持紧急决策。尽管具体细节未公开,但据WIRED审查的演示材料显示,AI聊天机器人可协助军事人员分析情报、规划作战方案,甚至生成攻击路线和电子干扰指令。Palantir的AIP平台允许用户通过聊天界面调用第三方大语言模型,如Claude,实现自动化任务执行。相关系统包括“Maven...

2026-03-13 19:14

专家警示AI加速军事目标识别进程 人类监督缺失引担忧

2026年3月10日,伦敦玛丽女王大学政治理论教授埃尔克·施瓦茨在接受法国24台采访时表示,人工智能在军事目标识别与打击决策中的应用正呈现‘激进加速’趋势,行动周期大幅缩短。她指出,当前AI模型的可靠率仅为25%至50%,错误率高,却缺乏必要的人类监督机制,可能引发误判与误炸风险。该言论引发对人工智能在军事领域应用的伦理与安全问题的广泛讨论。

2026-03-11 07:05

Anthropic起诉美国国防部挑战供应链风险认定

美国人工智能公司Anthropic于2026年3月9日向加州联邦法院提起诉讼,挑战美国国防部将其列为“供应链风险”的决定。该认定源于双方在军事应用中使用其AI技术(如自主武器系统)限制问题上的分歧。Anthropic认为此举违法,侵犯其言论自由权利,并可能使其失去数亿美元政府合同及下游客户。公司CEO达里奥·阿莫迪称,该认定仅适用于直接参与军方合同的客户,不影响一般商业用途。国防部未立即回应。多家科技行业组织及前国家安全官员联名呼吁政府重新考虑,称此举可能抑制美国创新。若认定维持,军方承包商如Palantir可能需更换AI模型,增加政府成本。OpenAI已与国防部达成新合同,但未说明其技...

2026-03-10 00:08

白宫收紧AI监管规则 背后是与Anthropic的公开争执

2026年3月9日,白宫在与AI公司Anthropic的公开争执背景下,加强了对人工智能模型使用的监管要求,规定企业必须允许其模型用于‘任何合法用途’。与此同时,美国防部与Anthropic之间的合同争议引发对AI监控法律边界的质疑,凸显现行法律在AI时代监管能力的滞后。卫星公司Planet Labs因揭露伊朗军事行动而停止共享影像数据,以防止被敌对势力利用。OpenAI与Anthropic之间的创始人矛盾加剧,涉及AI军事应用与自主武器等伦理问题。此外,中国科技股因OpenClaw热潮上涨,而美国企业如Block则因AI裁员引发员工抗议。

2026-03-09 23:17

五角大楼正式将Anthropic列为供应链风险企业

美国国防部正式将人工智能公司Anthropic列为'供应链风险',并要求联邦机构及国防承包商立即停止使用其AI工具。此举源于Anthropic此前寻求限制美军使用其模型。五角大楼表示,该决定旨在防止供应商干预军事指挥链,确保作战人员安全。该标签通常用于与美国对手有关联的外国企业,此次适用于美国本土公司属罕见。Anthropic表示将就该标签提起诉讼,但未立即回应置评请求。

2026-03-06 10:04

初创公司开发军用AI模型 引发伦理与安全争议

美国初创公司Smack Technologies宣布完成3200万美元融资,致力于开发专用于军事行动规划的人工智能模型。该公司CEO安迪·马尔科夫曾为美国海军陆战队特种作战司令部指挥官,其团队通过模拟战争场景训练AI模型,以优化军事任务规划。马尔科夫表示,通用大模型如Claude缺乏军事数据训练,无法胜任目标识别等任务。此举引发伦理争议,未来生命研究所专家安娜·赫尔指出,当前AI系统在识别战斗人员与平民、判断投降行为方面存在严重局限,不适合用于高风险作战决策。美国国防部与Anthropic因AI军事使用限制问题发生分歧,导致后者被认定为供应链风险。目前全球超过30个国家已部署不同程度自主...

2026-03-05 07:03

奥特曼告知员工:国防部军事行动决策权归属政府

OpenAI首席执行官山姆·奥特曼在2026年3月3日的全体员工会议上表示,公司不参与美国国防部使用其人工智能技术的作战决策。他强调,尽管OpenAI可提供技术专长并构建安全体系,但军事行动的“操作决定权”完全由政府掌控,具体由国防部长皮特·赫格塞斯负责。该表态发生在OpenAI宣布与国防部达成新协议四天后,该协议允许其模型部署至机密网络,此前该公司仅限于非机密用途。奥特曼承认公司在此事上“操之过急”,并称此举可能被视为“机会主义”。与此同时,竞争对手Anthropic因被列为“国家安全供应链风险”而遭美国政府禁用,其AI技术据称曾用于伊朗打击行动及委内瑞拉前领导人马杜罗的抓捕。xAI亦...

2026-03-04 07:02

美国在‘史诗怒火’行动中部署AI系统 助力军事决策

2026年3月3日,据《华尔街日报》等媒体报道,美国军方在与伊朗的冲突(美方称‘史诗怒火’,以方称‘咆哮之狮’)中,部署了由初创公司Anthropic开发的大型语言模型‘Claude’,用于情报分析、目标识别和作战模拟。尽管美国总统唐纳德·特朗普已下令联邦机构在六个月内逐步淘汰该技术,但军方因该AI系统已深度嵌入作战流程而继续使用。美国国防部(DoW)已推行‘AI优先’战略,推动AI在作战、情报和指挥系统中的全面整合,并推出安全平台GenAI.mil。此举凸显AI在现代战争中的核心地位,也引发关于技术伦理、监管滞后及军民技术冲突的广泛争议。

2026-03-03 19:02

OpenAI首席执行官奥尔特曼承认与美国防部协议“操之过急”

OpenAI首席执行官山姆·奥尔特曼于2026年3月2日承认,公司与美国国防部达成的协议“操之过急”,并承诺将修改合同内容。该协议签署于2026年2月26日,即白宫要求联邦机构停止使用Anthropic工具后数小时,且在华盛顿对伊朗采取军事行动前数小时。奥尔特曼表示,新协议将加入禁止AI系统用于美国公民国内监控的条款,并强调国防部已确认OpenAI工具不会被情报机构如NSA使用。他承认此举“看起来机会主义且草率”,并称公司正与五角大楼合作制定技术安全措施。此前,Anthropic与国防部谈判破裂,该公司曾要求确保其AI系统不用于自主武器开发或国内监控,其工具曾被用于1月抓捕委内瑞拉总统马...

2026-03-03 11:02

OpenAI与美国防部合作引发用户流失 ChatGPT卸载量激增295%

2026年2月28日,美国用户对ChatGPT移动应用的卸载量较前一日激增295%,主要因OpenAI宣布与美国国防部(现称‘战争部’)达成合作。与此同时,竞争对手Anthropic的Claude应用下载量大幅上升,日增37%至51%,并登顶美国App Store免费应用榜。用户在应用商店中对ChatGPT的1星评价在2月28日激增775%,五星级评价则下降50%。市场分析机构Sensor Tower、Appfigures与Similarweb数据均显示,用户行为变化显着,反映出公众对AI技术用于军事目的的担忧。Anthropic明确拒绝与国防部合作,称担忧AI用于监控公民及自主武器系统...

2026-03-03 09:04

OpenAI与美国五角大楼达成协议 允许军方在机密环境中使用其技术

2026年2月28日,OpenAI宣布与美国国防部达成协议,允许军方在机密环境中使用其人工智能技术。OpenAI首席执行官山姆·阿尔特曼表示,该谈判是在五角大楼公开批评Anthropic后才启动的,过程“明显仓促”。OpenAI强调,其协议禁止用于自主武器和大规模国内监控,并称未接受Anthropic曾拒绝的相同条款。然而,分析指出,OpenAI采用的法律框架依赖于政府不会违法的假设,而Anthropic曾主张更明确的合同禁止条款。五角大楼国防部长彼得·赫格塞斯称Anthropic“傲慢与背叛”,并下令停止与其合作,同时宣布将其列为供应链风险,禁止与美军合作的任何企业与Anthropic...

2026-03-03 02:04

OpenAI首席执行官奥尔特曼宣布与美国国防部达成协议 含技术安全措施

2026年2月28日,OpenAI首席执行官山姆·奥尔特曼宣布,该公司已与美国国防部达成协议,允许其人工智能模型在国防部的机密网络中使用。该协议包含禁止国内大规模监控和自主武器系统等安全原则,并将部署工程师协助模型安全运行。此前,OpenAI竞争对手Anthropic因拒绝接受国防部“所有合法用途”要求而陷入僵局,引发总统特朗普批评并下令联邦机构停用其产品。美国防长赫格塞斯更将Anthropic列为供应链风险,禁止与美国军方合作的承包商与其开展商业活动。Anthropic称尚未收到官方沟通,将对风险认定提起诉讼。奥尔特曼呼吁所有AI公司接受类似条款,推动行业达成合理共识。此消息发布前夕,...

2026-03-01 01:08

特朗普下令联邦机构停用Anthropic公司AI技术 因其拒绝军方使用要求

2026年2月27日,美国总统特朗普通过社交媒体宣布,命令联邦政府所有机构立即停止使用人工智能企业Anthropic的技术。此举是对该公司拒绝美国国防部关于放宽其AI技术在军事领域使用限制要求的回应。Anthropic在26日声明中称,当前技术在大规模监控及完全自主武器等领域存在安全风险,无法确保可靠执行,因此拒绝配合。特朗普批评该决定为“左翼狂信者的毁灭性错误”,并强调政府有权指导军队作战方式。事件凸显政府与科技企业在AI伦理与军事应用间的冲突,可能引发全球对AI监管框架的进一步讨论。

2026-02-28 11:02

特朗普下令禁止美国政府使用Anthropic人工智能工具

美国现任总统唐纳德·特朗普于2026年2月27日宣布,立即指示所有联邦机构停止使用Anthropic公司的人工智能工具。此举源于该公司与军方在人工智能军事应用限制问题上的长期争执。特朗普在Truth Social平台称,Anthropic的‘左翼激进分子’试图‘胁迫国防部’,犯下‘灾难性错误’。美国防部此前试图修改与Anthropic等AI公司于去年7月达成的协议,取消AI使用限制,允许‘所有合法用途’,但Anthropic反对,担心AI可能被用于自主致命武器或对美国公民进行大规模监控。尽管国防部表示目前未使用AI进行此类活动,且无此计划,但特朗普政府高层反对由民用科技公司主导军用AI规...

2026-02-28 06:03

五角大楼与 Anthropic 就人工智能军事应用展开对峙

美国国防部与人工智能公司 Anthropic 就军事用途的 AI 技术使用限制发生激烈对峙。国防部长彼得·赫格塞斯要求 Anthropic 在指定时间内放宽其模型的安全限制,包括大规模国内监控和全自动武器系统,但该公司拒绝,称此举违反其公司政策。此次冲突凸显了私营企业在前沿 AI 开发中日益增长的影响力,以及政府在国家安全领域对商业技术的依赖。此前,国防部于7月向 Anthropic、OpenAI、Google DeepMind 和 xAI 等四家公司授予最高达2亿美元的合同,用于开发与国家安全相关的 AI 原型。此举标志着美国加速推进“AI优先”军事战略,但同时也引发关于技术控制权、伦...

2026-02-28 03:03

Anthropic拒绝军方移除AI安全限制 被指面临被禁用风险

美国国防部与AI公司Anthropic因AI技术军事应用安全限制问题陷入僵局。Anthropic首席执行官达里奥·阿莫迪拒绝军方要求其放宽对大规模监控及完全自主武器使用的限制,称此类用途“完全非法”。军方则坚持技术使用由政府决定,要求公司允许其“用于所有合法目的”,并设定周五下午5:01前的最后期限,否则将终止合作并将其列为“供应链风险”。该争端涉及价值2亿美元的合同及美国军方对先进AI工具的依赖,可能引发法律挑战及对AI监管的广泛讨论。

2026-02-27 11:04