← 返回

Anthropic招聘化学武器与高能炸药政策经理 引发全球AI安全争议

美国人工智能公司Anthropic在LinkedIn发布招聘启事,寻求一名化学武器与高能炸药政策经理,负责制定AI系统在敏感领域信息处理的安全防护措施。公司强调其产品禁止用于武器开发,该职位属于安全防护团队,旨在防止AI技术被恶意滥用。此举引发与美国国防部的公开矛盾,后者因Anthropic拒绝为自主武器系统提供技术支持,将其列为国家安全供应链风险,并禁止军方使用其技术。Anthropic已就此提起诉讼。该事件凸显AI安全与国家安全之间的张力,也反映了全球在AI监管与技术应用平衡上的深层分歧。

Anthropic招聘化学武器与高能炸药政策经理 引发全球AI安全争议

美国人工智能公司Anthropic近日在LinkedIn平台发布招聘启事,寻求一名“政策经理,化学武器高能炸药”职位。该岗位将参与制定AI系统处理敏感化学及爆炸物信息的安全策略,协助防止其被用于灾难性滥用。

公司发言人向Mashable表示,Anthropic的使用政策明确禁止其产品或服务用于武器设计或开发。该职位隶属于公司安全防护团队,主要任务是构建和执行技术防护机制,确保AI系统不被恶意利用。

该招聘引发公众关注,部分人将其与《终结者》系列中“天网”系统诞生的虚构情节相提并论。然而,Anthropic强调其招聘目的是强化AI安全防护体系,而非参与武器研发。

此前,Anthropic与美国国防部(Department of Defense)发生公开冲突。公司坚持其AI不得用于开发完全自主武器或建立大规模监控系统。国防部长Pete Hegseth回应称,Anthropic构成国家安全供应链风险,宣布禁止国防部使用其技术,并设六个月过渡期。Anthropic随后于3月5日由CEO Dario Amodei发表声明,正式提起诉讼。

2月,Anthropic更新其AI安全政策(即“负责任扩展政策”),称出于联邦政府更侧重经济增长而非安全监管等多重因素,公司被迫重新评估其安全框架。该政策曾被视为业内最严格之一。

此次招聘的政策经理将身处AI安全与国家安全博弈的前沿,其工作或将影响未来AI技术在敏感领域的应用边界。

编辑点评

此次Anthropic招聘化学武器与高能炸药政策经理,不仅是技术公司的内部人事调整,更凸显了全球AI治理进入关键十字路口。AI技术的双重属性——既能推动社会进步,也可能被用于军事化或极端目的——正迫使科技企业与政府重新定义安全边界。美国国防部将其列为供应链风险并禁止使用,反映出军方对AI自主武器化的高度警惕,而Anthropic的强硬立场则体现了科技企业对伦理责任的坚守。这一冲突本质上是技术自主性与国家安全控制之间的博弈,未来可能引发更多国家效仿类似禁令或监管框架。同时,该事件也暴露出当前全球AI安全标准缺乏统一协调,各国在安全、创新与监管之间存在明显分歧。若未能建立国际共识,AI技术可能在缺乏有效约束下被用于军事竞赛,加剧地缘紧张。长远看,此类岗位的设立或成AI行业常态,预示着技术企业需承担更多‘安全守门人’角色,其影响力将超越单一公司范畴,重塑全球科技治理格局。

相关消息:https://mashable.com/article/anthropic-weapons-explosives
当日日报:查看 2026年03月21日 当日日报